Suppression de 1.700 postes : les syndicats de SFR dénoncent « un scandale social, économique et financier »

Sur les 9.500 emplois que compte encore le 2e opérateur télécoms français SFR, 1.700 postes vont être supprimés en 2021 sur la base du volontariat. C’est près de 18 % des effectifs « télécoms » de la filiale française d’Altice. Les syndicats, eux, sont vent debout contre ce projet « Transformation et ambitions 2025 ». Blocage.

Depuis la première réunion de négociation du 10 mars dernier entre les syndicats de SFR et la direction générale du 2e opérateur télécoms français, c’est le black-out total. Aucune date de nouvelle rencontre n’est prévue. « La direction a fermé la porte des négociations ; elle boude, c’est le blocage », regrettent le 18 mars les représentants syndicaux, contactés par Edition Multimédi@. La CFDT, la CFTC et l’Unsa Com ont dénoncé ce 10 mars « un scandale social, économique et financier ». Ils l’ont fait savoir dans un « manifeste pour la vérité« , dans lequel ils ont fait connaître « leur opposition à une négociation ouverte sur la base d’un tissu de mensonges travestissant la réalité économique de SFR » et « sur la base d’une construction artificielle et inacceptable de “nouvelles” orientations stratégiques ». Alors que SFR en est à son troisième plan social en moins de dix ans (2), dont 5.000 emplois supprimés en 2017, celui-ci – avec sa destruction de 1.700 emplois – ne passe pas. « Cette invitation à la négociation d’une réduction des effectifs est faite alors que justement les excellents chiffres de la période, au contraire des autres entreprises françaises, auraient dû conduire SFR à organiser une discussion autour d’un partage des résultats », s’insurgent les organisations syndicales, rappelant que Patrick Drahi (photo), le patron fondateur de la maison mère Altice, s’était dit « sensible » au dialogue social au sein de l’entreprise.

Les télécoms pourtant préservées par la crise
Au lieu de cela, les négociations démarrent, selon les syndicats, sur des « bases tronquées, anti-économiques et antisociales ». Et les syndicats représentatifs de SFR d’enfoncer le clou : « Il serait en effet particulièrement intolérable que dans un secteur préservé par la crise, les pouvoirs publics puissent faire preuve d’un “turbulent silence”, face à des suppressions d’emplois qui vont peser sur les comptes sociaux de la nation, alors que l’entreprise est prospère ». En croissance de 2,4 % sur un an, l’opérateur SFR est la vache à lait d’Altice France, dont il génère 97 % du chiffre d’affaires total (lequel est de 10,9 milliards d’euros en 2020), avec un ratio de rentabilité opérationnelle de 39,8 % (Ebitda télécoms).
La volonté de SFR d’embaucher parallèlement 1.000 jeunes d’ici 2025 ne suffit pas à apaiser le courroux des syndicats. Ce millier de nouvelles recrues sur quatre ans se fera « sur les nouveaux métiers qualifiés du numérique, par exemple liés à la sécurité, l’analyse de la donnée ou l’IA ». Ce que la direction présente comme « un grand plan de recrutement » de 1.000 « jeunes diplômés » rend d’autant plus indigeste pour les syndicats la suppression de 18 % des effectifs de SFR, même si « l’embauche de jeunes est une nécessité ».

« Transformation et ambitions 2025 »
En annonçant le 3 mars son projet stratégique « Transformation et ambitions 2025 », SFR a justifié son objectif de 1.700 suppressions d’emplois par, d’une part pour 400 d’entre eux, la baisse de fréquentation dans les boutiques (- 30 %) et la progression continue des actes en ligne, et, d’autre part pour 1.300 d’entre eux, l’évolution du réseau de boutiques ramené à 568 magasins d’ici fin 2022. En outre, dans le cadre de ses obligations légales qu’il affirme déjà dépasser, le groupe Altice France-SFR – incluant les médias BFM et RMC – s’est engagé à créer 1.000 contrats d’apprentissage par an. « A l’heure où nous sommes déjà dans une phase d’investissements massifs pour la fibre et la 5G, nous devons, en tant qu’acteur sur lequel repose toute l’économie numérique, nous mettre en ordre de marche et nous fixer des objectifs élevés pour faire face à ce niveau d’exigence », a expliqué Grégory Rabuel, directeur général de SFR. Le deuxième opérateur télécoms en France revendique 25 millions de clients.
L’un des points d’achoppements entre direction et syndicats réside dans la demande des seconds à ce que l’emploi soit maintenu jusqu’en 2025 au niveau où il est début 2021. Pour la direction, ces exigences « posées en préalable à toute négociation » sont « incompatibles avec la situation de l’entreprise et la nécessité de sa transformation » (3). Pour les syndicats, il ne s’agit pas d’un « péalable » mais d’un contre-projet à négocier. Nul ne sait maintenant quand la direction présentera son plan de réorganisation. La dernière entrevue entre les syndicats de SFR et le président d’Altice Europe, Patrick Drahi, accompagné de son directeur opérationnel Armando Pereira, remonte au 16 décembre 2020. Les deux dirigeants auraient alors assuré aux organisations syndicales leur « attachement à un dialogue social de qualité ». Mais ces dernières ont rapidement déchanté, constatant début février « que le dialogue social est en mode totalement dégradé et qu’il n’existe plus d’interlocuteur faisant un lien entre les salariés, leurs représentants et vous [Drahi et Pereira] ».
La vente au groupe espagnol Cellnex de la filiale Hivory, qui se présente au sein d’Altice comme « la 1ère Tower Co en France » avec son parc de plus de 10.000 points hauts pour les antennes mobiles 3G, 4G et 5G (pylônes, châteaux d’eau, toits-terrasses, …), est aux yeux des syndicats révélatrice de l’absence de concertation et d’information préalable. Les partenaires sociaux ont appris la nouvelle par voie de presse (4). Hivory a comme principal client SFR, mais travaille aussi avec Bouygues Telecom et Free. Autres signes de dégradation du climat social et des conditions de travail : le recours massif au télétravail, sous prétexte de crise sanitaire, s’est fait sans concertation et sans accompagnement (5) ; le recours au chômage partiel pour des milliers de salariés a permis des économies substantielles pour le groupe. Depuis l’annonce du plan social le 3 mars, le dialogue de sourds s’est installé et la réunion du 10 mars a donné le coup d’envoi du bras de fer social. La direction de SFR, elle, défend son projet stratégique « Transformation et ambitions 2025 » auprès de ses « partenaires sociaux » en invoquant « l’accélération de la digitalisation des usages constatée par tous depuis le début de la crise sanitaire », « de[s] revenus captés par d’autres acteurs » (les GAFAN), « de[s] tarifs toujours très bas » et « une fiscalité spécifique au secteur extrêmement lourde ». Le groupe Altice France-SFR entend « poursuivre sur le long terme sa politique d’investissements efficace ». Il s’agit, selon la direction, de pouvoir absorber le trafic qui ne cesse d’augmenter chaque année (+35 % de trafic pour SFR en 2020) et de s’adapter aux évolutions technologiques récurrentes, comme la fibre et la 5G. Côté fibre : « Altice France-SFR poursuivra le déploiement de l’infrastructure fibre du pays et se fixe comme objectif le raccordement de plus de 90 % des foyers français en 2025 » et « vise 5 millions de nouveaux clients FTTH ». Côté 5G : « Altice France- SFR appuiera ses efforts de déploiement 5G et couvrira 98 % des villes de plus de 10.000 habitants en 5G », dont Paris depuis le 19 mars.

Altice Europe n’a plus la cote
Quant à la maison mère d’Altice France-SFR, Altice Europe, elle n’est plus cotée à la Bourse d’Amsterdam depuis le 27 janvier dernier. Le milliardaire Patrick Drahi a repris le contrôle (plus de 92 % du capital) du groupe de télécoms et de médias qu’il a fondé et dont il était déjà actionnaire majoritaire. Son opération de rachat d’actions avait pour objectif de ne plus être pénalisée par les investisseurs inquiets de sa dette, bien que ramenée à 28,5 milliards d’euros (6). @

Charles de Laubier

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier

Et combien coûtera la stratégie digitale de l’Europe ?

En fait. Le 19 février, la Commission européenne a présenté sa stratégie numérique pour les cinq prochaines années en matière de données, d’une part, et d’intelligence artificielle, d’autre part. Deux enquêtes sont menées en ligne, jusqu’au 19 mai pour le livre blanc sur l’IA. Mais le financement reste à préciser.

Commission européenne : la face digitale d’UVDL

En fait. Le 16 juillet, l’Allemande Ursula von der Leyen (UVDL) a été élue par les eurodéputés – d’une courte majorité (52,25 %) – à la présidence de la Commission européenne, où elle remplacera le 1er novembre prochain Jean-Claude Juncker. Elle a présenté son agenda 2019-2024 pour l’Europe, encore plus digitale.

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.