Faut-il réguler l’intelligence artificielle et, si oui, de façon globale ou sectorielle ?

Plutôt que de créer un « code de l’intelligence artificielle » ou une nouvelle personnalité juridique (solvable ?) pour les systèmes d’IA, une régulation mesurée de l’IA pourrait faire l’affaire. Mais la faut-il globale avec un super-régulateur de l’IA, ou bien sectorielle avec les régulateurs existants ?

Justice prédictive et « boîtes noires » : qui gardera les algorithmes dans notre démocratie numérique ?

Le prédictif — à grand renfort d’intelligence artificielle et d’algorithmes — nous apporte un nouveau type de connaissances. Mais il faut identifier les possibles effets pervers de « la boîte noire » et éviter que la justice prédictive ne devienne une justice « performative » ou « auto-réalisatrice ».

Fabrice Lorvo*, avocat associé, FTPA.

Le rapport Villani (1) sur l’intelligence artificielle (IA) – laquelle est, rappelonsle, le fait de créer des processus cognitifs comparables à ceux de l’être humain – préconise que la France avec l’Europe devienne un leader mondial de l’intelligence artificielle. Il s’agit de donner un sens à cette intelligence, qui doit seconder et non remplacer l’intelligence humaine.

Prédire jusqu’aux comportements humains
L’essor de l’IA est irrémédiable car il constitue a priori, aux yeux de tous, un progrès. Cette évolution technologique ne doit cependant pas nous faire oublier l’expérience acquise et la relativité du progrès, lequel peut apporter une amélioration immédiate puis être aussi porteur à plus long terme d’effets extrêmement néfastes sur les humains. L’amiante en est un exemple topique. Vanté au début du XIXe siècle pour ses vertus techniques, utilisé à outrance notamment pour la reconstruction d’aprèsguerre, il est apparu postérieurement que les effets à long terme de ce type de minéral à texture fibreuse étaient létaux pour l’homme.
Outre ce caractère irrémédiable, force est de constater que le progrès numérique (2) est ambivalent, c’est-à-dire qu’il amplifie à la fois des effets positifs comme des effets négatifs, et qu’il est difficile de tenter de corriger les effets négatifs sans impacter les effets positifs. L’IA n’échappe donc pas à des réserves. Ce nouveau type d’intelligence et de connaissance — avec l’ingénierie inversée (3) — offre des possibilités multiples, et l’on se prend à rêver d’un algorithme permettant de lutter contre, par exemple, le piratage sur Internet ou les contenus illicites en lignes. Nous nous intéresserons uniquement à la justice prédictive. On peut distinguer deux grands types de débouchés possibles : prédire les décisions de justice (sur la base des décisions de justice rendues dans le passé) ou prédire les comportements humains individuels à venir. Cette dernière catégorie concerne principalement l’aspect pénal de la justice. Elle est déjà utilisée depuis plus de dix ans aux Etats-Unis pour mesurer les risques de dangerosité ou de récidive d’un individu. En principe, en France, une telle utilisation n’est pas possible dès lors qu’elle est interdite par la loi. Cette interdiction doit cependant être nuancée car si la loi « Informatique et Libertés » de 1978 interdit que les décisions de justice impliquant une appréciation sur le comportement d’une personne soient prises par des algorithmes (4), la jurisprudence limite l’interdiction à l’exclusivité du fondement de la décision, considérant ainsi que ladite loi n’a ni pour objet ni pour effet d’interdire
à la juridiction de prendre en compte, parmi d’autres éléments d’appréciation, les résultats d’un tel traitement (5). Une étude parue en janvier 2018 dans Science Advances (6) démontre que le logiciel d’évaluation des risques Compas (7), commercialisé par une société privée américaine (Northpointe) et largement utilisé
par — selon cette société — l’équipement de 200 systèmes de justice pénale aux
Etats-Unis et au Canada, n’est pas plus précis ou équitable que les prédictions faites par des personnes ayant peu ou pas d’expertise en justice pénale. Cette étude démontre en outre qu’avec beaucoup moins d’informations que Compas (seulement
7 critères comparés aux 137 du questionnaire de Compas (8)), une petite foule de personnes inexpérimentées est aussi précise que Compas pour prédire la récidive.
A priori et à ce jour, les algorithmes prédictifs n’ont pas démontré une suprématie
par rapport à la décision humaine en termes d’efficacité. En France, par exemple, le Conseil d’Etat cite un rapport de l’Institut Montaigne publié en 2017 et intitulé « Justice : faites entrer le numérique », selon lequel « le taux actuel de sûreté des algorithmes prédictifs en droit ne semble pas, en l’état, excéder 70 %, ce qui n’est pas si élevé et
ne saurait fonder des certitudes » (9). A l’inverse, de tels algorithmes sont critiqués car sujets à de nombreux biais cognitifs principalement des biais sexistes, raciaux et de classes sociales (10).

Boîte noire et secret des affaires : risques
Outre l’efficacité relative des algorithmes, au moins deux critiques essentielles doivent être conservées à l’esprit en matière de justice prédictive, à savoir, le syndrome de
« la boîte noire » et le risque de « performativité » de la justice. Pour la boîte noire,
il ne s’agit pas ici de celle de l’aéronautique (qui est en fait orange) mais bien de la représentation d’un système sans comprendre son fonctionnement interne. Les codes sources des algorithmes sont généralement incompréhensibles pour le commun des mortels, et confidentiels car couverts par le secret des affaires. Une des causes de cette opacité réside dans le fait que les algorithmes utilisés, notamment par le pouvoir régalien (justice, police, défense, etc.), nécessitent de tels investissements financiers qu’ils ne sont développés que par le secteur privé.

Transparence, intégrité et capacité de jugement
Outre les questions de souveraineté, lorsque le prestataire est d’une nationalité différente, se pose de manière prégnante la question du secret des affaires. On peut comprendre qu’une société privée souhaite conserver son avantage concurrentiel, fruit de ses investissements et du risque pris en R&D, en gardant secret le fonctionnement de ces algorithmes. A l’inverse, dès lors que lesdits algorithmes sont de nature à avoir un impact sur la liberté des citoyens, il est plus que légitime que de pouvoir comprendre la manière dont il fonctionne et de pouvoir vérifier l’intégrité et la pertinence du modèle. L’exemple magistral du scandale récent du « Dieselgate » a démontré qu’un algorithme pouvait être trompeur et que le résultat qui s’affiche à l’écran peut travestir la réalité.
De plus, il faut être en mesure de pouvoir vérifier la neutralité des algorithmes. Il se pose, là encore, la question de savoir si l’homme est prédictible et jusqu’où il peut être modélisé de manière mathématique. Les algorithmes peuvent implicitement se référer
à un concept d’homme idéal ou de norme socialement acceptable. Sans défiance particulière pour les mathématiciens et/ou ingénieurs du secteur privé, ce type de questions relève du débat de société et l’établissement de telles normes – qui constituent déjà une sérieuse entorse à l’indispensable diversité humaine, sociale
ou culturelle – est de la compétence exclusive des pouvoirs publics, protecteurs de l’intérêt général et des droits fondamentaux. Reste aussi la question de la complétude, l’exactitude et l’intégrité de la base de données sur lequel les algorithmes vont travailler.
Cette nécessité de transparence et de compétences, ainsi que les problèmes éthiques induits que posent des algorithmes, a suscité diverses propositions qu’il convient de continuer à explorer. Le rapport Villani évoque « la constitution d’un corps d’experts publics assermentés en mesure de procéder à des audits d’algorithmes, des bases
de données et de procéder à des tests par tous moyens requis ». De même, le Québec a récemment proposé la création d’une « organisation mondiale de l’intelligence artificielle pour travailler sur les enjeux sociétaux et éthiques de cette technologie » (11). Une des grandes questions de la démocratie depuis l’Antiquité a été de savoir
« Qui gardera les gardes ? » ; celle de notre démocratie numérique sera probablement : « Qui gardera les algorithmes ? ». A la vitesse à laquelle l’intelligence artificielle progresse, tout cela ne constitue que des balbutiements et des ajustements temporaires, et que les algorithmes seront prochainement d’une grande fiabilité. Cet espoir n’est pas illusoire mais il est insuffisant. Ne négligeons pas le fait que le prédictif nous apporte un nouveau type de connaissances et qu’il nous faut en identifier les possibles effets pervers. Il faut avoir conscience et éviter que la justice prédictive ne devienne une justice performative ou auto-réalisatrice. En effet, si l’analyse des décisions passées permet de dégager une opinion majoritaire, il faut garder à l’esprit la possibilité que le juge soit influencé par ce résultat : soit qu’il renonce spontanément à sa liberté d’appréciation du fait de la quantité de jugements passés rendus dans un sens, soit qu’il ne souhaite pas prendre le risque de soutenir une position contraire.
En d’autres termes, le résultat produit par les algorithmes peut être de nature à s’imposer, volontairement ou non, au juge. Les algorithmes pourraient donc affecter la capacité de jugement des juges et/ou ôter à la jurisprudence son rôle qui permet de faire évoluer le droit en prenant en considération l’évolution de la société. Dans ces conditions, le règne des décisions passées serait de nature à empêcher toute variation dans le futur. Quant au juge, il pourrait sous la pression des décisions de ses prédécesseurs, réduire sa capacité de juger et limiter son rôle à celui de répétiteur du passé et non plus, de facilitateur de l’avenir.

Équilibre entre conviction et uniformisation
Un autre élément serait de nature à figer la jurisprudence, à savoir l’absence de prise en compte de la hiérarchie des décisions judiciaires qui sont pourtant de nature très diverse (première instance, appel ou de cassation). Cette hiérarchie a une fonction :
« Les arrêts des formations supérieures viennent poser, dans une navigation juridictionnelle parfois périlleuse, des phares et des balises aidant au repérage que la multitude des décisions d’espèce ne doit pas masquer » (12) (*). Le risque, c’est que l’exploitation de ces décisions en ligne ne prenne plus en considération cette hiérarchie. Notre système judiciaire est le fruit d’un mécanisme d’horloger permettant un difficile équilibre entre l’intime conviction du juge et l’uniformisation de la jurisprudence. C’est un titanesque défi de vouloir transcrire cet équilibre en une équation mathématique. @

* Auteur du livre « Numérique : de la révolution au naufrage ? »,
paru en 2016 chez Fauves Editions.

L’intelligence artificielle devient une affaire d’Etat

En fait. Le 29 mars, le président de la République, Emmanuel Macron, a annoncé que la France allait consacrer à l’intelligence artificielle (IA) 1,5 milliard d’euros d’ici à 2022 (la fin de son quinquennat). Le 28 mars, le rapport du député (LREM) Cédric Villani sur l’IA a été publié. Il souligne le retard de l’Europe.

Audrey Azoulay face à la mise en oeuvre la Convention de l’Unesco de 2005 «dans l’environnement numérique»

Les « directives opérationnelles sur la mise en oeuvre de la Convention [de 2005] dans l’environnement numérique », approuvées à Paris en juin et entérinées en décembre 2017, font désormais parties des objectifs des Nations Unies à l’horizon 2030. A Audrey Azoulay maintenant de les mettre en musique.

La Française Audrey Azoulay (photo), directrice générale d’l’Unesco depuis novembre 2017, va maintenant devoir mettre en oeuvre « dans l’environnement numérique » la Convention de 2005 sur la protection et la promotion de la diversité des expressions culturelles. Plus de quinze ans après sa signature à Paris (le 20 octobre 2005) et dix ans après son entrée en vigueur il y a dix ans (le 18 mars 2007), la Convention de l’Unesco – ratifiée par 145 Etats et l’Union européenne (UE) – cherche à s’adapter à Internet et aux plateformes en ligne dominées par les GAFA, sous peine d’obsolescence.

« Feuille de route ouverte » à venir
Dans le cadre de la 11e session du Comité intergouvernemental de la Convention 2005, qui s’est déroulée mi-décembre (12-15), il fut plus que jamais question du numérique. Parmi les décisions prises lors de cette réunion au siège de l’Unesco à Paris, il est prévu que le secrétariat de l’Unesco établisse d’ici la prochaine session
« une feuille de route ouverte, comprenant une collection diverse de bonnes pratiques, pour la mise en oeuvre des directives opérationnelles sur la Convention dans l’environnement numérique ». Le projet de plan de travail pour les activités du comité de la Convention 2005 pour les années 2018 et 2019 fixe notamment les « activités pour mettre en oeuvre les directives opérationnelles sur la diversité des expressions culturelles dans l’environnement numérique », avec une « étude d’impact sur le commerce et la culture, la liberté d’expression artistique à l’ère numérique ». Autant
dire que l’Unesco avance à pas comptés pour mettre en phase son texte emblématique avec le monde digital qui l’entoure. Un pas décisif a bien été franchi en juin 2017
lors de la Conférence dite des parties (Etats ou organisations régionales d’intégration économique ayant ratifié la Convention telles que l’UE), qui est l’organe plénier et souverain de la Convention de l’Unesco et sous laquelle fonctionne le Comité intergouvernemental. Ont en effet été adoptées « les directives opérationnelles pour
la mise en oeuvre de la Convention au sein de l’environnement numérique » (1) qui présentent la voie à suivre pour le développement de politiques publiques dans ces différents domaines. La France, qui a été moteur dès 2013 dans l’élaboration de ces directives « numérique », comme l’avait révélé Edition Multimédi@ (2) (*) (**), avait présenté en 2015 avec le Canada – rejoints par la Belgique – « une directive opérationnelle transversale l’ère du numérique » (3) (*) (**).
Il s’agit pour ces directives opérationnelles désormais adoptées, entre autres
« principes directeurs », de : réaffirmer le principe de « neutralité technologique »
de la Convention ; réaffirmer le droit souverain des Etats de formuler, d’adopter et de mettre en oeuvre « des politiques et mesures en matière de protection et de promotion de la diversité des expressions culturelles dans l’environnement numérique » ; garantir, conformément au principe de la neutralité de l’Internet, « un traitement égal et non discriminatoire du trafic de données dans le cadre de la fourniture de services d’accès
à Internet et les droits des utilisateurs finaux » ; promouvoir un accès équitable et un échange équilibré des biens et services culturels dans l’environnement numérique,
« notamment par l’application de dispositions de traitement préférentiel pour les œuvres créées ou produites par des artistes et des professionnels de la culture, des entreprises et des organisations indépendantes issus des pays en développement » ; soutenir les mécanismes nécessaires à l’émergence d’industries culturelles et créatives dynamiques dans l’environnement numérique.
Il s’agit aussi d’assurer le renforcement des « systèmes de gouvernance de la culture dans l’environnement numérique » tels que la protection et la promotion de « la diversité des expressions culturelles dans l’environnement numérique », la promotion de « la diversité des médias dans l’environnement numérique », la mise en place de groupes interministériels sur les questions numériques qui rassembleront des représentants des ministères et institutions concernés (entre autres ceux en charge
de la Culture, de la Recherche, du Commerce, de l’Industrie, des Télécommunications et de l’Education), « et impliqueraient dans leurs travaux le point de contact de la Convention et les représentants de la société civile ».

Tenir compte des « nouveaux acteurs »
Les directives opérationnelles « numérique » précisent en outre que ces politiques et mesures devront viser à englober tous les domaines – création, production, distribution, diffusion, accès et jouissance – en tenant compte des changements profonds de la chaîne de valeur et de l’arrivée de nouveaux acteurs. « Ces directives s’adressent en priorité aux pouvoirs publics. Les organisations non gouvernementales, les industries culturelles et créatives des secteurs public et privé, y compris les plateformes mondiales numériques, les fournisseurs d’accès Internet (FAI) et les autres acteurs dans l’environnement numérique sont également encouragés à les suivre », est-il précisé en préambule du texte adopté en juin 2017. Mais ces directives opérationnelles « numérique » n’ont pas de caractère contraignant vis-à-vis non seulement des FAI nationaux mais surtout des GAFA mondiaux.

Aides et financements publics
Désormais parties intégrantes des objectifs de développement durable (ODD) des Nations Unies à l’horizon 2030 et de ses principes directeurs sur les droits de l’homme, ces directives opérationnelles « numérique » incitent les Etats et l’UE à « soutenir les nouvelles formes de créativité dans l’environnement numérique, incluant les pratiques artistiques interactives et en temps réel » via des politiques publiques et des systèmes de financement. Toujours au niveau de la création, il est demandé aux Etats et à l’UE de reconnaître et de valoriser le travail des créateurs dans l’environnement numérique en promouvant : une rémunération juste et équitable des artistes et professionnels
de la culture ; la transparence dans la répartition des revenus entre les distributeurs numériques, les FAI et les titulaires de droits, ainsi qu’entre les titulaires de droits ; l’accès à la bande passante nécessaire ; le respect et la protection des droits de propriété intellectuelle, en permettant la gestion collective, le cas échéant, et la négociation collective des droits numériques ; les systèmes de dépôt légal électronique pour documenter et archiver leurs œuvres.
Du côté de la production cette fois, les Etats et l’UE doivent s’efforcer de soutenir la modernisation des industries culturelles et créatives telle que la numérisation et l’incorporation d’outils technologiques dans les processus de production des industries culturelles et créatives, ou encore la promotion dans l’environnement numérique de nouvelles formes de financement des industries culturelles et créatives et de nouvelles formes de partenariat entre le secteur public et privé.

Pour la distribution/diffusion, les directives opérationnelles « numérique » prévoient que les Etats et l’UE s’engagent à soutenir la distribution des œuvres dans l’environnement numérique et à offrir des opportunités comme :
Encourager la diversité des médias numériques, y compris la multiplicité des distributeurs numériques de biens et services culturels et des acteurs du numérique (plateformes en ligne, FAI, moteurs de recherche, réseaux sociaux), tout en garantissant la visibilité et la déc-ouvrabilité des contenus culturels nationaux et locaux.
Promouvoir le dialogue entre opérateurs privés et autorités publiques afin de valoriser une plus grande transparence dans la collecte et l’utilisation des données qui génèrent des algorithmes, et encourager la création d’algorithmes qui assurent une plus grande diversité des expressions culturelles dans l’environnement numérique et qui favorisent la présence et la disponibilité d’œuvres culturelles locales.
Développer le cadre juridique pour la distribution en ligne de biens et services culturels tel que la ratification des traités internationaux relatifs au droit d’auteur et aux droits voisins pertinents, des arrangements contractuels et des mesures de protection et de lutte contre la piraterie et le trafic illicite de biens culturels en ligne.
Promouvoir la coopération entre les plateformes en ligne (vidéo, audio et autres agrégateurs) et les titulaires des droits relatifs à ces biens et services (y compris des accords de licences et le déploiement d’outils techniques) pour améliorer la distribution en ligne des biens et services culturels et mieux trouver les contenus diffusés.
Enfin, au niveau de l’accès, les directives opérationnelles « numérique » exigent des Etats et de l’UE à instaurer une plus grande transparence et une meilleure lisibilité des modes d’indexation et de référencement des contenus afin que les mécanismes numériques (algorithmes de recommandation) qui déterminent les contenus disponibles pour les utilisateurs offrent un large éventail d’expressions culturelles diverses dans l’environnement numérique. Internet et les services en ligne sont en outre perçus comme un moyen de rééquilibrer les échanges de biens et services culturels comme
« mettre en place des dispositions de traitement préférentiel afin de faciliter des échanges plus équilibrés de biens et services culturels issus des pays en développement dans l’environnement numérique ».

GAFA, concentration et risques IA
La 11e session du Comité intergouvernemental de la Convention 2005 a aussi été l’occasion pour Audrey Azoulay de présenter le rapport mondial de l’Unesco 2018 intitulé « Re|penser les politiques culturelles » (4). Selon la directrice générale, « ce rapport met en lumière les cadres stratégiques les mieux adaptés à l’environnement numérique, et souligne l’émergence de plateformes d’échange (…) ». Dans un chapitre sur « les politiques culturelles à l’ère des plateformes numériques », l’Unesco prévient : « Le secteur public pourrait bien perdre le pouvoir dont il jouit sur la scène créative
s’il n’adopte pas une approche ciblée concernant l’émergence et la concentration
du marché des grandes plateformes numériques ou le monopole de l’intelligence artificielle ». @

Charles de Laubier

Œuvres et créations salariées : le droit d’auteur français manque cruellement de réalisme

Nombreux sont les salariés qui génèrent des droits d’auteur sans le savoir. Nombreux sont aussi les employeurs à commettre des actes de contrefaçon à leur insu, en exploitant ces créations sans avoir eu l’autorisation préalable de leurs salariés. Or le droit français gagnerait à plus de réalisme.