Les enjeux du droit d’auteur à l’ère de l’intelligence artificielle (IA) : entre exceptions et interprétations

La propriété intellectuelle est entrée dans une zone de turbulences provoquées par les IA génératives. L’utilisation d’œuvres reste soumise à l’autorisation des auteurs, mais le droit d’auteur est limité dans certains cas comme la fouille de textes et de données. L’AI Act sera à interpréter.

Par Jade Griffaton et Emma Hanoun, avocates, DJS Avocats*

La récente législation européenne sur l’intelligence artificielle (IA) – l’AI Act dans sa dernière version de compromis final datée du 26 janvier 2024 (1) (*) (**) – adopte une définition flexible de « système d’IA », désigné comme « un système basé sur des machines conçues pour fonctionner avec différents niveaux d’autonomie et d’adaptabilité après leur déploiement et qui, à partir des données qu’il reçoit, génère des résultats tels que des prédictions, du contenu, des recommandations ou des décisions pouvant influencer des environnements physiques ou virtuels » (2).

Exception de « fouille de textes et de données »
La question de la relation entre le droit de la propriété littéraire et artistique et l’IA est une préoccupation ancienne. Lors de la phase d’entraînement, le système d’IA reçoit des données. A ce stade, se pose la question de l’intégration de contenus protégés par le droit d’auteur aux fins du développement du système. Lors de la phase de génération, le système d’IA génère des résultats, voire des créations, à la demande de l’humain. Se pose alors la question de l’encadrement juridique de ces créations générées, en tout ou partie, par un système d’IA. Ces problématiques juridiques actuelles doivent être envisagées à la lumière des nouveaux textes destinés à réguler le domaine de l’IA, et notamment la récente proposition de règlement européen sur l’IA, et la proposition de loi française visant à encadrer l’utilisation de l’IA par le droit d’auteur (3).
De nouveaux contours de la possibilité d’utiliser des œuvres pour entraîner l’IA ? Les systèmes d’IA ont besoin, au stade de leur apprentissage et développement, d’avoir accès à de grands volumes de textes, images, vidéos et autres données. Ces contenus sont susceptibles d’être protégés par le droit d’auteur. L’objectif principal du règlement IA, dévoilé en 2021 par la Commission européenne, consiste à réguler les systèmes d’IA introduits sur le marché européen, en adoptant une approche axée sur les risques et en assurant un niveau élevé de protection des droits fondamentaux, de la santé publique, de la sécurité et de l’environnement. Ainsi, l’AI Act n’a pas vocation à traiter les questions relatives au droit d’auteur. Et pourtant, il n’ignore pas totalement leur importance en présence d’un système d’IA. A ce propos, le règlement renvoie à une exception – au principe d’obtention d’une autorisation de l’auteur pour toute utilisation de son œuvre – issue du droit de l’Union européenne (UE), celle de la fouille de textes et de données (text and data mining ou TDM). Cette exception – non spécifique aux systèmes d’IA – permet, semble-t-il, de justifier juridiquement l’utilisation de contenus protégés par le droit d’auteur en dispensant les opérateurs d’IA d’obtenir l’autorisation des auteurs qui ne se sont pas opposés expressément. Elle n’est pas nouvelle. C’est la directive européenne « Droit d’auteur et les droits voisins dans le marché unique numérique » de 2019 (4) qui a voulu rendre obligatoire pour les Etats membres de prévoir une exception aux droits de reproduction d’une œuvre et d’extraction d’une base de données, à des fins d’utilisation de technologies de fouille de textes et de données – technologies qui permettent une analyse informatique automatisée de textes, sons, images ou données sous forme numérique, en grande quantité, en vue d’acquérir de nouvelles connaissances. En y faisant ce renvoi, la proposition de règlement confirme, semble-t-il, que cette exception s’applique aux systèmes d’IA mais n’apporte aucune nouveauté en la matière. La proposition de loi française – dont l’objet même est, contrairement à la proposition européenne, d’encadrer l’IA par le droit d’auteur – envisage d’incorporer dans le code de propriété intellectuelle (CPI), au sein de l’article L.131-3, un alinéa prévoyant que l’intégration d’œuvres protégées par le droit d’auteur dans le système d’IA est soumise « à une autorisation par les auteurs ». Une telle formulation – « L’intégration par un logiciel d’intelligence artificielle d’œuvres de l’esprit protégées par le droit d’auteur dans son système et a fortiori leur exploitation est soumise aux dispositions générales du présent code et donc à autorisation des auteurs ou ayants droit » (5) – pourrait recevoir diverses interprétations.

Question de l’« autorisation des auteurs »
L’intégration des œuvres dans un système d’IA est un nouveau mode d’exploitation que la proposition semble avoir voulu prendre en compte. Doit-on comprendre que l’intégration dans une IA est une forme de reproduction de l’œuvre à laquelle s’applique, comme pour toutes formes de reproduction, l’exception de fouilles de textes et de données ? Dans ce cas, le régime actuel est inchangé : donc, les développeurs d’IA peuvent encore intégrer des œuvres à la phase d’entraînement, sauf opposition des auteurs. Doit-on plutôt comprendre que cette formulation veut rompre avec le régime actuel en consacrant expressément une exigence d’obtention d’autorisation de auteurs en écartant l’exception de fouilles de textes et de données ? Dans ce cas, le nombre d’œuvres pouvant être intégrées dans les systèmes d’IA serait réduit à celles dont une autorisation a été donnée, et non celles ne faisant pas l’objet d’opposition. La première interprétation semble la plus appropriée, notamment eu égard à la formulation de l’alinéa précisant que « [l’intégration] est soumise aux dispositions générales du présent code et donc à autorisation des auteurs », et à sa place dans le CPI (6).

Pays de « common law » et pays de « civil law »
Nouvelle exigence de transparence lorsque des œuvres sont utilisées par l’IA. La proposition AI Act, bien qu’elle n’ait pas vocation à traiter de la question du droit d’auteur, exige des fournisseurs de systèmes d’IA une certaine transparence lorsque des contenus protégés par un droit d’auteur ont été utilisés au stade du développement dudit système. En effet, le texte contraint les fournisseurs de modèles d’IA à finalité générale (« general purpose IA models ») à mettre en place une politique pour respecter le droit d’auteur de l’UE, et à rendre public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à finalité générale (7). La mise en place de la politique aurait pour objectif d’identifier et respecter les réservations de droits – ou oppositions – au titre de l’exception de fouilles de textes et de données.
La publication du résumé suffisamment détaillé devrait se faire à partir d’un modèle publié par l’Office de l’intelligence artificiel (OIA, ou AI Office), organe instauré par la proposition de législation. Il aurait pour objet – sans être techniquement détaillé – « par exemple d’énumérer les principales collections ou ensembles de données qui ont servi à la formation du modèle, tels que les grandes bases de données privées ou publiques ou les archives de données, et en fournissant une explication narrative sur les autres sources de données utilisées » (8). De telles exigences en termes de transparence témoignent de la prise en compte des exigences posées par le droit d’auteur. D’autant que le règlement IA prévoit que les obligations de transparences ne s’appliquent pas aux fournisseurs de systèmes d’IA rendant accessibles au public, sous licence libre ou ouverte, les modèles d’IA (9) sauf celles liées au droit d’auteur. Sortir les exigences de transparence liées au droit d’auteur de l’exception générale témoigne encore de leur importance.
Vers une remise en cause de la non-« protégeabilité » des créations issues d’un système d’IA ? Alors que les pays de « common law » comme le Royaume Uni et les Etats-Unis admettent la « protégeabilité » des œuvres générées par des machines (10) – notamment parce que l’œuvre est placée au centre et les auteurs obtiennent une protection indirecte à travers la protection directe de la propriété créée –, les pays de « civil law » ont tendance à refuser qu’une œuvre au sens juridique du terme puisse être créée par une machine dès lors que la protection est attachée directement à la personne de l’auteur. Traditionnellement, l’originalité s’entend en droit français et européen de l’empreinte de la personnalité de l’auteur en manifestant ses choix libres et créatifs (11). Une telle conception exclut a priori toute originalité d’une œuvre conçue par une IA du fait du défaut de personnalité de l’IA. Si, le règlement IA ne traite pas de la question de la « protégeabilité » des « créations » générées par l’IA, la proposition de loi française, a contrario, tente de plonger au cœur du sujet. Elle envisage d’intégrer au sein de l’article L.321-2 du CPI le cas précis d’une « œuvre créée par une intelligence artificielle sans intervention humaine directe » (12). Par cette disposition, le droit français semble admettre qu’une œuvre puisse être créée par une machine, et non un être humain. Dans ce cas, la proposition de loi désigne comme titulaires des droits, non pas les personnes ayant développé le système ou ayant commandé la création à la machine, mais les auteurs des œuvres intégrées au système d’IA lors de la phase d’entraînement.
L’œuvre serait-elle alors empreinte de la personnalité des auteurs des œuvres premières ayant servi à entraîner le système d’IA ? Ces auteurs seraient à la fois titulaires de droits sur leur œuvre première – sans difficulté – et de droits sur les œuvres générées par l’IA lorsque leur œuvre première aurait été exploitée au stade de développement de l’IA. La problématique qui se pose d’emblée en pratique est celle de la multitude de titulaires d’une œuvre générée par un système d’IA. La proposition de loi envisage alors que les droits soient gérés par des organismes de gestion collective (comme la Scam ou la Sacem) qui percevront la rémunération ou une taxation versée par la société qui exploite le système d’IA lorsque l’œuvre est engendrée par l’intégration d’œuvres dont l’origine ne peut être déterminée. La proposition de loi exige aussi que soit apposée la mention « Œuvre générée par IA » et inséré le nom des auteurs des œuvres premières.

Protection des œuvres générées par l’IA
En revanche, la protection accordée aux œuvres générées par l’IA ne semble pas aussi complète que celle accordée aux œuvres « classiques » : la proposition de loi française ne traite pas plus du droit moral ni des autres droits patrimoniaux que de celui de la rémunération juste et équitable des auteurs. Peut-être que cela s’explique par l’ambition de la proposition de loi « Encadrer l’intelligence artificielle par le droit d’auteur » de garantir une rémunération juste et équitable de l’exploitation des œuvres et de garantir une traçabilité des auteurs et artistes. Il reste à voir comment seront appréhendées en pratique de telles évolutions juridiques. @

* Article écrit avec la collaboration
de Camille Rodriguez, DJS Avocats

Le géant français du logiciel Dassault Systèmes a manqué l’occasion de se mesurer aux Gafam

Alors qu’un changement de gouvernance approche pour sa maison mère Dassault, la filiale Dassault Systèmes – numéro un français du logiciel de conception 3D – reste méconnue. « 3DS » (son surnom) est un rare géant européen qui aurait pu rivaliser avec les Gafam en s’adressant aussi au grand public.

Au 23 février 2024, la capitalisation boursière de l’éditeur français de logiciels Dassault Systèmes dépasse à peine les 57,8 milliards d’euros. La pépite du CAC40 est très loin des 1.000 à 3.000 milliards de dollars de capitalisation boursière de chacun des Gafam (Alphabet/Google, Meta/Facebook, Amazon, Apple et Microsoft). Quant aux cours de son action à la Bourse de Paris, elle a chuté de plus de 13 % à la suite de l’annonce, le 1er février, de prévisions décevantes du chiffre d’affaires attendu pour cette année 2024 : entre 6,35 et 6,42 milliards d’euros, en hausse de 8 % à 10 % par rapport à l’an dernier.

Une Big Tech méconnue des Français
Les analystes financiers s’attendaient à mieux. Depuis cette déconvenue, le cours de Bourse de Dassault Système a repris un peu du poil de la bête, mais a rechuté à partir du 9 février (1). Le fleuron français du numérique semble avoir du mal à convaincre les investisseurs, alors qu’il s’agit pourtant d’une entreprise en forte croissance et très rentable : près de 1 milliard d’euros de bénéfice net en 2022 (931,5 millions d’euros précisément), pour un chiffre d’affaires celle année-là de 5,66 milliards d’euros.
Dassault Systèmes est dirigé par Pascal Daloz depuis le 1er janvier, date à laquelle Bernard Charlès (photo)lui a confié la direction générale qu’il occupait depuis 2002 pour s’en tenir à la fonction de président du conseil d’administration après en avoir été PDG – DG de 1995 à 2023 et président du conseil d’administration depuis qu’il a remplacé en 2022 Charles Edelstenne (86 ans). Celui-ci est le fondateur de Dassault Systèmes en 1981, dont il est encore aujourd’hui le président d’honneur, tout en étant par ailleurs président de la holding de la famille Dassault GIMD (2) – sixième plus grande fortune de France, selon Challenges (3) – et président d’honneur et administrateur de Dassault Aviation, dont il fut le PDG (2000- 2013). En quatre décennies, Dassault Systèmes – surnommé « 3DS » – est devenu un géant du numérique en étant pionnier de la conception en trois dimensions (3D) avec son logiciel Catia conçu à la fin des années 1970 chez Dassault Aviation pour la conception assistée par ordinateur d’aéronefs. Depuis, 3DS a déployé dans de nombreux secteurs industriels (aéronautique, défense, automobile, construction, énergie, biens de consommation, architecture, santé, …) ses logiciels de maquette numérique et de modélisation 3D, de gestion 3D du cycle de vie des produits (4), de prototypage virtuel et de « jumeaux numériques », appelés aussi « jumeaux virtuels ». Mais avec ses plus de 22.500 employés répartis dans plus de 130 pays, au service de plus de 300.000 clients dans une douzaine d’industries, force est de constater que la doyenne de la French Tech est méconnue du grand public. Autant les géants américains du Net ont acquis une notoriété auprès de tous les publics, autant Dassault Systèmes reste inconnu pour les particuliers. Avec l’ouverture de la réalité virtuelle au plus grand nombre, bien avant l’avènement des métavers que Meta Platforms (Facebook) tente de populariser depuis l’automne 2021, 3DS n’a pas saisi l’occasion d’adresser directement l’utilisateur final (5). Il y a bien de rares incursions auprès du public comme avec HomeByMe, une application d’aménagement intérieur en 3D pour particuliers – gratuite sur iOS (6) – et architectes (par abonnement, également utilisée par Ikea) pour créer des jumeaux virtuels associant vision à 360° et réalité augmentée. « La version web supporte un mode immersif basé sur webXR qui permet de concevoir l’aménagement en VR avec un casque », indique à Edition Multimédi@ David Nahon, le responsable de l’expérience immersive chez 3DS.
En plein engouement pour la réalité mixte (réalité virtuelle et réalité augmentée), que démocratisent Meta, HTC ou plus récemment Apple avec leurs casques respectifs Quest, Vive et Vision Pro, Dassault Systèmes reste éloigné de ces innovations grand public. Certes, le groupe fournit des briques logiciels 3D aux acteurs de la réalité virtuelle. Mais cela ne se voit pas. De plus, comme « les jumeaux virtuels sont une représentation du monde qui combine modélisation, simulation, données du monde réel et intelligence artificielle » (dixit 3DS), pourquoi ne verrait-on pas Dassault Systèmes s’emparer de l’IA générative pour développer un grand modèle de langage de type LLM (7) pour tous, comme les ChatGPT, Midjourney et autres Gemini ?

La 6G pointe le bout de son nez au MWC, avant 2030

En fait. Du 27 février au 3 mars se déroule à Barcelone (Espagne) la grand-messe internationale consacrée aux smartphones et à la mobilité, le Mobile World Congress (MWC), dont le thème cette année est « Future First ». La sixième génération de réseau mobile (6G) sera l’ossature du futur. L’Europe va l’expérimenter.

Marina Ferrari, nouvelle secrétaire d’Etat chargée du Numérique : entre souveraineté numérique et Gafam

Secrétaire d’Etat chargée du Numérique depuis le 12 février, Marina Ferrari doit défendre la « souveraineté numérique » que porte son ministre de tutelle Bruno Le Maire, ministre de l’Economie, des Finances et de la Souveraineté industrielle et numérique. Mais, « en même temps », la France ne peut se passer des Gafam.

(Le 26 février 2024, date de la publication de cet article dans le n°316 de EM@, la licorne française Mistral AI annonçait son « partenariat » avec… Microsoft

Jean-Noël Barrot, qui aura été ministre délégué chargé du Numérique à peine plus d’un an et demi (y compris jusqu’au 20 juillet 2023 en tant que ministre délégué chargé de la Transition numérique et des Télécommunications), est depuis le 8 février dernier ministre délégué chargé de l’Europe. Sa successeure Marina Ferrari (photo), secrétaire d’Etat chargée du Numérique depuis le 12 février, a saisi l’occasion – lors de leur passation de pouvoirs – pour notamment insister sur la « souveraineté numérique » : « Ce passage de relai nous permettra d’agir main dans la main, en confiance et de jouer collectif dans l’intérêt de la souveraineté numérique française et européenne. […] J’entends conduire mon action autour de deux piliers : résilience et souveraineté. […] Je m’engagerai pour accompagner la naissance d’une vraie souveraineté numérique européenne en veillant à l’application rigoureuse du DMA et du DSA. », a-t-elle déclaré ce jour-là (1). Lors de son discours de prise de fonction à Bercy, celle qui reste aussi députée (Modem) depuis juin 2022 (après avoir été conseillère départementale de la Savoie d’où elle est originaire), a enfoncé le clou sur la « souveraineté numérique » : « Notre pays doit réussir le virage des deeptech et des greentech : c’est tout à la fois une question de souveraineté […]. Je m’impliquerai personnellement pour […] renforcer notre souveraineté et notre indépendance ».

Tapis rouge français pour l’IA américaine
Bref, la « souveraine numérique » est plus que jamais le mot d’ordre au ministère de l’Economie, des Finances et de la Souveraineté industrielle et numérique, dénommé ainsi depuis mai 2022, Bruno Le Maire étant locataire de Bercy depuis mai 2017 (2). Artisant de la « Start-up Nation », le président de la République Emmanuel Macron impulse cette « volonté de construire la souveraineté de la France et de l’Europe dans le domaine numérique », que cela soit lors de ses prises de parole au salon Viva Tech à Paris ou à la Commission européenne à Bruxelles. Pour autant, trois jours après la passation de pouvoirs de Jean-Noël Barrot à Marina Ferrari, il n’a plus été question de « souveraineté numérique ». La secrétaire d’Etat chargée du Numérique accompagnait son ministre de tutelle rue d’Amsterdam à Paris pour inaugurer le 15 février le hub de Google dédié à l’intelligence artificielle (IA), « qui va être, s’est réjoui Bruno Le Maire, une chance pour notre pays, et nous permettre d’attirer des talents, des savoirs, de mélanger ces talents et ces savoirs et faire le meilleur en matière d’IA ».

La « souveraineté numérique » sacrifiée ?
Le nouveau labo parisien de Google – deuxième après le centre de recherche et développement inauguré en 2011 – accueillera quelque 300 chercheurs et ingénieurs de Google, provenant de DeepMind, Google Research, Chrome et YouTube. Lors son discours, le patron de Bercy n’a pas prononcé les mots « souveraineté numérique » en présence de Sundar Pichai, PDG d’Alphabet et de son vaisseau-amiral Google. Comme si, cette fois, ce n’était pas le moment face à un des géants du Net américains qui est déjà en position dominante en France et dans toute l’Europe avec son moteur de recherche – pour ne pas dire en quasi-situation de monopole, l’initiative franco-allemande Qwant pouvant en témoigner (3) – et avec son écosystème Android/Google Play, en quasi-duopole avec iOS/App Store d’Apple. Et de l’aveu même de Bruno Le Maire, « les Etats-Unis ont un temps d’avance ». Alors dérouler le tapis rouge français voire européen au rouleau compresseur de l’IA américaine ne reviendrait-il pas à sacrifier la « souveraineté numérique » du pays voire de l’Union européenne ?
La réponse est sans doute dans le « en même temps » macronien : « Nous pensons qu’avoir un hub ici à Paris, pouvoir travailler avec Google est une chance pour réussir nous-mêmes. Pour donner à la France [surtout à Google en fait, ndlr] la possibilité d’exercer son leadership sur l’intelligence artificielle en Europe. Nous voulons être les premiers en matière d’intelligence artificielle en Europe et nous nous battrons pour ça », a expliqué Bruno Le Maire à Sundar Pichai. Tout en prévenant quand même l’IndoAméricain, à défaut de lui parler explicitement de « souveraineté numérique » : « Et j’aime la compétition, cher Sundar, et nous aimons la compétition » (4).
En fait, cet « hub IA » aux allures de campus – implanté sur 6.000 mètres carrés dans le 9e arrondissement de Paris – avait déjà été annoncé en 2018 par Sundar Pichai lors de sa précédente visite à Paris le 22 janvier 2018 pour rencontrer Emmanuel Macron à Versailles, où le chef de l’Etat recevait 140 dirigeants de grands groupes étrangers pour un sommet baptisé « Choose France » (5). Six ans après, rebelote (si l’on peut dire), le même Emmanuel Macron a reçu le 15 février dernier Sundar Pichai, cette fois à l’Elysée. Mais de « souveraineté numérique » de la France, il n’en a pas été question non plus. Google n’est pas le premier Gafam à installer son laboratoire de recherche et développement en IA à Paris, grâce notamment au crédit d’impôt recherche (CIR) offert par la France. En 2015, sous la présidence de François Hollande, le groupe Facebook – rebaptisé Meta Platforms – a choisi la capitale française pour y mettre son deuxième laboratoire d’IA baptisé « Fair » (Facebook Artificial Intelligence Research), créé et dirigé par un Français basé chez Meta à New-York, Yann Le Cun, pionnier des réseaux de neurones artificiels, embauché par Mark Zuckerberg il y a un peu plus de dix ans (6).
Ironie de l’histoire, le jour même de la consécration du labo IA parisien de Google par Bercy et l’Elysée, le ministère de l’Economie, des Finances et de la Souveraineté industrielle et numérique annonçait que la France venait de signer avec les Etats Unis, l’Autriche, l’Espagne, l’Italie et le Royaume-Uni la prorogation jusqu’au 31 juin 2024 de la taxe « Gafam » (7). Paris avait été le premier à instaurer, en 2019, une telle taxe sur les grandes plateformes numériques. Cette « taxe sur les services numériques » (TSN) de 3 % sur leur chiffre d’affaires vise non seulement Google, mais aussi les autres géants du Net dont les revenus mondiaux dépassent les 750 millions d’euros, dont plus de 25 millions d’euros « au titre des services fournis en France » (8). Mais il est convenu au niveau international – dans le cadre de l’accord historique de l’OCDE le 8 octobre 2021, notamment de son « pilier 1 » (9), que ces taxes nationales « Gafam » devront être supprimées au profit d’une taxe de 25 % de leur bénéfice taxable (au-delà d’un seuil des 10 % de profits). Mais cette réaffectation de l’impôt collecté auprès des géants mondiaux du numérique nécessite pour chacun des 138 pays favorables de signer une « convention multilatérale » (10). D’ici l’été prochain ?

Pas d’« IA souveraine » ni de « cloud souverain »
Google voit dans la France un formidable potentiel avec « ses 500.000 chercheurs et des institutions de premier plan tels que le CNRS, Inria, Paris Saclay, l’Institut Curie, ou encore l’Université PSL » qui pourront utiliser ses interfaces de programmation (API). La firme de Mountain View prévoit de former 100.000 professionnels français aux outils de l’IA d’ici la fin de l’année 2025.
L’IA n’est pas le seul domaine où la « souveraineté numérique » sonne creux. Dans le cloud, par exemple, la désignation de « cloud souverain » a laissé place à « cloud de confiance » (11), en partenariat avec les hyperscalers américains Amazon Web Services (AWS), Microsoft Azure et Google Cloud. @

Charles de Laubier

Données produites par l’Internet des objets et l’informatique en nuage : ce que dit le Data Act

Le législateur européen poursuit ses travaux en vue de créer un marché unique des données. La dernière avancée en date : le règlement sur les données, dit « Data Act », entré en vigueur le 11 janvier 2024. Il sera applicable à compter du 12 septembre 2025. Tour d’horizon de ses principales dispositions.