IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

La « bulle IA » déjà multimilliardaire va-t-elle éclater comme son ancêtre la « bulle Internet » ?

Mars 2000 et mars 2024. Près d’un quart de siècle sépare ses deux dates. La première marque l’éclatement de la « bulle Internet » ; la seconde est celle de l’état de la « bulle IA » aujourd’hui. Les perspectives de chiffre d’affaires de l’intelligence artificielle suscitent frénésie. Mais à risque.

Euphorie, exubérance, spéculation, effervescence, irrationalité ou encore inconscience : toutes les conditions financières et comportementales sont aujourd’hui réunies pour que l’agitation planétaire autour des intelligences artificielles génératives fasse gonfler encore plus la « bulle IA » actuelle. Les géants du numérique et les start-up/licornes technologiques qui la composent au niveau mondial cumulent à elles seules dans ce domaine une valorisation totale – capitalistique et/ou boursière – qui se chiffre en trilliards d’euros, soit des milliers de milliards d’euros.

Pas « si » la bulle IA va éclater, mais « quand »
Et la licorne OpenAI – valorisée 80 milliards de dollars selon le New York Times daté du 16 février 2024 (1) – n’est que la partie émergée de l’iceberg du marché planétaire de l’intelligence artificielle. Présidée par son cofondateur Sam Altman (photo), elle s’est propulsée à la première place mondiale des IA génératives en lançant le 30 novembre 2022 – il y a seulement quatorze mois ! – ChatGPT. Et le chiffre d’affaires de la société californienne a bondi, grâce aussi à son autre IA générative à succès Dall·E, pour atteindre sur l’année 2023 la barre des 2 milliards de dollars de chiffre d’affaires, d’après cette fois le Financial Times du 9 février dernier (2). Du jamais vu, aussi bien en termes de valorisation que de revenu, pour une jeune pousse créée en 2015 sous forme de laboratoire de recherche en IA, à but non lucratif, et assortie depuis 2020 d’une entité commerciale.
Le partenariat infonuagique, financier et capitalistique avec Microsoft (3), débuté progressivement à partir de 2019 et estimé actuellement à 13 milliards de dollars, a contribué au succès d’OpenAI. Depuis, la concurrence des IA génératives (GenAI) et de leurs grands modèles de langage (LLM) bat son plein : Anthropic avec Claude, Google avec Gemini/Gemma, Meta avec Llama, Mistral AI avec Large, pour ne citer que les plus financés et les plus avancés, en attendant aussi le discret Ferret d’Apple (4). Par exemple, Anthropic – l’un des rivaux les plus sérieux d’OpenAI – a vu sa valorisation dépasser les 15 milliards de dollars, après avoir levé à l’automne dernier 6 milliards de dollars auprès d’Amazon (deux-tiers) et Google (un tiers), somme qui s’est ajoutée au 1,5 milliard de dollars obtenus auparavant (5). Quant à la licorne française Mistral AI, après avoir pactisé avec Microsoft, encore lui, elle est courtisée par Softbank (6). Au total, les montants investis en capital risque dans l’IA sont colossaux : les milliers de milliards d’euros de valorisation constituent ainsi une « bulle IA » sans précédent, apparue en un temps record – moins d’un an et demi. Et l’afflux d’investissements vers l’IA continue, le patron d’OpenAI ayant même estimé – d’après les propos de Sam Altman au Wall Street Journal daté du 8 février (7) – jusqu’à 7.000 milliards de dollars le besoin d’argent nécessaire dans le monde au développement des IA pour les prochaines années. Le plus coûteux réside dans la puissance de calcul fournie par des puces superpuissantes, ces semiconducteurs étant appelés « unités de traitement graphique » ou GPU (Graphics Processing Unit). L’américain Nvidia est le numéro un mondial dans ce domaine.
Alors qu’il a fallu au moins cinq ans pour la « bulle Internet » avant d’atteindre jusqu’à 3 trilliards de dollars de valorisation. Et encore, avec l’aide à l’époque des importantes valorisations boursières dans les télécoms (opérateurs et équipementiers). La question n’est dès lors plus de savoir s’il y aura l’éclatement de la « bulle IA », mais quand. Car, comme le montre le cycle de la « hype », toute nouvelle technologie suit une courbe qui atteint rapidement un pic (effet « waouh »), avant de redescendre brusquement, puis de reprendre progressivement son souffle pour atteindre un plateau qui progressera lentement au cours des années suivantes (8). A côté, en France, la recommandation du Comité de l’intelligence artificielle générative, de créer un fonds d’investissement qui serait baptisé « France & IA » et qui mobiliserait 10 milliards d’euros de capital-investissement d’entreprise et de soutien public, semble dérisoire.

Des prévisions de revenus dithyrambiques
Installé depuis septembre 2023 auprès du Premier ministre, cette commission de l’IA a remis son rapport (9) le 13 mars au président de la République, alors qu’Emmanuel Macron se prépare à accueillir fin 2024 ou début 2025 à Paris le 2e Sommet sur la sécurité de l’IA (AI Safety Summit). Le rapport estime que l’IA pourrait augmenter en dix ans le PIB de l’Hexagone « de 250 à 420 milliards d’euros, soit autant que la valeur ajoutée de toute l’industrie ». Au niveau mondial, Grand View Research estime le chiffre d’affaires généré par l’IA à près de 200 milliards de dollars en 2023 (196,6 milliards précisément). Et avec une croissance prévisionnelle de 37,3 % en moyenne par an, le marché planétaire de l’IA atteindrait près de 1.819 milliards de dollars d’ici 2030. @

Charles de Laubier

La 6G pointe le bout de son nez au MWC, avant 2030

En fait. Du 27 février au 3 mars se déroule à Barcelone (Espagne) la grand-messe internationale consacrée aux smartphones et à la mobilité, le Mobile World Congress (MWC), dont le thème cette année est « Future First ». La sixième génération de réseau mobile (6G) sera l’ossature du futur. L’Europe va l’expérimenter.

Data Act et AI Act, ou l’art de ménager la chèvre (innovation) et le chou (droits individuels)

Le Data Act et l’AI Act ont un objectif commun : tirer profit des opportunités offertes par les données, qu’elles soient issues d’objets connectés pour le premier, ou de modèles d’intelligence artificielle pour le second, tout en protégeant les droits des individus contre les dérives.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

Les premiers mois de l’année 2024 ont été marqués par des développements substantiels sur le plan réglementaire concernant les données en Europe, développements à la lumière desquels le règlement général sur la protection des données (RGPD) est pensé de manière dynamique. Avec deux autres règlements que sont le Data Act (déjà en vigueur) et le AI Act (toujours en cours d’examen), l’Union européenne (UE) tente de préserver cet élan innovateur tout en assurant une protection efficace des droits individuels.

Socle solide de règles sur les données
Adoption du Data Act :
le 11 janvier 2024, le Conseil de l’UE a adopté le règlement portant sur des règles harmonisées en matière d’accès et d’utilisation équitables des données. Le texte vise à « relever les défis et à libérer les opportunités offertes par les données dans l’[UE], en mettant l’accent sur l’accès équitable et les droits des utilisateurs, tout en assurant la protection des données à caractère personnel » (1). Il s’inscrit dans une stratégie européenne pour les données afin de créer un marché unique des données garantissant la compétitivité et la souveraineté de l’Europe.
Projet d’AI Act : le 2 février 2024, le Conseil de l’UE a adopté à l’unanimité la proposition de règlement du Parlement européen et du Conseil de l’UE établissant des règles harmonisées concernant l’intelligence artificielle, texte pour lequel un accord avait été trouvé dès décembre 2023 (2). Ce texte est pour le moment d’une ambition unique au monde. Le Data Act et prochainement l’AI Act prendront donc place aux côtés du Digital Services Act (entré en vigueur le 25 août 2023 dans le but de responsabiliser les plateformes numériques et de lutter contre la diffusion de contenus illicites ou préjudiciables ou de produits illégaux), du Digital Markets Act (entré en vigueur le 2 mai 2023 et visant à mieux encadrer les activités économiques des grandes plateformes numériques) et du RGPD (entré en application le 25 mai 2018 dans le but de protéger les droits des personnes concernées par un traitement de leurs données personnelles).
A eux cinq, ces règlements européens forment les principaux piliers de la régulation des plateformes et données en Europe. Un sixième texte, le Digital Governance Act, entré en vigueur le 23 juin 2022, concerne également les données, en traitant principalement du secteur public. Il s’agit de réglementer par-delà les frontières en s’appliquant aussi à l’international. Cette réglementation, devenue cruciale pour rechercher un usage éthique, transparent et équitable des données traitées massivement, demeurera exceptionnelle en ce qu’elle s’érige à un échelon européen et transnational capable d’atteindre des entreprises de toutes tailles, y compris les plus grandes, installées hors d’Europe. L’article 3 du Data Act prévoit que le règlement s’applique dès qu’un produit connecté ou un service connexe est mis à disposition sur le territoire de l’UE et/ou qu’un utilisateur ou destinataire de données sont situés dans les Vingt-sept. Et ce, quel que soit le lieu d’établissement du détenteur de données ou du fournisseur de services de traitement de données.
De la même manière, l’article 2 de l’AI Act prévoit que le règlement s’appliquera dès qu’un système d’IA sera mis sur le marché de l’UE ou qu’un utilisateur de système d’IA est établi ou est localisé sur le territoire des Vingt-sept, ou encore que le contenu généré par l’IA est utilisé au sein de l’UE. Le but est de ne pas favoriser les acteurs non européens au détriment des entreprises locales. Il s’agit donc, comme pour le RGPD, d’assurer une protection efficace des citoyens européens sans entraver la compétitivité des entreprises européennes. Les textes cherchent aussi à ne pas décourager les entreprises européennes à innover, en ayant notamment pour effet d’imposer de manière extraterritoriale, même aux plus grandes entreprises internationales, des obligations. Les Gafam ont mis en avant les risques liés notamment au AI Act, la mise en conformité entraînant des coûts importants.

Transparence et secret des affaires : équilibre
Un enjeu du Data Act et de l’AI Act est de trouver un équilibre entre la transparence dans le traitement des données et la préservation du secret des affaires, afin de ne pas freiner l’innovation :
• Le Data Act : la maîtrise par l’utilisateur de ses données limitée par le secret des affaires. L’article 3 du Data Act prévoit l’obligation pour les entreprises concevant et fabriquant des objets connectés et des services connexes de rendre, par défaut, les données et métadonnées générées par ces objets et/ou services connexes facilement accessibles à l’utilisateur, voire lorsque cela est « pertinent et techniquement possible » directement accessibles à l’utilisateur par une simple demande électronique. A ce sujet, l’article 3.2 du Data Act prévoit qu’un certain nombre d’informations précontractuelles doivent être délivrées par le vendeur, le loueur ou le bailleur d’objets connectés « de manière claire et compréhensible ». Ces informations sont notamment relatives au type, format et volume estimé de données générées par l’objet en question ou encore à la capacité de l’objet de générer des données en continu et en temps réel (3). Aussi, l’article 5 du Data Act prévoit le droit pour l’utilisateur de partager des données avec des tiers.

Les obligations du détenteur de données
Cependant, afin d’assurer la compétitivité des entreprises en Europe, le texte prévoit, que ce soit au sujet du droit d’accès ou du droit de partage des données par l’utilisateur à des tiers, le respect du secret des affaires par lequel seraient protégées certaines données. Le détenteur de la donnée a ainsi l’obligation de recenser les données ou métadonnées protégées en tant que secret des affaires et de mettre en place des « mesures techniques et organisationnelles proportionnées » nécessaires à la préservation de la confidentialité des données partagées. Le texte prévoit notamment la possibilité d’élaboration de clauses de confidentialité entre le détenteur de données et l’utilisateur et/ou le tiers, ou encore l’adoption de « codes de conduite ».
A défaut d’accord ou si l’utilisateur ou le tiers contrevient aux mesures convenues avec le détenteur du secret des affaires, le détenteur de données peut bloquer ou suspendre le partage des données confidentielles. Il devra alors avertir l’utilisateur ou le tiers concerné et le notifier à l’autorité compétente. De surcroît, même si l’utilisateur ou le tiers respecte les mesures convenues avec le détenteur de données, ce dernier peut démontrer « qu’il est très probable qu’il subisse un préjudice économique grave du fait de la divulgation de secrets d’affaires » et ainsi refuser une demande d’accès pour les données en question en avertissant et en expliquant les raisons précises de sa décision et en le notifiant à l’autorité compétente. La décision du détenteur de données est toutefois susceptible de recours par l’utilisateur ou le tiers devant une juridiction d’un Etat membre et peut aussi être l’objet d’une réclamation auprès de l’autorité compétente. Enfin, l’utilisateur ou le tiers ont l’interdiction de se servir des données obtenues pour concurrencer le produit connecté en question.
L’AI Act : la « synthèse suffisamment détaillée » des données d’entraînement au cœur des interrogations. L’AI Act réalisera en substance le même compromis que le Data Act en ce qui concerne les données d’entraînement qui sont utilisées par les IA pour générer du contenu (4). En effet, le texte prévoit que les fournisseurs d’IA à usage général devront prendre des mesures pour respecter le droit d’auteur, en particulier le droit d’opposition des ayants droit, peu importe la juridiction où l’entraînement a lieu. Ces mêmes fournisseurs devront également, afin d’accroître la transparence sur les données d’entrainement, publier une « synthèse suffisamment détaillée » de ces données. Cette synthèse devra être globalement exhaustive dans sa portée plutôt que techniquement détaillée afin de faciliter aux parties ayant des intérêts légitimes, notamment les ayants-droits, l’exercice de leurs droits. Le texte donne simplement de vagues exemples d’informations fournies au titre de la synthèse détaillée, comme l’énumération des principales collections de données ou les ensembles utilisés pour former le modèle. Les fournisseurs de modèles d’IA gratuits et open source seront exemptés de cette obligation sauf s’ils présent un risque systémique, afin d’inciter leur développement dans la mesure où ils contribuent à la recherche à l’innovation sur le marché et peuvent être des sources de croissance importante pour l’économie de l’UE. Le « Bureau de l’IA » – « AI Office » tel que prévu dans la version consolidée de l’AI Act (5) datée du 21 janvier (6) – devrait entrer en vigueur le 21 février 2024 (7). Il fournira des modèles de synthèses à destination des fournisseurs d’IA concernés et veillera au respect de ces dispositions. La Commission européenne a d’ailleurs, dans une déclaration (8) publiée après l’adoption du texte, réaffirmé le rôle primordial du Bureau de l’IA dans la nouvelle réglementation et dans lequel la France a bien l’intention d’être représentée afin de faire entendre sa voix (9).
Cependant, afin de préserver l’innovation d’une règlementation trop encombrante, l’AI Act prévoit que les rédacteurs de cette synthèse suffisamment détaillée devront prendre en considération le besoin de protéger le secret des affaires et les informations confidentielles. Attention toutefois, à la différence du Data Act, cette mention figure dans les considérants et non pas dans le corps du texte du règlement.
Le Data Act a été pensé pour favoriser l’accès par les petites et moyennes entreprises (PME) à des données pertinentes et leur permettre ainsi d’innover et de rivaliser face à de grandes entreprises qui possèdent déjà une puissance économique considérable sur le marché. C’est précisément pour cette raison que le texte a exclu les entreprises désignées en tant que « contrôleur d’accès » au sens de l’article 3 du DMA (10) du bénéfice de la désignation en tant que « tiers »au sens du Data Act et donc de l’accès aux données issues d’objets connectés et services connexes par le biais du droit de partage de l’utilisateur.

Ménager les PME, éviter les monopoles
Concernant l’AI Act, la Commission européenne a lancé le 24 janvier 2024 des mesures visant à soutenir les jeunes pousses et les PME européennes dans le développement de l’IA (11). Cette volonté se retrouve donc logiquement dans le texte de l’AI Act dont les rédacteurs ont souhaité accélérer l’accès au marché pour les PME en éliminant les obstacles. Le texte entend ainsi permettre des moyens simplifiés de conformité pour les entreprises de plus petite taille et éviter un monopole des plus grandes entreprises dotées d’une grande force de frappe, comme OpenAI. @

* Anne-Marie Pecoraro est avocate spécialisée en droit de la
propriété intellectuelle, des médias et des technologies

Le Data Act a à l’œil Amazon, Microsoft et Google

En fait. Le 11 janvier 2024 est entré en vigueur le Data Act, à savoir le règlement du 13 décembre 2023 concernant des règles harmonisées portant sur l’équité de l’accès aux données et de l’utilisation des données. Le marché unique européen des données du cloud et des objets connectés se met en place.