IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

Gemini. C’est le modèle d’IA « le plus grand et le plus performant » que Google a annoncé le 6 décembre dernier dans un post (5) cosigné par Sundar Pichai, PDG de Google et de sa maison mère Alphabet, et par Demis Hassabis, directeur général et cofondateur en 2010 de la start-up DeepMind Technologies que Google a rachetée il y a dix ans (en janvier 2014) pour quelque 628 millions de dollars. Rebaptisée Google DeepMind et filiale d’Alphabet, elle a rendu disponible la version 1.0 de Gemini (6) qui est déployé dans plusieurs produits et plateformes de la firme de Mountain View (où se trouve le QG Googleplex). L’IA générative Bard, que Google a lancée précipitamment il y aura un an le 6 février (7), profite désormais d’« une version affinée de Gemini Pro pour un raisonnement plus avancé » et il s’agit de « la plus grande mise à jour de Bard depuis son lancement ». Gemini est présenté comme un modèle multimodal (texte, images, audio et vidéo).

Anthropic. Fondée en décembre 2020 par d’anciens d’OpenAI, Dario Amodei et sa sœur Daniela Amodei, la startup Anthropic – dont ils sont respectivement directeur général et présidente – est basée à San Francisco (Californie) comme OpenAI. Ils ont été suivis par sept autres de leurs collègues d’OpenAI. Amazon avait annoncé le 25 septembre 2023 l’injection de 4 milliards de dollars dans Anthropic (8), qui avait levé 1,5 milliard de dollars dix-huit mois auparavant auprès d’investisseurs – dont 300 millions de dollars de Google qui a pris 10 % du capital et a promis à la start-up de lui apporter jusqu’à 2 milliards de dollars en plus. Anthropic, qui recourt au cloud AWS d’Amazon, a lancé en mars 2023 son IA générative appelée Claude (9) (claude.ai), dont la version 2 est disponible depuis juillet dernier. Mais avec son futur « Claude-Next », la rival d’OpenAI se positionne déjà pour se mesurer au futur ChatGPT-5 attendu cette année.

Llama. Cela fera un an, le 24 février prochain, que Meta Platforms (ex-Facebook) a lancé « LLaMA » (Large Language Model Meta AI), son grand modèle de langage en open source (10). La firme de Mark Zuckerberg a ensuite annoncé le 18 juillet dernier la version Llama 2 en partenariat avec Microsoft (pour utiliser son cloud Azure), mais en la rendant aussi disponible chez Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs. « Llama 2 est gratuit pour la recherche et l’utilisation commerciale », précise Meta (11). Le géant de Menlo Park (Californie) utilise aussi son IA pour créer de nouvelles fonctions sur ses réseaux sociaux Instagram, Facebook et WhatsApp. Le 7 décembre, il a présenté « Purple Llama », une boîte à outils également en open source pour la sécurité et la confiance en matière d’IA responsable (12). Rappelons que le directeur général de l’intelligence artificielle de Meta est le Français Yann Le Cun, recruté il y a dix ans maintenant (en décembre 2013) et basé à New-York. @

Charles de Laubier

Comment Claude de la start-up Anthropic veut devenir le grand rival de ChatGPT d’OpenAI

Alors que ChatGPT a été lancé par la start-up OpenAI il y a moins d’un an, c’est la course à l’échalotte dans les intelligences artificielles génératives. Parmi les compétiteurs, il y a Claude de la jeune pousse Anthropic fondée par d’anciens… d’OpenAI. Google et surtout Amazon la financent. Question : Claude est-il le meilleur rival de ChatGPT ? Réponse : « Claude, développé par Anthropic, est en effet considéré comme un concurrent puissant du ChatGPT d’OpenAI ». Notre interlocuteur n’est autre que ChatGPT lui-même ! « Cependant, poursuit l’IA générative, il est important de noter que le “meilleur” modèle peut varier selon les cas d’utilisation et les exigences. Par exemple, si le support multilingue est une priorité, ChatGPT pourrait être un meilleur choix. En revanche, si le traitement de grandes quantités de données est crucial, Claude pourrait être plus approprié ». Contre Microsoft, pour Amazon et Google Alors que ChatGPT d’OpenAI a été lancé le 30 novembre 2022 (1) avec le succès médiatique planétaire que l’on connaît, Claude d’Anthropic n’a été dévoilé que le 14 mars 2023 (2) dans une relative indifférence générale. Mais depuis qu’Amazon a annoncé le 25 septembre injecter 4 milliards de dollars dans Anthropic (3), Claude défraie la chronique. Basée à San Francisco (Californie) comme OpenAI, la startup Anthropic a été cofondée par Dario Amodei (photo de gauche), qui en est le DG, tandis que Daniela Amodei (photo de droite), sa sœur, en est la présidente. Tous les deux ont quitté en décembre 2020 OpenAI, où ils ont été respectivement directeur de la recherche et responsable des techniques de sécurité, suivis par sept autres de leurs collègues d’OpenAI, dont Jack Clark (ex-chargé de relations publiques) et Jared Kaplan (ex-consultant chercheur) qui sont aussi cofondateurs d’Anthropic. Ce départ groupé de la start-up de ChatGPT aurait été motivé par des désaccords sur la vision stratégique d’OpenAI et de son partenariat avec Microsoft en 2019. La firme de Redmond investissait alors dans la start-up de Sam Altman un montant initial de 1 milliard de dollars, complété en 2021. Mais les frère et sœur Amodei n’ont jamais ni démenti ni expliqué les raisons de leur départ. Mais cette façon qu’a eu OpenAI à se précipiter dans les bras d’un GAFAM a sans aucun doute joué dans leur décision d’aller cofonder Anthropic. Microsoft a par la suite augmenté son emprise sur ChatGPT en annonçant en janvier 2023 un plan d’investissement pluriannuel (4) dans OpenAI qui atteindrait, selon Bloomberg, 10 milliards de dollars (5). Face à un ChatGPT dépendant du géant Microsoft, lequel en a fait son IA générative dans moteur de recherche Bing pour aller contester la suprématie de Google Search, Anthropic se veut plus indépendant et responsable. Mais cela n’empêche pas la start-up des Amodei de décrocher 4 milliards de dollars auprès d’Amazon, dont il utilisera le cloud AWS, après avoir dans les dix-huit mois précédents levé 1,5 milliard de dollars auprès de différents investisseurs, dont… Google pour 300 millions de dollars (10 % du capital d’Anthropic). Et ce, selon le Financial Times (6), aux côtés de Sam Bankman-Fried (7) ou encore de SK Telecom (8). Google remis la main à la poche en mai 2023 lors d’un tour de table organisé par Spark Capital pour lever 450 millions de dollars (9). Mais contrairement à Microsoft pour OpenAI, Google reste pour Anthropic un actionnaire minoritaire et un prestataire technique. En effet, le 3 février, les deux entreprises ont annoncé « un nouveau partenariat » (10) afin que Google Cloud soit privilégié et que Claude puisse évoluer grâce au machine learning sur infrastructure puissante. Avec Claude 2 lancé en juillet (11), Anthropic se veut plus contrôlable, compréhensible, prévisible, orientable, interprétable, digne de confiance et… plus humain grâce au RLHF. Le « Reinforcement Learning from Human Feedback » est une méthode d’apprentissage par renforcement qui utilise le feedback des humains sous formes de commentaires ou d’évaluations. Anthropic vient d’ailleurs de publier, le 19 septembre, son RSP (Responsible Scaling Policy), « une série de protocoles techniques et organisationnels pour gérer de façon de plus en plus performante les risques liés au développement de systèmes d’IA ». Car selon les fondateurs d’Anthropic, « les modèles d’IA créeront une valeur économique et sociale majeure, mais ils présenteront également des risques de plus en plus graves » (12). Parmi 7 acteurs d’IA à la Maison-Blanche Ce RSP d’Anthropic intervient deux mois après des engagements pris directement à la Maison-Blanche où Dario Amodei avait été convoqué, le 21 juillet, par le président étatsunien Joe Biden avec six autres entreprises : Amazon, Google, Meta, Microsoft, Inflection et OpenAI. Les sept acteurs de l’IA ont promis « un développement sûr, sécurisé et transparent de la technologie de l’IA » (13). Une précédente réunion à la Maison-Blanche s’était tenue le 4 mai (14). L’administration Biden-Harris en a profité pour faire le point sur les mesures prises – notamment via le Blueprint for an AI Bill of Rights (15) – afin de protéger les droits et la sécurité des Américains. @

Charles de Laubier