L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

Gemini. C’est le modèle d’IA « le plus grand et le plus performant » que Google a annoncé le 6 décembre dernier dans un post (5) cosigné par Sundar Pichai, PDG de Google et de sa maison mère Alphabet, et par Demis Hassabis, directeur général et cofondateur en 2010 de la start-up DeepMind Technologies que Google a rachetée il y a dix ans (en janvier 2014) pour quelque 628 millions de dollars. Rebaptisée Google DeepMind et filiale d’Alphabet, elle a rendu disponible la version 1.0 de Gemini (6) qui est déployé dans plusieurs produits et plateformes de la firme de Mountain View (où se trouve le QG Googleplex). L’IA générative Bard, que Google a lancée précipitamment il y aura un an le 6 février (7), profite désormais d’« une version affinée de Gemini Pro pour un raisonnement plus avancé » et il s’agit de « la plus grande mise à jour de Bard depuis son lancement ». Gemini est présenté comme un modèle multimodal (texte, images, audio et vidéo).

Anthropic. Fondée en décembre 2020 par d’anciens d’OpenAI, Dario Amodei et sa sœur Daniela Amodei, la startup Anthropic – dont ils sont respectivement directeur général et présidente – est basée à San Francisco (Californie) comme OpenAI. Ils ont été suivis par sept autres de leurs collègues d’OpenAI. Amazon avait annoncé le 25 septembre 2023 l’injection de 4 milliards de dollars dans Anthropic (8), qui avait levé 1,5 milliard de dollars dix-huit mois auparavant auprès d’investisseurs – dont 300 millions de dollars de Google qui a pris 10 % du capital et a promis à la start-up de lui apporter jusqu’à 2 milliards de dollars en plus. Anthropic, qui recourt au cloud AWS d’Amazon, a lancé en mars 2023 son IA générative appelée Claude (9) (claude.ai), dont la version 2 est disponible depuis juillet dernier. Mais avec son futur « Claude-Next », la rival d’OpenAI se positionne déjà pour se mesurer au futur ChatGPT-5 attendu cette année.

Llama. Cela fera un an, le 24 février prochain, que Meta Platforms (ex-Facebook) a lancé « LLaMA » (Large Language Model Meta AI), son grand modèle de langage en open source (10). La firme de Mark Zuckerberg a ensuite annoncé le 18 juillet dernier la version Llama 2 en partenariat avec Microsoft (pour utiliser son cloud Azure), mais en la rendant aussi disponible chez Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs. « Llama 2 est gratuit pour la recherche et l’utilisation commerciale », précise Meta (11). Le géant de Menlo Park (Californie) utilise aussi son IA pour créer de nouvelles fonctions sur ses réseaux sociaux Instagram, Facebook et WhatsApp. Le 7 décembre, il a présenté « Purple Llama », une boîte à outils également en open source pour la sécurité et la confiance en matière d’IA responsable (12). Rappelons que le directeur général de l’intelligence artificielle de Meta est le Français Yann Le Cun, recruté il y a dix ans maintenant (en décembre 2013) et basé à New-York. @

Charles de Laubier

Non, l’écran ne fabrique pas du « crétin digital »

En fait. Le 16 janvier, le président du Syndicat national de l’édition (SNE), Vincent Montagne, est reparti en croisade contre « les écrans » qu’il continue d’opposer aux livres (alors que l’on peut lire des ebooks sur écran). Il s’alarme du temps des jeunes passés sur les écrans, en parlant du « crétin digital ».

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023. La même année, l’éditeur d’une application (Lisa AI) a utilisé la voix de l’actrice Scarlett Johansson dans un spot publicitaire. La publicité précisait avoir été créée par un procédé d’intelligence artificielle. Scarlett Johansson a annoncé avoir porté plainte. Le même type de mésaventure est arrivé, entre autres, à Tom Hanks et Bruce Willis. D’autres images ont aussi fait le tour du monde : celles du Pape François en doudoune blanche, d’Emmanuel Macron manifestant dans les rues de Paris, ou de Barack Obama et Angela Merkel construisant un château de sable ou tendrement enlacés à la plage. Les images de nombreuses stars de cinéma ont même été réutilisées en mars 2023 dans des vidéos à caractère pornographique diffusées sur les réseaux sociaux pour la promotion de Face Mega, un logiciel de « deepfakes », ces « hypertrucages » vidéo. Une autre vidéo diffusée sur la chaîne d’informations Ukraine 24 a montré Volodymyr Zelensky tenant un discours en faveur de la reddition du pays.
Ces différents exemples sont intéressants à rapprocher car ils montrent que l’usage de l’image d’une personnalité peut : être totalement inoffensif, voire relever de la liberté d’expression ; être approuvés implicitement ou explicitement par la « victime » ; ou porter une atteinte grave à la victime, voire présenter un danger pour la démocratie. Les photographies de Barack Obama et d’Angela Merkel sont humoristiques et ne portent aucun tort aux intéressés. Elles pourraient relever de la parodie ou de la satire légitime appliquées à des dirigeants politiques, dès lors que les images sont clairement identifiées comme ayant été créées par IA. La reprise par Angèle elle-même, en concert, de la chanson créée avec sa voix et sans son autorisation peut faire penser qu’elle aurait avalisé a posteriori cette atteinte à ses droits. Mais les propos qu’elle a tenus par ailleurs dénotent une certaine gêne et une pression pesant sur elle : « Et pourquoi je ne ferais pas ce que les gens me demandent depuis des semaines ? » ; « Je sais pas quoi penser de l’intelligence artificielle. J’trouve que c’est une dinguerie mais en même temps j’ai peur pour mon métier » (6). Il est en tout cas significatif qu’elle ait préféré « surfer » sur le succès du remix plutôt que de faire valoir judiciairement une atteinte à son droit à l’image, comme le droit français lui en donne la possibilité.

En cas d’avantage économique indu
C’est une attitude différente qu’a choisie Scarlett Johansson. La violation de son image par la reprise de sa voix dans un cadre commercial, et non artistique, est en effet moins « excusable » dans la mesure où les célébrités monnayent fréquemment l’utilisation de leur image et de leur voix par des marques, et sont en droit de refuser d’être associées à tel ou tel annonceur, même de manière rémunérée. Utiliser la voix de Scarlett Johansson sans autorisation n’est motivé par aucune prétention artistique ou satirique, mais par la volonté de profiter de sa notoriété pour en tirer un avantage économique indu. Le droit français offre, bien sûr, des fondements (articles 9 et 1240 du code civil) pour faire sanctionner ce type d’atteinte.

Code pénal durci contre les deepfakes ?
La France dispose également, depuis 1994, d’un texte qui condamne d’un an d’emprisonnement et de 15.000 euros d’amende « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention » (article 226-8 du code pénal). Pour que ce texte couvre mieux les deepfakes, il a fait l’objet d’un amendement du gouvernement adopté au Sénat (7) et modifié par un autre amendement toujours discuté à l’Assemblée nationale (8) dans le cadre du projet de loi visant à sécuriser et réguler l’espace numérique (9). Le projet prévoit qu’« est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention » (10). Une circonstance aggravante serait caractérisée lorsque le contenu deepfake est publié sur les réseaux sociaux (ou tout service de communication en ligne) : en ce cas, les peines pourraient être portées à deux ans d’emprisonnement et 45.000 euros d’amende.
A aussi été proposée l’introduction d’un nouvel article 226- 8-1 dans le code pénal, permettant la condamnation de la diffusion non consentie d’un hypertrucage à caractère sexuel, assortie d’une peine de deux ans d’emprisonnement et de 60.000 euros d’amende (article 5 ter du projet de loi). Quid cette fois de l’image « ressuscitée » de personnes décédées ? L’émission de télévision « L’Hôtel du Temps » diffusée sur France 3 a « ressuscité » différentes personnalités (Dalida, François Mitterrand ou encore Lady Di) grâce à des procédés d’IA tels que Face Retriever et Voice Cloning. Ces « résurrections » ont suscité de vifs débats : la personne dont on reproduit l’image et la voix aurait-elle réellement tenu ces propos ? Les héritiers disposent-ils de recours et d’un droit de regard sur les réponses de leurs ascendants ? Les archives utilisées aux fins de création de deepfakes sont-elles toutes utilisées légalement ? Une « démocratisation » de cette pratique semble se dessiner. Lors de sa conférence « re:Mars » (11) du 22 juin 2022, Amazon avait annoncé une nouvelle fonctionnalité d’IA dont serait dotée son logiciel Alexa, à savoir la capacité de reproduire la parole d’un défunt, à partir d’un très court extrait d’enregistrement de sa voix, ce qui pourrait aider les personnes survivantes à faire leur deuil. Mais dans le cas d’un usage non sollicité par les survivants, le fondement de l’article 9 du code civil n’est pas disponible car les droits de la personnalité sont intransmissibles aux héritiers. Ces derniers ne pourraient guère que se prévaloir d’un préjudice personnel résultant de l’atteinte à la mémoire d’un défunt. Par exemple, l’utilisation de l’image du défunt ne doit pas porter atteinte à la vie privée de ses héritiers.
Que prévoit alors le projet d’AI Act européen pour protéger les droits de la personnalité ? En avril 2021, la Commission européenne a proposé d’encadrer l’IA juridiquement. Ce n’est que le 9 décembre 2023 que les institutions européennes se sont accordées provisoirement sur un premier texte. Ce texte prévoit notamment une quasiinterdiction de pratiques présentant un « risque inacceptable », notamment en matière de droit à l’image et de protection des données personnelles : extractions non ciblées d’images faciales sur Internet à des fins de création de bases de données de reconnaissance faciale, systèmes de reconnaissance des émotions sur le lieu de travail ou d’études, ou encore systèmes de catégorisation biométrique. Le projet prévoit également que « les utilisateurs d’un système d’IA, qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”), précisent que les contenus ont été générés ou manipulés artificiellement » (article 52). La difficulté est que le processus législatif ne progresse pas aussi rapidement que les outils d’IA et qu’il existe un risque d’obsolescence avant même l’adoption du texte final. D’autre part, la négociation a révélé des tensions non dissipées entre Etats membres.

Emmanuel Macron veut assouplir l’AI Act
Ainsi, Emmanuel Macron a plaidé lundi 11 décembre 2023, lors du premier bilan du plan d’investissement France 2030, en faveur d’une accélération de l’innovation, en affirmant que l’« on peut décider de réguler beaucoup plus vite et plus fort, mais on régulera ce qu’on n’inventera pas ». La France, dont la position consistant à faire primer l’innovation sur le droit d’auteur et sur la protection des droits humains est inhabituelle, est allée jusqu’à considérer que le projet sur lequel les institutions européennes se sont accordées n’était pas définitif et pourrait encore être amendé dans le sens de moins de régulation (12). @

* Article rédigé avec l’aide de Bérénice Leg.

Le Data Act a à l’œil Amazon, Microsoft et Google

En fait. Le 11 janvier 2024 est entré en vigueur le Data Act, à savoir le règlement du 13 décembre 2023 concernant des règles harmonisées portant sur l’équité de l’accès aux données et de l’utilisation des données. Le marché unique européen des données du cloud et des objets connectés se met en place.