L’ambition de Perplexity de vouloir détrôner le moteur de recherche Google laisse… perplexe

La start-up Perplexity AI, cofondée en août 2022 et dirigée par Aravind Srinivas, a lancé un moteur conversationnel intelligent présenté comme « une alternative aux moteurs de recherche traditionnels » – autrement dit à Google qui domine largement le marché mondial.

Selon nos informations auprès de Statcounter, Google domine toujours de manière écrasante le marché mondial des moteurs de recherche avec – sur le mois de mars 2024 – 91,38 % de part de marché (1) avec près de 80 milliards de visites ce mois-là selon Similarweb, suivi de très très loin par Bing (Microsoft) qui peine à faire mieux que 3,35 % avec près de 1,3 milliard de visite sur le mois, ou encore par Yahoo avec seulement 1,1 % mais sans que l’on sache précisément le nombre de visite correspondant à son moteur par rapport à son portail média. Autant dire que la filiale d’Alphabet est en situation de quasi-monopole.

« Chat-search », à la fois moteur et robot
C’est à cette position dominante dans le search que de nouveaux entrants rêvent de s’attaquer en tentant de profiter de l’effet de levier technologique de l’intelligence artificielle en général et de l’IA générative en particulier. L’Indo-américain Aravind Srinivas (photo de gauche) et le Biélorusse Denis Yarats (photo de droite) travaillant aux Etats-Unis, tous les deux cofondateurs en août 2022 de la start-up californienne Perplexity AI, ont entrepris de faire entrer la recherche en ligne dans la nouvelle ère de ce qu’ils appellent l’« AI-native search ». Leur moteur conversationnel, qui a dépassé en mars 2024 les 56 millions de visites, est présenté comme un « couteau suisse » de la recherche en ligne.

Le Bureau européen de l’IA forme son bataillon

En fait. Le 27 mars à midi est la date limite pour se porter candidat à l’une des offres d’emploi du « Bureau de l’IA » (AI Office) créé au sein de la Commission européenne par l’AI Act dont la version finale sera soumise le 22 avril au vote du Parlement européen. Sont recrutés des techniciens et des administratifs.

L’année 2024 sera-t-elle plus « intelligente » que les précédentes ? Les acteurs de l’IA y travaillent

Edition Multimédi@ est partenaire média du 3e World AI Cannes Festival (WAICF), rendez-vous mondial consacré à l’intelligence artificielle et organisé du 8 au 10 février 2024 au Palais des festivals de Cannes. L’occasion de faire le point sur quelques forces en présence d’envergue mondiale.

L’intelligence artificielle, c’est désormais le foisonnement permanent sur fond de bataille des LLM (Large Language Model), ces grands modèles de langage utilisés par les agents conversationnels et les IA génératives, capables d’exploiter en temps réel des milliards voire des dizaines de milliards de paramètres. Depuis le 30 novembre 2022, date du lancement fracassant de ChatGPT (1) d’OpenAI, cornaqué par Microsoft (2), le marché mondial de l’IA ne cesse de prendre de l’ampleur. Alors que les questions sur les IA responsables (éthique, biais, droit d’auteur, droit à l’image, …) sont autant de défis à relever. Parmi les derniers prétendants aux premières places de la course à l’intelligence numérique potentiellement utilisable par des milliards d’êtres humains connectés : Mistral AI, Gemini, Anthropic et Llama, en attendant Ferret… d’Apple.

Mistral AI. La start-up française, devenue licorne (non cotée en Bourse mais valorisée près de 2 milliards d’euros), a été fondée en avril 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix. Le 10 décembre dernier, elle a annoncé avoir levé 385 millions d’euros auprès d’investisseurs et a ouvert à l’intention des développeurs sa plateforme open source de modèles génératifs « les plus puissants » dans leur version bêta (3). Arthur Mensch, un ancien « scientist » de chez DeepMind, filiale de Google (tandis que les deux autres cofondateurs viennent de Facebook/Meta), a l’ambition de « créer un champion européen à vocation mondiale dans l’intelligence artificielle ». Son modèle d’IA, baptisé « Mixtral 8x7B », a été présenté comme étant six fois plus rapide que le langage Llama 2 70B du groupe Meta qu’il « surpasse » dans « la plupart des benchmarks ». De plus, « il égale ou surpasse GPT 3.5 [d’OpenAI] » (4).

Gemini. C’est le modèle d’IA « le plus grand et le plus performant » que Google a annoncé le 6 décembre dernier dans un post (5) cosigné par Sundar Pichai, PDG de Google et de sa maison mère Alphabet, et par Demis Hassabis, directeur général et cofondateur en 2010 de la start-up DeepMind Technologies que Google a rachetée il y a dix ans (en janvier 2014) pour quelque 628 millions de dollars. Rebaptisée Google DeepMind et filiale d’Alphabet, elle a rendu disponible la version 1.0 de Gemini (6) qui est déployé dans plusieurs produits et plateformes de la firme de Mountain View (où se trouve le QG Googleplex). L’IA générative Bard, que Google a lancée précipitamment il y aura un an le 6 février (7), profite désormais d’« une version affinée de Gemini Pro pour un raisonnement plus avancé » et il s’agit de « la plus grande mise à jour de Bard depuis son lancement ». Gemini est présenté comme un modèle multimodal (texte, images, audio et vidéo).

Anthropic. Fondée en décembre 2020 par d’anciens d’OpenAI, Dario Amodei et sa sœur Daniela Amodei, la startup Anthropic – dont ils sont respectivement directeur général et présidente – est basée à San Francisco (Californie) comme OpenAI. Ils ont été suivis par sept autres de leurs collègues d’OpenAI. Amazon avait annoncé le 25 septembre 2023 l’injection de 4 milliards de dollars dans Anthropic (8), qui avait levé 1,5 milliard de dollars dix-huit mois auparavant auprès d’investisseurs – dont 300 millions de dollars de Google qui a pris 10 % du capital et a promis à la start-up de lui apporter jusqu’à 2 milliards de dollars en plus. Anthropic, qui recourt au cloud AWS d’Amazon, a lancé en mars 2023 son IA générative appelée Claude (9) (claude.ai), dont la version 2 est disponible depuis juillet dernier. Mais avec son futur « Claude-Next », la rival d’OpenAI se positionne déjà pour se mesurer au futur ChatGPT-5 attendu cette année.

Llama. Cela fera un an, le 24 février prochain, que Meta Platforms (ex-Facebook) a lancé « LLaMA » (Large Language Model Meta AI), son grand modèle de langage en open source (10). La firme de Mark Zuckerberg a ensuite annoncé le 18 juillet dernier la version Llama 2 en partenariat avec Microsoft (pour utiliser son cloud Azure), mais en la rendant aussi disponible chez Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs. « Llama 2 est gratuit pour la recherche et l’utilisation commerciale », précise Meta (11). Le géant de Menlo Park (Californie) utilise aussi son IA pour créer de nouvelles fonctions sur ses réseaux sociaux Instagram, Facebook et WhatsApp. Le 7 décembre, il a présenté « Purple Llama », une boîte à outils également en open source pour la sécurité et la confiance en matière d’IA responsable (12). Rappelons que le directeur général de l’intelligence artificielle de Meta est le Français Yann Le Cun, recruté il y a dix ans maintenant (en décembre 2013) et basé à New-York. @

Charles de Laubier

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante. Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Des œuvres utilisées comme inputs Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ». Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée. Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur. A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ? L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7). Plaintes contre les IA « non autorisées » On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits. L’opt-out est-il efficace pour protéger ? La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ? Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative. Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée en droit de la propriété intellectuelle, des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ? ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

IA générative : le prompt engineering va révolutionner la presse en éditant des journaux sur mesure

L’ingénierie rapide – prompt engineering – s’apprête à révolutionner le monde des médias en général et de la presse en particulier. Ce processus puissant utilisé par les IA génératives va permettre à un lecteur de créer son journal sur mesure, en fonction de ses préférences et centres d’intérêt. Attention : tsunami en vue pour la presse. Les IA génératives s’apprêtent à prendre des airs de rédacteur-en-chef et de chef d’édition. Grâce à la puissance du prompt engineering, les «ChatGPT» vont permettre potentiellement à chaque lecteur de pouvoir générer sur mesure son propre journal d’actualités en fonction de ses critères et ses thèmes préférés. De quoi court-circuiter les médias traditionnels encore attachés à l’« œuvre collective » qu’est un journal écrit par des journalistes. Un journal personnalisé en 10 mn chrono Lors d’un meetup organisé fin septembre par Comptoir IA, deux jeunes frères (1) ont fait frémir des dirigeants de médias traditionnels et des éditeurs de presse qui ont assisté à leurs dix minutes de démonstration. Thibaut et Pierre de La Grand’rive (photos) ont créé cet été leur société, Delos Intelligence, présentée comme une « agence de service et de conseil informatique spécialisée dans l’IA générative ». Respectivement président et directeur général, Thibaut (24 ans) et Pierre (26 ans) ont présenté leur projet qui pourrait disrupter le monde des journaux et du journalisme. « Après le lancement de ChatGPT, nous nous sommes lancés dans le projet “Autonews”, qui s’appelait à l’origine “Newstaylor”. Il s’agit d’un journal complètement automatique. Il a fallu pour cela s’approprier l’ingénierie du prompt ou prompt engineering. Et avec cette idée que, demain, le média serait probablement individuel, individualisé. Ou en tout cas que l’on tendrait vers ça. Et demain peut-être auronsnous chacun nos propres articles en fonction de nos demandes ou de nos préférences », a expliqué Pierre de La Grand’rive. Prompt engineering, quèsaco ?C’est la méthode ou processus puissants qu’utilisent les ChatGPT, Midjourney et autres Bard pour optimiser leurs résultats produits par leurs IA génératives. Appliqué à la presse et à l’actualité, cela donne un journal sur mesure réalisé automatiquement en un temps record. « On a, avec l’IA générative, une explosion de créativité dans le cadre de ce qui est possible pour la machine. On veut aussi bouleverser par ce projet les cadres rigides des médias. On propose des articles et des formes d’articles novatrices et ambitieuses », a poursuivi celui qui est aussi directeur technique, et ingénieur IA générative. Son frère cadet, Thibaut de La Grand’rive, se présente, lui, comme directeur commercial. « Autonews va chercher 600 articles lus (sélectionnés) et en fonction des profils indiqués ; il rédige 50 articles complètement, différents à partir des mêmes actualités. Et ce, réalisé en l’espace de 10 mn, ce qui met au défi pas mal de rédactions de journaux traditionnels », a indiqué ce dernier. Pour personnaliser son journal, il suffit d’indiquer son profil et ses centres d’intérêt (politique, économie, international, culture, sport ou autres thèmes), son âge et son temps de lecture disponible (10 mn de métro ou 50 mn de voiture jusqu’à son travail). « Vous pouvez avoir la taille d’article en fonction de ce que vous indiquez à la machine, a souligné Thibaut de La Grand’rive, avec des tons d’écriture : brief d’actualités pertinentes, ton enfantin du type “Le Petit Quotidien”, ton traditionnel du journal d’avant, ou encore ton conversation entre deux experts dans leur domaine. En résonnance, Autonews adaptera l’intégralité du contenu de votre journal en fonction de votre profil. C’est dans cette démarche que nous voulions faire le journal sur mesure ». Son frère aîné, lui, a précisé qu’un seul prompt ne suffisait pas pour traiter toute l’actualité. Il y a donc fallu créer toute une chaîne de prompts, le fameux prompt engineering. « L’IA générative va amener la machine à raisonner et inclure véritablement ce raisonnement à l’intérieur d’un code pour jouer le rôle de rédac’ chef pour sélectionner les actualités parmi les trop nombreuses par jour. Nous avons été surpris par la qualité de rédaction de ces articles », a confié Pierre de La Grand’rive. Jacques Rosselin et David Guiraud inquiets Présent à ce meetup, Jacques Rosselin, le fondateur de Courrier International (exploitant 800 médias sources et ayant nécessité jusqu’à 40 journalistes) leur a demandé si l’on pourrait « faire Courrier International avec une personne maintenant ? ».Réponse de Pierre, l’ingénieur IA générative : « Honnêtement, avec une personne, peut-être pas, mais tenir un journal avec quatre personnes avec un bon responsable marketing et un bon ingénieur qui font bien fonctionner leurs méninges, oui, vous pouvez vous positionner ». De son côté, devant l’Association des journalistes médias (AJM) le 5 octobre, David Guiraud – ancien dirigeant du Monde et des Echos, et actuel président de Ouest-France (2) – a indiqué avoir assisté à ce meetup : « On se retrouve déjà avec un flot de contenus et face à une concurrence énorme. Le risque est que l’on soit pris dans cette sorte de tsunami qui nous empêche de faire notre travail ». @

Charles de Laubier