ChatGPT, Midjourney, Flow Machines, … : quel droit d’auteur sur les créations des IA génératives ?

Face à la déferlante des IA créatives et génératives, le droit d’auteurs est quelque peu déstabilisé sur ses bases traditionnelles. La qualification d’« œuvre de l’esprit » bute sur ces robots déshumanisés. Le code de la propriété intellectuelle risque d’en perdre son latin, sauf à le réécrire.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés

L’utilisation de l’intelligence artificielle (IA) par les entreprises, notamment en communication, est de plus en plus répandue. Des logiciels tels que Stable Diffusion, Midjourney, Craiyon, ou encore Dall·E 2 permettent de créer des images à partir d’instructions en langage naturel (le « text-to-image »). Il est également possible de créer du texte avec des outils tels que le robot conversationnel ChatGPT lancé en novembre 2022 par OpenAI (1), voire de la musique avec Flow Machines de Sony (2).

Flou artistique sur le droit d’auteur
Les usages sont assez variés : illustration d’un journal, création d’une marque, textes pour un site Internet, un support publicitaire ou pour un post sur les réseaux sociaux, création musicale, publication d’une œuvre littéraire complexe, …, et bientôt produire des films. Les artistes s’en sont emparés pour développer une forme d’art appelé « art IA », « prompt art » ou encore « GANisme » (3). Et, parfois, les artistes transforment les résultats obtenus en NFT (4), ces jetons non-fongibles authentifiant sur une blockchain (chaîne de blocs) un actif numérique unique. Pour produire un texte, une image ou une musique sur commande, le logiciel a besoin d’être nourri en textes, images ou musiques préexistantes et en métadonnées sur ces contenus (« deep learning »). Plus le logiciel dispose d’informations fiables, plus le résultat sera probant. Comme toute nouveauté technologique, l’utilisation de ces logiciels soulève de nombreuses questions juridiques. La question centrale en matière de propriété intellectuelle est de savoir à qui appartiennent les droits – s’ils existent – sur les contenus générés par l’IA ?
En droit français, une œuvre est protégeable si elle est originale. L’originalité est définie comme révélant l’empreinte de la personnalité de l’auteur, qui ne peut être qu’un être humain. Il faut donc déterminer qui est l’auteur, ou qui sont les auteurs d’une image, d’un texte ou d’une musique créés via une instruction donnée à un logiciel. Il faut aussi déterminer qui peut en être titulaire des droits. Il pourrait s’agir des auteurs des œuvres préexistantes, de nous-mêmes lorsque nous avons donné une instruction au logiciel, ou encore de l’auteur du logiciel (par exemple la société Stability AI qui développe Stable Diffusion). Les entités exploitant ces logiciels contribuent au processus permettant d’obtenir des textes, images ou des musiques inédites, dans la mesure où ce sont ces générateurs de contenus qui proposent un résultat comprenant un ensemble de choix plutôt qu’un autre. Ainsi, c’est la part d’« autonomie » des logiciels d’IA qui jette le trouble dans la conception traditionnelle du droit d’auteur. Un tribunal de Shenzhen (Chine) avait jugé en 2019 qu’un article financier écrit par Dreamwriter (IA mise au point par Tencent en 2015) avait été reproduit sans autorisation, reconnaissant ainsi que la création d’une IA pouvait bénéficier du droit d’auteur. Néanmoins, la contribution du logiciel se fait de manière automatisée et, à notre sens, l’usage technique d’un logiciel pour créer une image, un texte ou une musique ne donne pas au propriétaire du logiciel de droits sur l’image, sur le texte ou la musique : en l’absence d’une intervention humaine sur le choix des couleurs, des formes ou des sons, aucun droit d’auteur ou de coauteur ne peut être revendiqué au nom du logiciel. Le 21 février 2023, aux Etats-Unis, l’Office du Copyright a décidé que des images de bande dessinée créées par l’IA Midjourney ne pouvaient pas être protégées par le droit d’auteur (5).
Les conditions d’utilisation de ces générateurs de textes, d’images ou de musiques peuvent le confirmer. Dans le cas de Dall·E 2, les « Terms of use » prévoient expressément que OpenAI transfère à l’utilisateur tous les droits sur les textes et les images obtenus, et demande même que le contenu ainsi généré soit attribué à la personne qui l’a « créé » ou à sa société. Stability AI octroie une licence de droits d’auteur perpétuelle, mondiale, non exclusive, gratuite, libre de redevances et irrévocable pour tous types d’usage de Stable Diffusion, y compris commercial. Mais en l’absence, selon nous, de tout droit transférable, ces dispositions semblent constituer de simples précautions.

Droits de la personne utilisant le logiciel
Il est donc essentiel, pour toute personne qui souhaite utiliser, à titre commercial ou non, les contenus créés via des outils d’IA, générative ou créative, de vérifier si la société exploitant le site en ligne où il les crée lui en donne les droits et à quelles conditions. Dès lors que l’apport créatif de la personne qui donne les instructions au générateur d’images, de textes ou de musique est limité à la production d’une idée mise en œuvre par le logiciel, et que les idées ne sont pas protégeables par le droit d’auteur, il est douteux qu’un tribunal reconnaisse la qualité d’auteur à cette personne. Puisque l’utilisateur du logiciel ne conçoit pas mentalement, à l’avance, le contenu obtenu, il est difficile d’avancer que ce contenu porte « l’empreinte de sa personnalité ». Mais surtout, on pourrait aller jusqu’à dénier la qualification d’œuvre de l’esprit aux images, textes ou musiques créés par l’IA. En effet, le code de la propriété intellectuelle (CPI) n’accorde la protection du droit d’auteur qu’à des « œuvres de l’esprit » créées par des humains.

« Œuvre de l’esprit » inhérente à l’humain
Faute d’action positive créatrice de la part d’un humain, on pourrait avancer qu’aucun « esprit » n’est mobilisé, donc qu’aucune « œuvre de l’esprit »protégeable par le droit d’auteur n’est créée. S’ils ne sont pas des « œuvres de l’esprit », les contenus ainsi créés seraient alors des biens immatériels de droit commun. Ils sont appropriables non pas par le droit d’auteur (6) mais par la possession (7) ou par le contrat (conditions générales octroyant la propriété à l’utilisateur). Il s’agit alors de créations libres de droit, appartenant au domaine public. Cela fait écho à d’autres types d’« œuvres » sans auteur comme les peintures du chimpanzé Congo ou les célèbres selfies pris en 2008 par un singe macaque. Sur ce dernier exemple, les juridictions américaines avaient décidé que l’autoportrait réalisé par un singe n’était pas une œuvre protégeable puisqu’il n’a pas été créé par un humain, sujet de droits. En revanche, dès lors que le résultat obtenu est retravaillé et qu’un apport personnel formel transforme ce résultat, la qualification d’« œuvre de l’esprit » peut être retenue, mais uniquement en raison de la modification originale apportée au résultat produit par le logiciel. Ce cas de figure est d’ailleurs prévu dans la « Sharing & Publication Policy » de Dall·E 2 qui demande à ses utilisateurs modifiant les résultats obtenus de ne pas les présenter comme ayant été entièrement produits par le logiciel ou entièrement produits par un être humain, ce qui est davantage une règle éthique, de transparence, qu’une exigence juridique.
En droit français, une œuvre nouvelle qui incorpore une œuvre préexistante sans la participation de son auteur est dite « composite » (8). Si les œuvres préexistantes sont dans le domaine public, leur libre utilisation est permise (sous réserve de l’éventuelle opposition du droit moral par les ayants droit). En revanche, incorporer sans autorisation une œuvre préexistante toujours protégée constitue un acte de contrefaçon. Si, par exemple, on donne l’instruction « Guernica de Picasso en couleurs », on obtiendra une image qui intègre et modifie une œuvre préexistante. Or les œuvres de Picasso ne sont pas dans le domaine public et les ayants droit doivent pouvoir autoriser ou interdire non seulement l’exploitation de l’image obtenue et en demander la destruction, mais peutêtre aussi interdire ou autoriser l’usage des œuvres de Picasso par le logiciel. La production et la publication par un utilisateur d’un « Guernica en couleurs » pourraient donc constituer une contrefaçon ; mais l’intégration de Guernica dans la base de données du logiciel (deep learning) pourrait à elle seule constituer également un acte contrefaisant (9). En effet, le CPI sanctionne le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public non autorisée d’œuvres ou d’objets protégés » (10). Le caractère « manifeste » de la mise à disposition, et la qualification de « mise à disposition » elle-même pourraient être discutés.
Mais c’est surtout la directive européenne « Copyright » de 2019 (11) qui pourrait venir en aide aux exploitants d’IA génératrices de contenus en offrant une sécurisation de leur usage d’œuvres préexistantes protégées. Elle encadre l’exploitation à toutes fins, y compris commerciales, d’œuvres protégées pour en extraire des informations, notamment dans le cas des générateurs de textes, d’images ou de musiques. Elle prévoit également une possibilité pour les titulaires de droits sur ces œuvres d’en autoriser ou interdire l’usage, hors finalités académiques. Une telle autorisation peut difficilement être préalable et les exploitants, OpenAI par exemple, mettent donc en place des procédures de signalement de création de contenu contrefaisant (12). Le site Haveibeentrained.com propose, quant à lui, de vérifier si une image a été fournie comme input à des générateurs d’images et de signaler son souhait de retirer l’œuvre de la base de données. Mais les artistes se plaignent déjà de la complexité qu’il y a à obtenir un tel retrait (13).
On le voit, l’irruption des créations de l’IA perturbe le droit de la propriété intellectuelle, dont les outils actuels sont insuffisants pour répondre aux questionnements suscités. On peut imaginer que l’IA permettra un jour de produire de « fausses » sculptures de Camille Claudel, en s’adjoignant la technologie de l’impression 3D, ou encore de faire écrire à Rimbaud ou à Mozart des poèmes et des symphonies d’un niveau artistique équivalent – voire supérieur ! – qu’ils auraient pu écrire et jouer s’ils n’étaient pas morts si jeunes. La question de l’imitation du style d’auteurs encore vivant n’est d’ailleurs pas sans soulever d’autres débats.

Risque de déshumanisation de la création
Un avenir possible de l’art pourrait être dans la déshumanisation de la création, ce qui non seulement rendrait indispensable une refonte du premier livre du CPI, sous l’impulsion du règlement européen « AI Act » en discussion (14), mais susciterait en outre des questionnements éthiques. Si le public prend autant de plaisir à lire un roman écrit par une machine ou à admirer une exposition d’œuvres picturales créées par un logiciel, voire à écouter une musique composée et jouée par l’IA, les professions artistiques survivront-elles à cette concurrence ? @

L’Italie bouscule la France en interdisant ChatGPT

En fait. Le 31 mars, la « Cnil » italienne – la GPDP – a adopté une décision à l’encontre de la société américaine OpenAI, éditrice de l’intelligence artificielle ChatGPT, en interdisant temporairement ce robot conversationnel. En France, la Cnil a finalement reçu début avril deux plaintes contre cette IA.

En clair. Edition Multimédi@ relève que la Commission nationale de l’informatique et des libertés (Cnil) a eu – lors de sa séance plénière du 9 février – une démonstration de ChatGPT (1). Depuis, c’était « silence radio ». Jusqu’à cette décision du 31 mars dernier de son homologue italienne, la GPDP, interdisant dans la péninsule le robot conversationnel de la société californienne OpenAI, laquelle a jusqu’au 20 avril pour « se conformer à l’ordonnance, sinon une amende pouvant atteindre 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial total pourra être imposée » (2).
En France, la Cnil est donc sortie de son silence : « Sur les bases d’apprentissage et les IA génératives, l’objectif de la Cnil est de clarifier le cadre légal dans les prochains mois », a-t-elle indiqué le 1er avril à Marc Rees, journaliste juriste à L’Informé. L’autorité française de la protection des données lui a précisé ce jour-là qu’elle « n’a pas reçu de plainte » contre ChatGPT et n’a « pas de procédure similaire en cours » (3). Mais le 5 avril, deux premières plaintes contre OpenAI sont révélées (4). La Cnil dit « s’[être] rapprochée de son homologue italienne afin d’échanger sur les constats qui ont pu être faits ». Elle n’est bien sûr pas la seule, d’autant que toutes les « Cnil » des Vingt-sept sont compétentes pour « instruire » le cas ChatGPT. « OpenAI n’a pas d’établissement dans l’Union européenne ; donc le mécanisme du guichet unique ne lui est pas applicable. Il n’y a de ce fait pas d’autorité cheffe de file », indique à Edition Multimédi@ le Comité européen de la protection des données (EDPB) – réunissant à Bruxelles les « Cnil » des Vingt-sept sous la houlette de la Commission européenne. Il nous a répondu que son programme de travail 2023-2024 prévoit des « lignes directrices sur l’interaction entre le règlement sur l’IA [Artificial Intelligence Act, ndlr] et le RGPD [règlement général sur la protection des données] » (5).
L’AI Act devrait être voté d’ici fin avril par Parlement européen (6), d’après le commissaire européen au Marché intérieur, Thierry Breton, qui est intervenu le 3 avril sur Franceinfo. « Tout ce qui sera généré par l’IA devra obligatoirement être signalé comme étant fait par une intelligence artificielle », a-t-il prévenu. L’Europe, elle, n’a d’ailleurs pas de champion de l’IA générative. Une nouvelle colonisation numérique… @

Après ChatGPT, les robots conversationnels se bousculent sur le marché de l’IA générative

Les chatbots conversationnels se bousculent au portillon, dans le sillage de ChatGPT. La concurrence s’organise sur marché mondial qui annonce des chamboulements colossaux dans les moteurs de recherche sur Internet, encore dominés par Google. Plus pour longtemps.

Après ChatGPT que la start-up américaine OpenAI – dirigée par son cofondateur Sam Altman (photo) – a lancé le 30 novembre 2022 (1) avec un succès médiatique sans précédent, Bard tente de se lancer à sa poursuite après avoir été annoncé le 6 février dernier par Google mais réservé encore quelques semaines à un nombre limité de happy few testeurs (2). Le lendemain, Microsoft – qui a investi des milliards de dollars dans OpenAI – a annoncé la mise en test dans son moteur de recherche Bing (3) du modèle de traitement du langage naturel utilisé par ChatGPT (Generative Pre-trained Transformer). Et ce n’est pas fini.

La bataille des IA génératrices fait rage
Le 24 février, c’est au tour de Meta de lancer son LLaMA – à des fins de tests également (4). Trois jours après, il est question que Elon Musk – lequel a été un des cofondateurs d’OpenAI – se lance lui aussi dans la course à l’IA générative (5). Au même moment, à savoir le 27 février, Snap y va aussi de son robot conversationnel (chatbot) qui répond au nom de « My AI », également disponible à titre expérimental (6). Toutes ces initiatives ne sont que la face émergée de l’intelligence artificielle conjuguée aux traitements de langage naturel et à l’exploitation de mégabases de données, lorsque que l’IA générative n’est pas aussi connectée au Web (7). Il existe bien d’autres IA créatrices, telles que : Dall.E 2, développée par OpenAI, pour créer des images et des œuvres d’art originales et réalistes à partir d’une description textuelle ; Stable Diffusion, développée par Stability AI, en tant que modèle d’apprentissage automatique (deep learning), permettant de générer des images numériques réalistes à partir de descriptions en langage naturel ; Midjourney, développée par le laboratoire de recherche éponyme, aussi une IA générative conçue pour générer des images à partir de texte ; Cedille, un modèle de génération de texte francophone développé par la société suisse Coteries (8).
Pour conforter son avance, OpenAI a lancé le 1er mars une interface de programmation (API) pour faciliter partout l’intégration de ChatGPT et de Whisper (voix à texte). Textes, photos, vidéos, musiques, … Les IA génératrices s’immiscent dans tous les domaines et cela ne date pas d’hier. Par exemple, la nouvelle musique « des Beatles » baptisée « Daddy’s Car » avait fait sensation en septembre 2016 sur YouTube (9). Or, en réalité, ce titre a été composé par l’équipe « Musique et IA » du laboratoire Sony CSL (10). Il a été créé dans le style des Beatles par le scientifique François Pachet et le musicien Benoît Carré akaSkygge (« ombre » en danois) à l’aide de Flow Machines, une IA « mélomane » (11). Avec elle, ils ont créé en 2018 un album intitulé « Hello World ». François Pachet est aujourd’hui directeur chez Spotify en charge du « développement de la prochaine génération d’outils de composition musicale assistée par IA ».
L’industrie musicale va être bousculée, tout comme l’industrie de l’édition (livre et presse). Le cinéma n’y échappera pas non plus (scénarios et séries). Toutes les industries culturelles et créatives seront impactées, avec les questions de droit d’auteur et de propriété intellectuelle que cela soulève. Par exemple, l’agence photo américaine Getty Images (également banque d’images) a annoncé le 17 janvier porter plainte contre Stability AI (l’éditeur de Stable Diffusion) pour lui avoir « illégalement copié et traité des millions d’images protégées par le droit d’auteur et les métadonnées associées » (12). Plus récemment, le 21 février, le Copyright Office américain a conclu que les images de la bande dessinée « Zarya of the Dawn » créées par l’IA Midjourney, ne peuvent pas être protégées par le droit d’auteur (13). Quant aux « deepfake », ces vidéos hyperréalistes truquées à l’IA, elles commencent pour certaines à poser problème (14). La Chine vient de les interdire (15). La justice commence à faire bouger les lignes (16) et l’Union européenne s’apprête à promulguer son règlement « Artificial Intelligence Act » (17) pour réguler les systèmes d’IA « à haut risque ». Cela irait dans le sens de Brad Smith, président de Microsoft, pour qui « une réglementation efficace en matière d’IA devrait être axée sur les applications les plus à risque ».

Aussi pour des entreprises plus « intelligentes »
Il y a encore peu d’études sur cette vague innovante de création automatique de contenus. Le marché mondial de l’IA générative pourrait être multiplié par dix d’ici la décennie en cours, pour dépasser en 2030 les 100 milliards de dollars. « D’ici 2025, nous nous attendons à ce que plus de 30 % – contre zéro aujourd’hui – de nouveaux médicaments et de nouveaux matériaux soient systématiquement découverts à l’aide de techniques d’IA génératives. Et ce n’est là qu’un des nombreux cas d’utilisation par l’industrie », prévoit Brian Burke, vice-président de la recherche en innovation technologique au sein du cabinet d’études Gartner. @

Charles de Laubier

La Chine est le premier pays à s’attaquer aux « deepfake », ces contenus hyper-truqués à l’IA

Depuis le 10 janvier 2023, en Chine, le règlement « Deep Synthesis Provisions » est entré en vigueur pour réguler voire interdire les « deepfake » créés à l’aide de l’intelligence artificielle en détournant textes, images audios et/ou vidéos. Ces créations hyperréalistes prennent de l’ampleur.

Le président ukrainien Volodymyr Zelensky a expliqué l’an dernier dans une vidéo qu’il avait capitulé face aux russes et qu’il appelait les soldats de son pays à déposer les armes (1). L’acteur américain Morgan Freeman s’est exprimé en 2021 sur la chaîne YouTube néerlandaise Diep Nep pour dire : « Je ne suis pas Morgan Freeman. Ce que vous voyez n’est pas réel » (2). Car ces vidéos et de nombreuses autres postées sur les réseaux sociaux – lorsque ce ne sont pas des textes, des images ou des podcasts – sont des « deepfake », des contenus entièrement manipulés et détournés à l’aide de l’intelligence artificielle (IA) et l’apprentissage machine (AM).

La Chine devance les USA et l’UE
Le résultat est vraisemblable et bluffant. L’année 2023 pourrait être celle de l’explosion de ces vidéos truquées hyperréalistes. Les Etats-Unis ont commencé à légiférer par endroits (Californie, New York, Virginie, Texas) contre les abus des deepfakes – nom composé de deep learning et de fake news. Le Parlement européen devrait bientôt examiner en séance publique la proposition de règlement « Artificial Intelligence Act » (3) mise sur les rails il y a vingt mois (4). Mais c’est la Chine qui vient de devancer l’Occident en faisant entrer en vigueur le 10 janvier 2023 un règlement applicable à l’ensemble de l’Empire du Milieu.
Le texte composé de 25 articles est surnommé le « Deep Synthesis Provisions » (5) et s’applique désormais à toute la filière des fournisseurs de « synthèse profonde » (deepfake). Son entrée en vigueur est l’aboutissement d’un processus qui avait commencé après un discours du président Xi Jinping (photo) devant le Politburo en octobre 2021 où il mettait en garde contre « les symptômes malsains et incontrôlés » de l’économie numérique. C’est le Cyberespace Administration of China (CAC), en cheville avec les ministères de l’Industrie et des Technologies de l’information (MIIT) et de la Sécurité publique (MPS), qui a été à la manoeuvre. Le CAC a été chargé d’élaborer ce règlement « Deep Synthesis Provisions », dont la première version a été publiée il y a un an (fin janvier 2022) à l’occasion d’une consultation publique d’un mois. La version finale a été publiée fin novembre dernier. « Les services qui offrent un dialogue intelligent, des voix synthétisées, la génération de visages, des scénarios de simulation immersive, etc., pour générer ou modifier considérablement la fonction du contenu d’information, devraient être marqués de façon significative pour éviter la confusion ou l’identification erronée du public. », explique le CAC dans un communiqué du 11 décembre (6). La Chine définit la technologie de synthèse profonde comme celle qui utilise l’apprentissage profond (deep learning), la réalité virtuelle et d’autres algorithmes synthétiques pour produire du texte, des images, de l’audio, de la vidéo, des scènes virtuelles ou en 3D, et d’autres informations réseau. Les fournisseurs de services de synthèse approfondie sont tenus de désigner les entreprises qui offrent des services, logiciels et supports techniques. La responsabilité incombe aux prestataires de services de synthèse profonde en matière de sécurité des données et de protection des informations personnelles, de transparence (notamment en établissant des lignes directrices, des critères et des processus pour reconnaître les informations fausses ou préjudiciables), et de gestion de contenu et étiquetage (étiquettes ou logos).
Les dispositions du règlement « Deep Synthesis Provisions » s’appuient sur un règlement « Online Audio and Video Information Services » (7) de 2019 qui interdit sur Internet l’utilisation de photos, d’audios et de vidéos générés par ordinateur pour produire ou diffuser des fausses nouvelles. Mais comme dans le reste du monde, il sera difficile de faire la part des choses, entre fake news et parodie. La censure chinoise ajoute une corde à son arc.
Quoi qu’il en soit, Pékin prend très au sérieux la menace des deepfakes, y compris des algorithmes (8), à l’heure où la bataille commerciale exacerbée avec Washington fait rage sur fond de guerre en Ukraine déclenchée par sa voisine et amie la Russie.

La notion de « contenus illicites » du DSA
En attendant l’adoption du règlement « Artificial Intelligence Act », l’Europe s’est dotée du Digital Services Act (DSA) qui entre en vigueur en 2023. Il prévoit notamment que les plateformes numériques « lutte[nt] contre la diffusion de contenus illicites en ligne et contre les risques, pour la société, de diffusion d’informations trompeuses » (considérant 9), la notion (vague ?) de « contenus illicites » étant mentionnée dans au moins huit articles du DSA (9) – mais sans qu’il y soit question explicitement de deepfake. Avec son « Deep Synthesis Provisions », la Chine a pris de l’avance et pourrait être suivie par d’autres pays autoritaires. @

Charles de Laubier

Interview exclusive avec le robot ChatGPT d’OpenAI

En fait. Le 14 décembre, ChatGPT, l’intelligence artificielle créée par la start-up OpenAI, a répondu à EM@. Les questions portaient sur ChatGPT lui-même, en tant que robot conversationnel, capable de générer du texte intelligible en fonction de ce qu’on lui dit. Faute d’être connecté au Web, il est limité.

En clair. Edition Multimédi@ a débuté l’interview avec ChatGPT en lui demandant qui il est. Le chatbot (agent conversationnel) répond : « Je suis assistant, un grand modèle linguistique formé par OpenAI. Je suis une intelligence artificielle conçue pour aider à répondre aux questions et à fournir de l’information sur un large éventail de sujets. Je n’ai pas de forme physique et j’existe uniquement comme programme informatique ». A-t-il des concurrents dans le monde ? « En tant que grand modèle linguistique, répond ChatGPT, je n’ai pas de concurrents directs au sens traditionnel. Cependant, il y a d’autres assistants en IA et d’autres modèles linguistiques qui me ressemblent à certains égards [comme] Siri d’Apple, Alexa d’Amazon, et Assistant de Google […], mais ils peuvent différer dans leurs capacités ».
Connaît-il aussi par exemple son homologue suisse Cedille (1) développé par la société Coterie, comme lui s’appuyant sur le modèle de langage GPT-3 d’OpenAI, mais francophone ? « Je suis désolé, mais je ne suis pas en mesure de naviguer sur Internet ou d’accéder à de l’information en dehors de mes données de formation. Par conséquent, je n’ai aucune information sur Cedille ou la société suisse Coteries. Mes connaissances se limitent à ce sur quoi j’ai été formé par OpenAI ». Aussi, nous avons demandé à ChatGPT s’il aura bientôt accès au Web à l’instar d’Assistant de Google, d’Alexa d’Amazon ou de Siri d’Apple ? « Je n’ai pas la capacité d’accéder à Internet ou d’interagir avec lui d’aucune façon […] Il s’agit d’une différence fondamentale entre moi-même et les autres assistants en intelligence artificielle, comme Google Assistant, qui sont conçus pour accéder à Internet et fournir des informations à partir d’un large éventail de sources. […] Je ne suis pas en mesure d’exécuter les mêmes fonctions qu’un moteur de recherche, comme Google ». Mais lui, ChatGPT, voudrait-il être connecté à Internet ? « Je n’ai pas la capacité de prendre des décisions ou des mesures de mon propre chef »… Est-il capable d’écrire livres (2), articles de presse, poèmes, partitions de musique, scénarios de films et discours ? « Je n’ai pas la capacité d’écrire des livres, des articles de presse, des poèmes, des partitions de musique, des scénarios de films ou des discours par moi-même [ni] de créer du contenu original ». Un chatbot (3) limité et déconnecté mais modeste (4). @