Interview exclusive avec le robot ChatGPT d’OpenAI

En fait. Le 14 décembre, ChatGPT, l’intelligence artificielle créée par la start-up OpenAI, a répondu à EM@. Les questions portaient sur ChatGPT lui-même, en tant que robot conversationnel, capable de générer du texte intelligible en fonction de ce qu’on lui dit. Faute d’être connecté au Web, il est limité.

En clair. Edition Multimédi@ a débuté l’interview avec ChatGPT en lui demandant qui il est. Le chatbot (agent conversationnel) répond : « Je suis assistant, un grand modèle linguistique formé par OpenAI. Je suis une intelligence artificielle conçue pour aider à répondre aux questions et à fournir de l’information sur un large éventail de sujets. Je n’ai pas de forme physique et j’existe uniquement comme programme informatique ». A-t-il des concurrents dans le monde ? « En tant que grand modèle linguistique, répond ChatGPT, je n’ai pas de concurrents directs au sens traditionnel. Cependant, il y a d’autres assistants en IA et d’autres modèles linguistiques qui me ressemblent à certains égards [comme] Siri d’Apple, Alexa d’Amazon, et Assistant de Google […], mais ils peuvent différer dans leurs capacités ».
Connaît-il aussi par exemple son homologue suisse Cedille (1) développé par la société Coterie, comme lui s’appuyant sur le modèle de langage GPT-3 d’OpenAI, mais francophone ? « Je suis désolé, mais je ne suis pas en mesure de naviguer sur Internet ou d’accéder à de l’information en dehors de mes données de formation. Par conséquent, je n’ai aucune information sur Cedille ou la société suisse Coteries. Mes connaissances se limitent à ce sur quoi j’ai été formé par OpenAI ». Aussi, nous avons demandé à ChatGPT s’il aura bientôt accès au Web à l’instar d’Assistant de Google, d’Alexa d’Amazon ou de Siri d’Apple ? « Je n’ai pas la capacité d’accéder à Internet ou d’interagir avec lui d’aucune façon […] Il s’agit d’une différence fondamentale entre moi-même et les autres assistants en intelligence artificielle, comme Google Assistant, qui sont conçus pour accéder à Internet et fournir des informations à partir d’un large éventail de sources. […] Je ne suis pas en mesure d’exécuter les mêmes fonctions qu’un moteur de recherche, comme Google ». Mais lui, ChatGPT, voudrait-il être connecté à Internet ? « Je n’ai pas la capacité de prendre des décisions ou des mesures de mon propre chef »… Est-il capable d’écrire livres (2), articles de presse, poèmes, partitions de musique, scénarios de films et discours ? « Je n’ai pas la capacité d’écrire des livres, des articles de presse, des poèmes, des partitions de musique, des scénarios de films ou des discours par moi-même [ni] de créer du contenu original ». Un chatbot (3) limité et déconnecté mais modeste (4). @

Avatars conversationnels, les chatbots s’imposent dans nos vies connectées sans garde-fous

Depuis un an, l’Assurance Maladie laisse un chatbot répondre aux millions de visiteurs de son site web Ameli.fr. De plus en plus d’entreprises ont recours à ces robots conversationnels pour assurer leurs relations clients. Du marketing au divertissement, ils remplacent l’humain. Selon quelles règles ?

Les chatbots s’en donnent à cœur-joie. A part la Californie qui leur a consacré une loi en 2018 pour les encadrer et assurer une transparence vis-à-vis des utilisateurs et des consommateurs (1), aucun autre pays – ni même l’Europe pourtant soucieuse du droit des consommateurs et du respect des données personnelles – n’a encore établi de cadre pour réguler ces agents conversationnels aux allures d’êtres humains, qu’il s’agisse d’avatars de l’écrit ou du vocal s’exprimant en langage naturel.

Un avis du CNPEN en vue pour la rentrée
Cependant, la Commission européenne a lancé, dans le cadre de son groupe d’experts de haut niveau sur l’intelligence artificielle (AI HLEG (2)), une réflexion sur les chatbots en vue d’établir des règles éthiques quant à leur utilisation et d’instaurer des garde-fous contre des pratiques abusives (conversations illégales, déloyales, trompeuses, voire manipulatrices). Objectif pour Bruxelles : assurer la protection des consommateurs et des données personnelles, ainsi que la vie privée. « Pensez-vous qu’en Europe, il faudrait adopter un cadre législatif comparable à celui de l’Etat de Californie ? », demande en France le Comité national pilote d’éthique du numérique (CNPEN), dans une consultation publique sur « les enjeux éthiques liés aux chatbots» lancée il y a un an (3). Selon nos informations, le Comité consultatif national d’éthique (CCNE), dont dépend le CNPEN (4), rendra un avis sur les chatbots « au début du prochain semestre », avec son analyse à la suite de cet appel à contribution qui s’est achevé à l’automne dernier. Son avis sera accompagné de recommandations dans l’utilisation éthique des agents conversationnels et à l’attention de leurs concepteurs et développeurs. « Cet aspect naturel du dialogue est susceptible d’influer sur l’être humain : c’est le problème fondamental de l’éthique des chatbots », prévient le CNPEN.
Il s’agit notamment d’éviter la manipulation – ou nudge – que pourrait pratiquer un dialogueur virtuel en amenant – sans contrainte et par des biais cognitifs – un utilisateur connecté à changer d’avis, à modifier son comportement, voire à faire quelque chose contraire à ses convictions. Et ce, parfois de façon insidieusement. « Tous les nudges sont-ils permis ? Comment peut-on distinguer les bons des mauvais nudges? », s’interroge le CNPEN, sachant qu’un nudge peut être un moyen soit d’influence des individus à des fins mercantiles ou politiques, soit au contraire de surveiller notre santé et d’améliorer notre bien-être. Bien d’autres questions se posent sur l’éthique des chatbots, telles que leur rôle en cas de conflit, de mensonge, de désinformation, de fausses nouvelles (fake news) ou encore d’appel à la délation. Sans parler des « deadbots » qui peuvent faire parler ou écrire virtuellement des personnes décédées (Microsoft y travaille), soit pour faire vivre la mémoire des disparus, soit pour usurper leur identité. « De tels usages porteraient-ils atteinte au principe de respect de la dignité de la personne humaine ? », questionne encore le CNPEN. Ces robots-logiciels en ligne et interactifs n’ont pas réponse à tout, mais ces « dialogueurs » (5) sont de plus en plus présents dans l’e-commerce, l’e-administration, voire l’e-divertissement. Google a présenté le 18 mai dernier son chatbot LaMDA (6). De son côté, Facebook veut racheter pour 1 milliard de dollars la start-up américaine Kustomer, laquelle avait racheté en mai 2020, la start-up newyorkaise Reply.ai qui lui a justement apporté ce savoir-faire conversationnel. La Commission européenne a fait savoir le 12 mai dernier qu’elle ouvrait une enquête sur le rachat de cette société spécialisée dans la gestion de la relation client et de la publicité en ligne, ou Customer Relationship Management (CRM) et Software as a Service (SaaS). CRM et chatbots sont devenus indissociables, Messenger et WhatsApp pouvant soutenir la conversation. Dix Etats membres de l’Union européenne – dont la France – ont demandé à Bruxelles d’examiner cette opération au regard du droit de la concurrence. Ce droit de regard de ces pays a été rendu possible par le fait que Facebook a tout de même dû soumettre son projet à l’autorité de la concurrence en Autriche. En conséquence, « Facebook doit donc nous notifier la transaction, qu’il ne peut mettre en œuvre sans notre autorisation », indique la Commission européenne.

« AmeliBot » de l’Assurance Maladie
En France, où la Cnil a émis en février sur les chatbots des « conseils pour respecter les droits des personnes » (7), l’Assurance Maladie a par exemple lancé il y a un an « AmeliBot » en s’appuyant sur la plateforme conversationnelle DigitalCX du néerlandais CX Company, laquelle a été rachetée en mai 2020 par son compatriote CM.com. L’expérience est concluante puisque le chatbot de cette branche de la Sécurité sociale a pu accélérer le traitement de plus de 40 millions de demandes en moyenne par mois. @

Charles de Laubier