Eclairage sur NewsGuard, la start-up qui éloigne les publicitaires des « mauvais » sites d’actualités

NewsGuard a repéré une cinquantaine de sites web d’actualités générées par des intelligences artificielles (newsbots). Mais qui est au juste cette start-up newyorkaise traquant depuis 5 ans la mésinformation en ligne, notamment pour le compte de Publicis qui en est coactionnaire ?

Il y a cinq ans, en mars 2018, la start-up newyorkaise NewsGuard Technologies lançait la première version de son extension pour navigateurs web qui avertit les utilisateurs lorsque des contenus faisant état de fausses informations (fake news) ou relevant de conflits d’intérêt (lobbying) sont détectés sur les sites web visités. L’équipe d’analystes et de journalistes de NewsGuard évaluent la fiabilité générale et la crédibilité des sites en ligne, avec un système de notation sur 100 et de classement. A partir de 75/100, un site d’actualité devient généralement crédible.

Le français Publicis, actionnaire et client
La société NewsGuard a été cofondée en août 2017 par les deux directeurs généraux actuels et « co-directeurs de la rédaction », Gordon Crovitz (photo de gauche) et Steven Brill (photo de droite), deux vétérans de la presse américaine, notamment respectivement ancien éditeur du Wall Street Journal (Dow Jones) pour le premier et fondateur du magazine The American Lawyer et de Court TV pour le second. Parmi ses nombreux coactionnaires, il y a un géant mondial de la publicité, le français Publicis – « moins de 10 % du capital » –, nous dit Gordon Crovits – aux côtés de Knight Foundation, Cox Investment Holdings ou encore Fitz Gate Ventures (1). La relation avec Publicis est non seulement actionnariale mais aussi partenariale. Cela fait deux ans que NewsGuard et Publicis ont annoncé leur alliance pour « stimuler la publicité sur les sites d’actualité fiables ».
Le groupe publicitaire fondé il y a presqu’un siècle par Marcel Bleustein-Blanchet (dont la fille Elisabeth Badinter est toujours la principale actionnaire) identifie ainsi depuis pour ses clients annonceurs et professionnels du marketing « des plateformes publicitaires plus responsables et dignes de confiance, et des opportunités de combattre l’infodémie dans les médias ». Et surtout « pour éviter que leurs publicités financent involontairement des milliers de sites de mésinformation et d’infox » (2). L’enjeu est de taille puisque la publicité programmatique a tendance à financer aussi bien des sites de mésinformation que des sites d’actualités fiables. Dans son dernier document d’enregistrement universel pour l’année 2022, publié le 26 avril dernier, le groupe Publicis parle de « partenariat exclusif » avec NewsGuard qui « donne à tous [s]es clients accès à l’outil “Publicité responsable dans les médias” (3) permettant l’inclusion ou l’exclusion de sites, afin d’éviter que leurs publicités financent involontairement des sites d’infox ou de mésinformation/désinformation » (4). Au-delà de sa solution de «Ratings» sur la transparence des sites web d’information, NewsGuard Technologies propose aussi aux annonceurs, agences et autres sociétés de l’adtech une solution baptisée BrandGuard pour éviter que leurs publicités en ligne ne se retrouvent sur des sites web jugés non fiables ou sources de mésinformation. Ainsi, les analystes et conseillers éditoriaux de la start-up américaine – il y a même des « rédacteurs en chef » – évalue « des milliers de sites d’actualité et d’information couvrant 95 % de l’engagement en ligne dans chaque marché, pour certifier les sites d’actualité fiables, et alerter sur les domaines peu fiables qui diffusent de fausses informations dangereuses, des théories du complot, ou se font passer pour des sources d’actualité légitimes ». Ainsi, ce sont plusieurs milliers de sites web d’actualités qui sont passés au crible aux Etats-Unis, au Royaume-Uni, au Canada, en Allemagne, en Italie et en France. NewsGuard Technologies se préoccupe aussi de débusquer une autre catégorie de sites d’actualités sujets à caution : les newsbots, dont les contenus sont en majorité ou totalement écrits par des intelligences artificielles (IA) et qui s’avèrent être « de qualité médiocre ».
NewsGuard en a identifié une cinquantaine et l’a fait savoir le 1er mai dernier. Ces robots d’actualités ou « fermes à contenus », ou newsbots, ont pour nom : Famadillo, GetIntoKnowledge, Biz Breaking News, News Live 79, Daily Business Post, Market News Reports, BestBudgetUSA, HarmonyHustle, HistoryFact, CountyLocalNews, TNewsNetwork, CelebritiesDeaths, WaveFunction, ScoopEarth ou encore FilthyLucre (5). Contactés par Edition Multimédi@, les deux auteurs de l’étude – McKenzie Sadeghi et Lorenzo Arvanitis – indiquent qu’ils ont aussi en France identifié Actubisontine et Commentouvrir, sites web francophones boostés à l’IA.

Détecter les textes générés par l’IA
« Malheureusement, les sites ne fournissent pas beaucoup d’informations sur leur origine et sont souvent anonymes », nous précise McKenzie Sadeghi. Tandis que Lorenzo Arvaniti nous indique que « la saisie d’articles dans l’outil de classification de texte AI (6) vous donne une idée d’un modèle selon lequel une quantité substantielle de contenu sur le site semble générée par IA ». NewsGuard a aussi soumis les articles de son étude à GPTZero (7), un autre classificateur de texte d’IA. @

Charles de Laubier

ChatGPT, Midjourney, Flow Machines, … : quel droit d’auteur sur les créations des IA génératives ?

Face à la déferlante des IA créatives et génératives, le droit d’auteurs est quelque peu déstabilisé sur ses bases traditionnelles. La qualification d’« œuvre de l’esprit » bute sur ces robots déshumanisés. Le code de la propriété intellectuelle risque d’en perdre son latin, sauf à le réécrire.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés

L’utilisation de l’intelligence artificielle (IA) par les entreprises, notamment en communication, est de plus en plus répandue. Des logiciels tels que Stable Diffusion, Midjourney, Craiyon, ou encore Dall·E 2 permettent de créer des images à partir d’instructions en langage naturel (le « text-to-image »). Il est également possible de créer du texte avec des outils tels que le robot conversationnel ChatGPT lancé en novembre 2022 par OpenAI (1), voire de la musique avec Flow Machines de Sony (2).

Flou artistique sur le droit d’auteur
Les usages sont assez variés : illustration d’un journal, création d’une marque, textes pour un site Internet, un support publicitaire ou pour un post sur les réseaux sociaux, création musicale, publication d’une œuvre littéraire complexe, …, et bientôt produire des films. Les artistes s’en sont emparés pour développer une forme d’art appelé « art IA », « prompt art » ou encore « GANisme » (3). Et, parfois, les artistes transforment les résultats obtenus en NFT (4), ces jetons non-fongibles authentifiant sur une blockchain (chaîne de blocs) un actif numérique unique. Pour produire un texte, une image ou une musique sur commande, le logiciel a besoin d’être nourri en textes, images ou musiques préexistantes et en métadonnées sur ces contenus (« deep learning »). Plus le logiciel dispose d’informations fiables, plus le résultat sera probant. Comme toute nouveauté technologique, l’utilisation de ces logiciels soulève de nombreuses questions juridiques. La question centrale en matière de propriété intellectuelle est de savoir à qui appartiennent les droits – s’ils existent – sur les contenus générés par l’IA ?
En droit français, une œuvre est protégeable si elle est originale. L’originalité est définie comme révélant l’empreinte de la personnalité de l’auteur, qui ne peut être qu’un être humain. Il faut donc déterminer qui est l’auteur, ou qui sont les auteurs d’une image, d’un texte ou d’une musique créés via une instruction donnée à un logiciel. Il faut aussi déterminer qui peut en être titulaire des droits. Il pourrait s’agir des auteurs des œuvres préexistantes, de nous-mêmes lorsque nous avons donné une instruction au logiciel, ou encore de l’auteur du logiciel (par exemple la société Stability AI qui développe Stable Diffusion). Les entités exploitant ces logiciels contribuent au processus permettant d’obtenir des textes, images ou des musiques inédites, dans la mesure où ce sont ces générateurs de contenus qui proposent un résultat comprenant un ensemble de choix plutôt qu’un autre. Ainsi, c’est la part d’« autonomie » des logiciels d’IA qui jette le trouble dans la conception traditionnelle du droit d’auteur. Un tribunal de Shenzhen (Chine) avait jugé en 2019 qu’un article financier écrit par Dreamwriter (IA mise au point par Tencent en 2015) avait été reproduit sans autorisation, reconnaissant ainsi que la création d’une IA pouvait bénéficier du droit d’auteur. Néanmoins, la contribution du logiciel se fait de manière automatisée et, à notre sens, l’usage technique d’un logiciel pour créer une image, un texte ou une musique ne donne pas au propriétaire du logiciel de droits sur l’image, sur le texte ou la musique : en l’absence d’une intervention humaine sur le choix des couleurs, des formes ou des sons, aucun droit d’auteur ou de coauteur ne peut être revendiqué au nom du logiciel. Le 21 février 2023, aux Etats-Unis, l’Office du Copyright a décidé que des images de bande dessinée créées par l’IA Midjourney ne pouvaient pas être protégées par le droit d’auteur (5).
Les conditions d’utilisation de ces générateurs de textes, d’images ou de musiques peuvent le confirmer. Dans le cas de Dall·E 2, les « Terms of use » prévoient expressément que OpenAI transfère à l’utilisateur tous les droits sur les textes et les images obtenus, et demande même que le contenu ainsi généré soit attribué à la personne qui l’a « créé » ou à sa société. Stability AI octroie une licence de droits d’auteur perpétuelle, mondiale, non exclusive, gratuite, libre de redevances et irrévocable pour tous types d’usage de Stable Diffusion, y compris commercial. Mais en l’absence, selon nous, de tout droit transférable, ces dispositions semblent constituer de simples précautions.

Droits de la personne utilisant le logiciel
Il est donc essentiel, pour toute personne qui souhaite utiliser, à titre commercial ou non, les contenus créés via des outils d’IA, générative ou créative, de vérifier si la société exploitant le site en ligne où il les crée lui en donne les droits et à quelles conditions. Dès lors que l’apport créatif de la personne qui donne les instructions au générateur d’images, de textes ou de musique est limité à la production d’une idée mise en œuvre par le logiciel, et que les idées ne sont pas protégeables par le droit d’auteur, il est douteux qu’un tribunal reconnaisse la qualité d’auteur à cette personne. Puisque l’utilisateur du logiciel ne conçoit pas mentalement, à l’avance, le contenu obtenu, il est difficile d’avancer que ce contenu porte « l’empreinte de sa personnalité ». Mais surtout, on pourrait aller jusqu’à dénier la qualification d’œuvre de l’esprit aux images, textes ou musiques créés par l’IA. En effet, le code de la propriété intellectuelle (CPI) n’accorde la protection du droit d’auteur qu’à des « œuvres de l’esprit » créées par des humains.

« Œuvre de l’esprit » inhérente à l’humain
Faute d’action positive créatrice de la part d’un humain, on pourrait avancer qu’aucun « esprit » n’est mobilisé, donc qu’aucune « œuvre de l’esprit »protégeable par le droit d’auteur n’est créée. S’ils ne sont pas des « œuvres de l’esprit », les contenus ainsi créés seraient alors des biens immatériels de droit commun. Ils sont appropriables non pas par le droit d’auteur (6) mais par la possession (7) ou par le contrat (conditions générales octroyant la propriété à l’utilisateur). Il s’agit alors de créations libres de droit, appartenant au domaine public. Cela fait écho à d’autres types d’« œuvres » sans auteur comme les peintures du chimpanzé Congo ou les célèbres selfies pris en 2008 par un singe macaque. Sur ce dernier exemple, les juridictions américaines avaient décidé que l’autoportrait réalisé par un singe n’était pas une œuvre protégeable puisqu’il n’a pas été créé par un humain, sujet de droits. En revanche, dès lors que le résultat obtenu est retravaillé et qu’un apport personnel formel transforme ce résultat, la qualification d’« œuvre de l’esprit » peut être retenue, mais uniquement en raison de la modification originale apportée au résultat produit par le logiciel. Ce cas de figure est d’ailleurs prévu dans la « Sharing & Publication Policy » de Dall·E 2 qui demande à ses utilisateurs modifiant les résultats obtenus de ne pas les présenter comme ayant été entièrement produits par le logiciel ou entièrement produits par un être humain, ce qui est davantage une règle éthique, de transparence, qu’une exigence juridique.
En droit français, une œuvre nouvelle qui incorpore une œuvre préexistante sans la participation de son auteur est dite « composite » (8). Si les œuvres préexistantes sont dans le domaine public, leur libre utilisation est permise (sous réserve de l’éventuelle opposition du droit moral par les ayants droit). En revanche, incorporer sans autorisation une œuvre préexistante toujours protégée constitue un acte de contrefaçon. Si, par exemple, on donne l’instruction « Guernica de Picasso en couleurs », on obtiendra une image qui intègre et modifie une œuvre préexistante. Or les œuvres de Picasso ne sont pas dans le domaine public et les ayants droit doivent pouvoir autoriser ou interdire non seulement l’exploitation de l’image obtenue et en demander la destruction, mais peutêtre aussi interdire ou autoriser l’usage des œuvres de Picasso par le logiciel. La production et la publication par un utilisateur d’un « Guernica en couleurs » pourraient donc constituer une contrefaçon ; mais l’intégration de Guernica dans la base de données du logiciel (deep learning) pourrait à elle seule constituer également un acte contrefaisant (9). En effet, le CPI sanctionne le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public non autorisée d’œuvres ou d’objets protégés » (10). Le caractère « manifeste » de la mise à disposition, et la qualification de « mise à disposition » elle-même pourraient être discutés.
Mais c’est surtout la directive européenne « Copyright » de 2019 (11) qui pourrait venir en aide aux exploitants d’IA génératrices de contenus en offrant une sécurisation de leur usage d’œuvres préexistantes protégées. Elle encadre l’exploitation à toutes fins, y compris commerciales, d’œuvres protégées pour en extraire des informations, notamment dans le cas des générateurs de textes, d’images ou de musiques. Elle prévoit également une possibilité pour les titulaires de droits sur ces œuvres d’en autoriser ou interdire l’usage, hors finalités académiques. Une telle autorisation peut difficilement être préalable et les exploitants, OpenAI par exemple, mettent donc en place des procédures de signalement de création de contenu contrefaisant (12). Le site Haveibeentrained.com propose, quant à lui, de vérifier si une image a été fournie comme input à des générateurs d’images et de signaler son souhait de retirer l’œuvre de la base de données. Mais les artistes se plaignent déjà de la complexité qu’il y a à obtenir un tel retrait (13).
On le voit, l’irruption des créations de l’IA perturbe le droit de la propriété intellectuelle, dont les outils actuels sont insuffisants pour répondre aux questionnements suscités. On peut imaginer que l’IA permettra un jour de produire de « fausses » sculptures de Camille Claudel, en s’adjoignant la technologie de l’impression 3D, ou encore de faire écrire à Rimbaud ou à Mozart des poèmes et des symphonies d’un niveau artistique équivalent – voire supérieur ! – qu’ils auraient pu écrire et jouer s’ils n’étaient pas morts si jeunes. La question de l’imitation du style d’auteurs encore vivant n’est d’ailleurs pas sans soulever d’autres débats.

Risque de déshumanisation de la création
Un avenir possible de l’art pourrait être dans la déshumanisation de la création, ce qui non seulement rendrait indispensable une refonte du premier livre du CPI, sous l’impulsion du règlement européen « AI Act » en discussion (14), mais susciterait en outre des questionnements éthiques. Si le public prend autant de plaisir à lire un roman écrit par une machine ou à admirer une exposition d’œuvres picturales créées par un logiciel, voire à écouter une musique composée et jouée par l’IA, les professions artistiques survivront-elles à cette concurrence ? @

L’Italie bouscule la France en interdisant ChatGPT

En fait. Le 31 mars, la « Cnil » italienne – la GPDP – a adopté une décision à l’encontre de la société américaine OpenAI, éditrice de l’intelligence artificielle ChatGPT, en interdisant temporairement ce robot conversationnel. En France, la Cnil a finalement reçu début avril deux plaintes contre cette IA.

En clair. Edition Multimédi@ relève que la Commission nationale de l’informatique et des libertés (Cnil) a eu – lors de sa séance plénière du 9 février – une démonstration de ChatGPT (1). Depuis, c’était « silence radio ». Jusqu’à cette décision du 31 mars dernier de son homologue italienne, la GPDP, interdisant dans la péninsule le robot conversationnel de la société californienne OpenAI, laquelle a jusqu’au 20 avril pour « se conformer à l’ordonnance, sinon une amende pouvant atteindre 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial total pourra être imposée » (2).
En France, la Cnil est donc sortie de son silence : « Sur les bases d’apprentissage et les IA génératives, l’objectif de la Cnil est de clarifier le cadre légal dans les prochains mois », a-t-elle indiqué le 1er avril à Marc Rees, journaliste juriste à L’Informé. L’autorité française de la protection des données lui a précisé ce jour-là qu’elle « n’a pas reçu de plainte » contre ChatGPT et n’a « pas de procédure similaire en cours » (3). Mais le 5 avril, deux premières plaintes contre OpenAI sont révélées (4). La Cnil dit « s’[être] rapprochée de son homologue italienne afin d’échanger sur les constats qui ont pu être faits ». Elle n’est bien sûr pas la seule, d’autant que toutes les « Cnil » des Vingt-sept sont compétentes pour « instruire » le cas ChatGPT. « OpenAI n’a pas d’établissement dans l’Union européenne ; donc le mécanisme du guichet unique ne lui est pas applicable. Il n’y a de ce fait pas d’autorité cheffe de file », indique à Edition Multimédi@ le Comité européen de la protection des données (EDPB) – réunissant à Bruxelles les « Cnil » des Vingt-sept sous la houlette de la Commission européenne. Il nous a répondu que son programme de travail 2023-2024 prévoit des « lignes directrices sur l’interaction entre le règlement sur l’IA [Artificial Intelligence Act, ndlr] et le RGPD [règlement général sur la protection des données] » (5).
L’AI Act devrait être voté d’ici fin avril par Parlement européen (6), d’après le commissaire européen au Marché intérieur, Thierry Breton, qui est intervenu le 3 avril sur Franceinfo. « Tout ce qui sera généré par l’IA devra obligatoirement être signalé comme étant fait par une intelligence artificielle », a-t-il prévenu. L’Europe, elle, n’a d’ailleurs pas de champion de l’IA générative. Une nouvelle colonisation numérique… @

Après ChatGPT, les robots conversationnels se bousculent sur le marché de l’IA générative

Les chatbots conversationnels se bousculent au portillon, dans le sillage de ChatGPT. La concurrence s’organise sur marché mondial qui annonce des chamboulements colossaux dans les moteurs de recherche sur Internet, encore dominés par Google. Plus pour longtemps.

Après ChatGPT que la start-up américaine OpenAI – dirigée par son cofondateur Sam Altman (photo) – a lancé le 30 novembre 2022 (1) avec un succès médiatique sans précédent, Bard tente de se lancer à sa poursuite après avoir été annoncé le 6 février dernier par Google mais réservé encore quelques semaines à un nombre limité de happy few testeurs (2). Le lendemain, Microsoft – qui a investi des milliards de dollars dans OpenAI – a annoncé la mise en test dans son moteur de recherche Bing (3) du modèle de traitement du langage naturel utilisé par ChatGPT (Generative Pre-trained Transformer). Et ce n’est pas fini.

La bataille des IA génératrices fait rage
Le 24 février, c’est au tour de Meta de lancer son LLaMA – à des fins de tests également (4). Trois jours après, il est question que Elon Musk – lequel a été un des cofondateurs d’OpenAI – se lance lui aussi dans la course à l’IA générative (5). Au même moment, à savoir le 27 février, Snap y va aussi de son robot conversationnel (chatbot) qui répond au nom de « My AI », également disponible à titre expérimental (6). Toutes ces initiatives ne sont que la face émergée de l’intelligence artificielle conjuguée aux traitements de langage naturel et à l’exploitation de mégabases de données, lorsque que l’IA générative n’est pas aussi connectée au Web (7). Il existe bien d’autres IA créatrices, telles que : Dall.E 2, développée par OpenAI, pour créer des images et des œuvres d’art originales et réalistes à partir d’une description textuelle ; Stable Diffusion, développée par Stability AI, en tant que modèle d’apprentissage automatique (deep learning), permettant de générer des images numériques réalistes à partir de descriptions en langage naturel ; Midjourney, développée par le laboratoire de recherche éponyme, aussi une IA générative conçue pour générer des images à partir de texte ; Cedille, un modèle de génération de texte francophone développé par la société suisse Coteries (8).
Pour conforter son avance, OpenAI a lancé le 1er mars une interface de programmation (API) pour faciliter partout l’intégration de ChatGPT et de Whisper (voix à texte). Textes, photos, vidéos, musiques, … Les IA génératrices s’immiscent dans tous les domaines et cela ne date pas d’hier. Par exemple, la nouvelle musique « des Beatles » baptisée « Daddy’s Car » avait fait sensation en septembre 2016 sur YouTube (9). Or, en réalité, ce titre a été composé par l’équipe « Musique et IA » du laboratoire Sony CSL (10). Il a été créé dans le style des Beatles par le scientifique François Pachet et le musicien Benoît Carré akaSkygge (« ombre » en danois) à l’aide de Flow Machines, une IA « mélomane » (11). Avec elle, ils ont créé en 2018 un album intitulé « Hello World ». François Pachet est aujourd’hui directeur chez Spotify en charge du « développement de la prochaine génération d’outils de composition musicale assistée par IA ».
L’industrie musicale va être bousculée, tout comme l’industrie de l’édition (livre et presse). Le cinéma n’y échappera pas non plus (scénarios et séries). Toutes les industries culturelles et créatives seront impactées, avec les questions de droit d’auteur et de propriété intellectuelle que cela soulève. Par exemple, l’agence photo américaine Getty Images (également banque d’images) a annoncé le 17 janvier porter plainte contre Stability AI (l’éditeur de Stable Diffusion) pour lui avoir « illégalement copié et traité des millions d’images protégées par le droit d’auteur et les métadonnées associées » (12). Plus récemment, le 21 février, le Copyright Office américain a conclu que les images de la bande dessinée « Zarya of the Dawn » créées par l’IA Midjourney, ne peuvent pas être protégées par le droit d’auteur (13). Quant aux « deepfake », ces vidéos hyperréalistes truquées à l’IA, elles commencent pour certaines à poser problème (14). La Chine vient de les interdire (15). La justice commence à faire bouger les lignes (16) et l’Union européenne s’apprête à promulguer son règlement « Artificial Intelligence Act » (17) pour réguler les systèmes d’IA « à haut risque ». Cela irait dans le sens de Brad Smith, président de Microsoft, pour qui « une réglementation efficace en matière d’IA devrait être axée sur les applications les plus à risque ».

Aussi pour des entreprises plus « intelligentes »
Il y a encore peu d’études sur cette vague innovante de création automatique de contenus. Le marché mondial de l’IA générative pourrait être multiplié par dix d’ici la décennie en cours, pour dépasser en 2030 les 100 milliards de dollars. « D’ici 2025, nous nous attendons à ce que plus de 30 % – contre zéro aujourd’hui – de nouveaux médicaments et de nouveaux matériaux soient systématiquement découverts à l’aide de techniques d’IA génératives. Et ce n’est là qu’un des nombreux cas d’utilisation par l’industrie », prévoit Brian Burke, vice-président de la recherche en innovation technologique au sein du cabinet d’études Gartner. @

Charles de Laubier

La Chine est le premier pays à s’attaquer aux « deepfake », ces contenus hyper-truqués à l’IA

Depuis le 10 janvier 2023, en Chine, le règlement « Deep Synthesis Provisions » est entré en vigueur pour réguler voire interdire les « deepfake » créés à l’aide de l’intelligence artificielle en détournant textes, images audios et/ou vidéos. Ces créations hyperréalistes prennent de l’ampleur.

Le président ukrainien Volodymyr Zelensky a expliqué l’an dernier dans une vidéo qu’il avait capitulé face aux russes et qu’il appelait les soldats de son pays à déposer les armes (1). L’acteur américain Morgan Freeman s’est exprimé en 2021 sur la chaîne YouTube néerlandaise Diep Nep pour dire : « Je ne suis pas Morgan Freeman. Ce que vous voyez n’est pas réel » (2). Car ces vidéos et de nombreuses autres postées sur les réseaux sociaux – lorsque ce ne sont pas des textes, des images ou des podcasts – sont des « deepfake », des contenus entièrement manipulés et détournés à l’aide de l’intelligence artificielle (IA) et l’apprentissage machine (AM).

La Chine devance les USA et l’UE
Le résultat est vraisemblable et bluffant. L’année 2023 pourrait être celle de l’explosion de ces vidéos truquées hyperréalistes. Les Etats-Unis ont commencé à légiférer par endroits (Californie, New York, Virginie, Texas) contre les abus des deepfakes – nom composé de deep learning et de fake news. Le Parlement européen devrait bientôt examiner en séance publique la proposition de règlement « Artificial Intelligence Act » (3) mise sur les rails il y a vingt mois (4). Mais c’est la Chine qui vient de devancer l’Occident en faisant entrer en vigueur le 10 janvier 2023 un règlement applicable à l’ensemble de l’Empire du Milieu.
Le texte composé de 25 articles est surnommé le « Deep Synthesis Provisions » (5) et s’applique désormais à toute la filière des fournisseurs de « synthèse profonde » (deepfake). Son entrée en vigueur est l’aboutissement d’un processus qui avait commencé après un discours du président Xi Jinping (photo) devant le Politburo en octobre 2021 où il mettait en garde contre « les symptômes malsains et incontrôlés » de l’économie numérique. C’est le Cyberespace Administration of China (CAC), en cheville avec les ministères de l’Industrie et des Technologies de l’information (MIIT) et de la Sécurité publique (MPS), qui a été à la manoeuvre. Le CAC a été chargé d’élaborer ce règlement « Deep Synthesis Provisions », dont la première version a été publiée il y a un an (fin janvier 2022) à l’occasion d’une consultation publique d’un mois. La version finale a été publiée fin novembre dernier. « Les services qui offrent un dialogue intelligent, des voix synthétisées, la génération de visages, des scénarios de simulation immersive, etc., pour générer ou modifier considérablement la fonction du contenu d’information, devraient être marqués de façon significative pour éviter la confusion ou l’identification erronée du public. », explique le CAC dans un communiqué du 11 décembre (6). La Chine définit la technologie de synthèse profonde comme celle qui utilise l’apprentissage profond (deep learning), la réalité virtuelle et d’autres algorithmes synthétiques pour produire du texte, des images, de l’audio, de la vidéo, des scènes virtuelles ou en 3D, et d’autres informations réseau. Les fournisseurs de services de synthèse approfondie sont tenus de désigner les entreprises qui offrent des services, logiciels et supports techniques. La responsabilité incombe aux prestataires de services de synthèse profonde en matière de sécurité des données et de protection des informations personnelles, de transparence (notamment en établissant des lignes directrices, des critères et des processus pour reconnaître les informations fausses ou préjudiciables), et de gestion de contenu et étiquetage (étiquettes ou logos).
Les dispositions du règlement « Deep Synthesis Provisions » s’appuient sur un règlement « Online Audio and Video Information Services » (7) de 2019 qui interdit sur Internet l’utilisation de photos, d’audios et de vidéos générés par ordinateur pour produire ou diffuser des fausses nouvelles. Mais comme dans le reste du monde, il sera difficile de faire la part des choses, entre fake news et parodie. La censure chinoise ajoute une corde à son arc.
Quoi qu’il en soit, Pékin prend très au sérieux la menace des deepfakes, y compris des algorithmes (8), à l’heure où la bataille commerciale exacerbée avec Washington fait rage sur fond de guerre en Ukraine déclenchée par sa voisine et amie la Russie.

La notion de « contenus illicites » du DSA
En attendant l’adoption du règlement « Artificial Intelligence Act », l’Europe s’est dotée du Digital Services Act (DSA) qui entre en vigueur en 2023. Il prévoit notamment que les plateformes numériques « lutte[nt] contre la diffusion de contenus illicites en ligne et contre les risques, pour la société, de diffusion d’informations trompeuses » (considérant 9), la notion (vague ?) de « contenus illicites » étant mentionnée dans au moins huit articles du DSA (9) – mais sans qu’il y soit question explicitement de deepfake. Avec son « Deep Synthesis Provisions », la Chine a pris de l’avance et pourrait être suivie par d’autres pays autoritaires. @

Charles de Laubier