Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ».

Des œuvres utilisées comme inputs
Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur.

Un an après avoir lancé ChatGPT, aux airs de « Google-killer », OpenAI prépare un « smartphone-killer »

La start-up californienne OpenAI, cofondée par son actuel DG Sam Altman et devenue licorne valorisée presque 100 milliards de dollars, défraie la chronique depuis le lancement de ChatGPT il y a un an. Après avoir déstabilisé Google, elle veut lancer un petit terminal « smartphone-killer » boosté à l’IA.

(Vendredi 17 novembre 2023 au soir, heure de Paris, soit peu après le bouclage du n°310 de Edition Multimédi@ faisant sa Une sur OpenAI et Sam Altman, nous apprenions le limogeage surprise de ce dernier par son conseil d’administration. Vingt-quatre heure après, OpenAI revenait sur sa décision… Après avoir hésité à rejoindre Microsoft prêt à l’embaucher, Sam Altman a finalement trouvé le 22 novembre un accord avec OpenAI – avec le soutien du bailleur de fonds Microsoft – pour finalement y retourner !)

Google et Apple pourraient bien être les prochaines victimes collatérales d’OpenAI. Car la licorne à l’origine de l’IA générative ChatGPT, lancée il y a un an presque jour pour jour, accélère son offensive technologique. D’une part, elle a organisé le 6 novembre sa toute première conférence des développeurs, OpenAI DevDay, où ont notamment été lancés un « GPT-4 Turbo » et des interfaces de programmation (API) pour créer des agents conversationnels personnalisés intégrables dans des applications ou pour développer son propre « ChatGPT » autonome sans codage (1).
En mettant le turbo, OpenAI veut faire une super-IA tout-en-un capable de générer par elle-même aussi bien du texte et des images, mais aussi de l’audio et de la vidéo. Le 9 novembre, un programme open source baptisé « OpenAI Data Partnerships » (2) a même été lancé pour exploiter tous azimuts des données publiques et privées afin de former encore plus largement les IA génératives. Ce qui positionne la future plateforme IA intégrée d’OpenAI comme un potentiel « Google-killer ». D’autre part, son PDG cofondateur Sam Altman (photo) avait confirmé dès fin septembre être en « discussions avancées » avec l’ancien designer de l’iPhone chez Apple, l’Américano-britannique Jony Ive, et le PDG fondateur du conglomérat Softbank, le Japonais Masayoshi Son, autour d’un projet de lancement d’un terminal à intelligence artificielle susceptible de remplacer à terme les smartphones (3).

Un trio de rêve : OpenAI-Softbank-LoveFrom
Parallèlement, mais sans lien a priori avec ce projet d’appareil, Sam Altman a dit le 13 novembre au Financial Time qu’il demandait à Microsoft des fonds supplémentaires, en plus des 10 milliards de dollars déjà accordés sur plusieurs années par ce dernier, afin de rendre l’IA encore plus intelligente – vers le futur ChatGPT-5 et au-delà (4). Il faudra en tout cas attendre de nombreux mois avant que ne voit le jour le terminal IA grand public rêvé par OpenAI, LoveFrom (société de design créée en 2019 par Jony Ive (5) qui a recruté d’anciens collègues d’Apple comme Marc Newson) et Softbank, dont la filiale britannique ARM pourrait produire les puces.

IA générative : le prompt engineering va révolutionner la presse en éditant des journaux sur mesure

L’ingénierie rapide – prompt engineering – s’apprête à révolutionner le monde des médias en général et de la presse en particulier. Ce processus puissant utilisé par les IA génératives va permettre à un lecteur de créer son journal sur mesure, en fonction de ses préférences et centres d’intérêt.

Attention : tsunami en vue pour la presse. Les IA génératives s’apprêtent à prendre des airs de rédacteur-en-chef et de chef d’édition. Grâce à la puissance du prompt engineering, les «ChatGPT» vont permettre potentiellement à chaque lecteur de pouvoir générer sur mesure son propre journal d’actualités en fonction de ses critères et ses thèmes préférés. De quoi court-circuiter les médias traditionnels encore attachés à l’« œuvre collective » qu’est un journal écrit par des journalistes.

Un journal personnalisé en 10 mn chrono
Lors d’un meetup organisé fin septembre par Comptoir IA, deux jeunes frères (1) ont fait frémir des dirigeants de médias traditionnels et des éditeurs de presse qui ont assisté à leurs dix minutes de démonstration. Thibaut et Pierre de La Grand’rive (photos) ont créé cet été leur société, Delos Intelligence, présentée comme une « agence de service et de conseil informatique spécialisée dans l’IA générative ». Respectivement président et directeur général, Thibaut (24 ans) et Pierre (26 ans) ont présenté leur projet qui pourrait disrupter le monde des journaux et du journalisme.
« Après le lancement de ChatGPT, nous nous sommes lancés dans le projet “Autonews”, qui s’appelait à l’origine “Newstaylor”. Il s’agit d’un journal complètement automatique. Il a fallu pour cela s’approprier l’ingénierie du prompt ou prompt engineering. Et avec cette idée que, demain, le média serait probablement individuel, individualisé. Ou en tout cas que l’on tendrait vers ça. Et demain peut-être auronsnous chacun nos propres articles en fonction de nos demandes ou de nos préférences », a expliqué Pierre de La Grand’rive. Prompt engineering, quèsaco ?

Tout en restant hyperlocal face aux GAFAM, Ouest-France veut devenir un média national

Toujours premier quotidien papier en France, Ouest-France – qui fêtera ses 80 ans l’an prochain – est aussi la première plateforme numérique média. Son indépendance est assurée depuis 33 ans, mais ses défis à relever se multiplient : maintenir sa rentabilité, se développer au niveau national, faire face aux GAFAM et à l’IA.

« On est confronté à la pression du marché. Après les GAFAM qui se sont mis dans notre nid par la stratégie du coucou, il y a l’IA. Comment tracer [identifier, ndlr] ce qui est produit par de l’intelligence artificielle ? Comment relever le défi du droit d’auteur qui va être un chantier majeur. Il y a aussi un défi de la vitesse : l’IA va accélérer la machine. Avec les réseaux sociaux, on a eu une industrialisation de la distribution. Avec l’IA, on va avoir une industrialisation des contenus », a expliqué David Guiraud (photo) devant l’Association des journalistes médias (AJM) le 5 octobre dernier à Paris. Depuis près de dix ans, il est président du conseil de surveillance de la société Ouest-France, et a été élu en 2020 président de l’Association pour le soutien des principes de la démocratie humaniste (ASPDH), laquelle contrôle la holding Sipa (Société d’investissements participations) – communément appelée Sipa Ouest-France. « On se retrouve déjà avec un flot de contenus et face à une concurrence énorme. Par exemple, le projet “Autonews” (1) propose avec de l’IA de générer rapidement un journal sur mesure selon différentes options (actualités, tons d’écritures, images, …). Le risque est que l’on soit pris dans cet sorte de tsunami qui nous empêche de faire notre travail », s’inquiète celui qui a dirigé les groupes Le Monde (2008-2011) et Les Echos (1994-2008).

L’ASPDH, l’antidote aux « médias anti-sociaux »
David Guiraud (68 ans) va même plus loin dans son diagnostic : « La tension est très forte dans notre métier face à ce que j’appelle les médias anti-sociaux que sont les plateformes – Facebook et autres – qui créent cette dépendance addictive et qui ont hacké le cerveau des gens. Faut lire l’”Apocalypse cognitive” (2) : on comprend ce qui se passe ; c’est ça le sujet. A l’ASPDH, on réfléchit à comment continuer à faire un journal profitable, de qualité, face à ce monde là ».

ChatGPT, Midjourney, Flow Machines, … : quel droit d’auteur sur les créations des IA génératives ?

Face à la déferlante des IA créatives et génératives, le droit d’auteurs est quelque peu déstabilisé sur ses bases traditionnelles. La qualification d’« œuvre de l’esprit » bute sur ces robots déshumanisés. Le code de la propriété intellectuelle risque d’en perdre son latin, sauf à le réécrire. Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés L’utilisation de l’intelligence artificielle (IA) par les entreprises, notamment en communication, est de plus en plus répandue. Des logiciels tels que Stable Diffusion, Midjourney, Craiyon, ou encore Dall·E 2 permettent de créer des images à partir d’instructions en langage naturel (le « text-to-image »). Il est également possible de créer du texte avec des outils tels que le robot conversationnel ChatGPT lancé en novembre 2022 par OpenAI (1), voire de la musique avec Flow Machines de Sony (2). Flou artistique sur le droit d’auteur Les usages sont assez variés : illustration d’un journal, création d’une marque, textes pour un site Internet, un support publicitaire ou pour un post sur les réseaux sociaux, création musicale, publication d’une œuvre littéraire complexe, …, et bientôt produire des films. Les artistes s’en sont emparés pour développer une forme d’art appelé « art IA », « prompt art » ou encore « GANisme » (3). Et, parfois, les artistes transforment les résultats obtenus en NFT (4), ces jetons non-fongibles authentifiant sur une blockchain (chaîne de blocs) un actif numérique unique. Pour produire un texte, une image ou une musique sur commande, le logiciel a besoin d’être nourri en textes, images ou musiques préexistantes et en métadonnées sur ces contenus (« deep learning »). Plus le logiciel dispose d’informations fiables, plus le résultat sera probant. Comme toute nouveauté technologique, l’utilisation de ces logiciels soulève de nombreuses questions juridiques. La question centrale en matière de propriété intellectuelle est de savoir à qui appartiennent les droits – s’ils existent – sur les contenus générés par l’IA ? En droit français, une œuvre est protégeable si elle est originale. L’originalité est définie comme révélant l’empreinte de la personnalité de l’auteur, qui ne peut être qu’un être humain. Il faut donc déterminer qui est l’auteur, ou qui sont les auteurs d’une image, d’un texte ou d’une musique créés via une instruction donnée à un logiciel. Il faut aussi déterminer qui peut en être titulaire des droits. Il pourrait s’agir des auteurs des œuvres préexistantes, de nous-mêmes lorsque nous avons donné une instruction au logiciel, ou encore de l’auteur du logiciel (par exemple la société Stability AI qui développe Stable Diffusion). Les entités exploitant ces logiciels contribuent au processus permettant d’obtenir des textes, images ou des musiques inédites, dans la mesure où ce sont ces générateurs de contenus qui proposent un résultat comprenant un ensemble de choix plutôt qu’un autre. Ainsi, c’est la part d’« autonomie » des logiciels d’IA qui jette le trouble dans la conception traditionnelle du droit d’auteur. Un tribunal de Shenzhen (Chine) avait jugé en 2019 qu’un article financier écrit par Dreamwriter (IA mise au point par Tencent en 2015) avait été reproduit sans autorisation, reconnaissant ainsi que la création d’une IA pouvait bénéficier du droit d’auteur. Néanmoins, la contribution du logiciel se fait de manière automatisée et, à notre sens, l’usage technique d’un logiciel pour créer une image, un texte ou une musique ne donne pas au propriétaire du logiciel de droits sur l’image, sur le texte ou la musique : en l’absence d’une intervention humaine sur le choix des couleurs, des formes ou des sons, aucun droit d’auteur ou de coauteur ne peut être revendiqué au nom du logiciel. Le 21 février 2023, aux Etats-Unis, l’Office du Copyright a décidé que des images de bande dessinée créées par l’IA Midjourney ne pouvaient pas être protégées par le droit d’auteur (5). Les conditions d’utilisation de ces générateurs de textes, d’images ou de musiques peuvent le confirmer. Dans le cas de Dall·E 2, les « Terms of use » prévoient expressément que OpenAI transfère à l’utilisateur tous les droits sur les textes et les images obtenus, et demande même que le contenu ainsi généré soit attribué à la personne qui l’a « créé » ou à sa société. Stability AI octroie une licence de droits d’auteur perpétuelle, mondiale, non exclusive, gratuite, libre de redevances et irrévocable pour tous types d’usage de Stable Diffusion, y compris commercial. Mais en l’absence, selon nous, de tout droit transférable, ces dispositions semblent constituer de simples précautions. Droits de la personne utilisant le logiciel Il est donc essentiel, pour toute personne qui souhaite utiliser, à titre commercial ou non, les contenus créés via des outils d’IA, générative ou créative, de vérifier si la société exploitant le site en ligne où il les crée lui en donne les droits et à quelles conditions. Dès lors que l’apport créatif de la personne qui donne les instructions au générateur d’images, de textes ou de musique est limité à la production d’une idée mise en œuvre par le logiciel, et que les idées ne sont pas protégeables par le droit d’auteur, il est douteux qu’un tribunal reconnaisse la qualité d’auteur à cette personne. Puisque l’utilisateur du logiciel ne conçoit pas mentalement, à l’avance, le contenu obtenu, il est difficile d’avancer que ce contenu porte « l’empreinte de sa personnalité ». Mais surtout, on pourrait aller jusqu’à dénier la qualification d’œuvre de l’esprit aux images, textes ou musiques créés par l’IA. En effet, le code de la propriété intellectuelle (CPI) n’accorde la protection du droit d’auteur qu’à des « œuvres de l’esprit » créées par des humains. « Œuvre de l’esprit » inhérente à l’humain Faute d’action positive créatrice de la part d’un humain, on pourrait avancer qu’aucun « esprit » n’est mobilisé, donc qu’aucune « œuvre de l’esprit »protégeable par le droit d’auteur n’est créée. S’ils ne sont pas des « œuvres de l’esprit », les contenus ainsi créés seraient alors des biens immatériels de droit commun. Ils sont appropriables non pas par le droit d’auteur (6) mais par la possession (7) ou par le contrat (conditions générales octroyant la propriété à l’utilisateur). Il s’agit alors de créations libres de droit, appartenant au domaine public. Cela fait écho à d’autres types d’« œuvres » sans auteur comme les peintures du chimpanzé Congo ou les célèbres selfies pris en 2008 par un singe macaque. Sur ce dernier exemple, les juridictions américaines avaient décidé que l’autoportrait réalisé par un singe n’était pas une œuvre protégeable puisqu’il n’a pas été créé par un humain, sujet de droits. En revanche, dès lors que le résultat obtenu est retravaillé et qu’un apport personnel formel transforme ce résultat, la qualification d’« œuvre de l’esprit » peut être retenue, mais uniquement en raison de la modification originale apportée au résultat produit par le logiciel. Ce cas de figure est d’ailleurs prévu dans la « Sharing & Publication Policy » de Dall·E 2 qui demande à ses utilisateurs modifiant les résultats obtenus de ne pas les présenter comme ayant été entièrement produits par le logiciel ou entièrement produits par un être humain, ce qui est davantage une règle éthique, de transparence, qu’une exigence juridique. En droit français, une œuvre nouvelle qui incorpore une œuvre préexistante sans la participation de son auteur est dite « composite » (8). Si les œuvres préexistantes sont dans le domaine public, leur libre utilisation est permise (sous réserve de l’éventuelle opposition du droit moral par les ayants droit). En revanche, incorporer sans autorisation une œuvre préexistante toujours protégée constitue un acte de contrefaçon. Si, par exemple, on donne l’instruction « Guernica de Picasso en couleurs », on obtiendra une image qui intègre et modifie une œuvre préexistante. Or les œuvres de Picasso ne sont pas dans le domaine public et les ayants droit doivent pouvoir autoriser ou interdire non seulement l’exploitation de l’image obtenue et en demander la destruction, mais peutêtre aussi interdire ou autoriser l’usage des œuvres de Picasso par le logiciel. La production et la publication par un utilisateur d’un « Guernica en couleurs » pourraient donc constituer une contrefaçon ; mais l’intégration de Guernica dans la base de données du logiciel (deep learning) pourrait à elle seule constituer également un acte contrefaisant (9). En effet, le CPI sanctionne le fait « d’éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public non autorisée d’œuvres ou d’objets protégés » (10). Le caractère « manifeste » de la mise à disposition, et la qualification de « mise à disposition » elle-même pourraient être discutés. Mais c’est surtout la directive européenne « Copyright » de 2019 (11) qui pourrait venir en aide aux exploitants d’IA génératrices de contenus en offrant une sécurisation de leur usage d’œuvres préexistantes protégées. Elle encadre l’exploitation à toutes fins, y compris commerciales, d’œuvres protégées pour en extraire des informations, notamment dans le cas des générateurs de textes, d’images ou de musiques. Elle prévoit également une possibilité pour les titulaires de droits sur ces œuvres d’en autoriser ou interdire l’usage, hors finalités académiques. Une telle autorisation peut difficilement être préalable et les exploitants, OpenAI par exemple, mettent donc en place des procédures de signalement de création de contenu contrefaisant (12). Le site Haveibeentrained.com propose, quant à lui, de vérifier si une image a été fournie comme input à des générateurs d’images et de signaler son souhait de retirer l’œuvre de la base de données. Mais les artistes se plaignent déjà de la complexité qu’il y a à obtenir un tel retrait (13). On le voit, l’irruption des créations de l’IA perturbe le droit de la propriété intellectuelle, dont les outils actuels sont insuffisants pour répondre aux questionnements suscités. On peut imaginer que l’IA permettra un jour de produire de « fausses » sculptures de Camille Claudel, en s’adjoignant la technologie de l’impression 3D, ou encore de faire écrire à Rimbaud ou à Mozart des poèmes et des symphonies d’un niveau artistique équivalent – voire supérieur ! – qu’ils auraient pu écrire et jouer s’ils n’étaient pas morts si jeunes. La question de l’imitation du style d’auteurs encore vivant n’est d’ailleurs pas sans soulever d’autres débats. Risque de déshumanisation de la création Un avenir possible de l’art pourrait être dans la déshumanisation de la création, ce qui non seulement rendrait indispensable une refonte du premier livre du CPI, sous l’impulsion du règlement européen « AI Act » en discussion (14), mais susciterait en outre des questionnements éthiques. Si le public prend autant de plaisir à lire un roman écrit par une machine ou à admirer une exposition d’œuvres picturales créées par un logiciel, voire à écouter une musique composée et jouée par l’IA, les professions artistiques survivront-elles à cette concurrence ? @