A l’ère de l’IA et de la data, la gestion collective des droits d’auteur veut devenir plus « intelligente »

Le 26 juin, lors de l’AG de la SCPP, organisme de gestion collective des droits des producteurs de musique, a été adopté le projet d’une filiale commune avec l’Adami (artistes et interprètes). Objectif : faire « données communes », notamment face à l’IA. La SPPF veut aussi les rejoindre.

Voilà qui devrait aller dans le sens de la Cour des comptes : un mouvement de rapprochement en France entre les organismes de gestion collective (OGC) des droits d’auteur et des droits voisins. Cette mise en commun concerne d’abord leurs systèmes d’information pour mieux moderniser leur « Big Data » et se mettre en ordre de bataille face à la déferlante de l’intelligence artificielle. Les magistrats du palais de Cambon, présidés par Pierre Moscovici (photo), ne cesse de prôner un tel rapprochement dans le rapport annuel de la commission de contrôle des OGC.

Rationaliser en faisant « Big Data » commun
Lors de l’assemblée générale annuelle de la Société civile des producteurs phonographiques (SCPP), le 26 juin, une résolution validant la création d’une « filiale commune paritaire » avec l’Adami (Administration des droits des artistes et musiciens interprètes) a été adoptée. Le premier OGC collecte et répartit les droits d’auteur gérés collectivement pour le compte des producteurs de musiques enregistrées, dont les trois majors que sont Universal Music, Sony Music et Warner Music. Le second OGC collecte et répartit les droits d’auteurs pour le compte des artistes interprètes de la musique et de l’audiovisuel.
La SCPP est le bras armé financier du Syndicat national de l’édition phonographique (Snep) et compte plus de 4.500 producteurs de musique membres, tandis que l’Adami est au service de près de 100.000 artistes-interprètes. Improbable par le passé, ce rapprochement entre les deux organismes a été annoncé le 27 mai dernier (1) et va se concrétiser par « une mise en commun, à travers la création d’une filiale commune et paritaire, de leurs bases de données respectives et de leurs outils de répartition pour les droits à rémunération que sont la rémunération pour copie privée et la rémunération équitable ». Une étude de faisabilité est en train d’être menée pour savoir comment sera mise en œuvre opérationnelle cette répartition, et pour adopter des règles communes d’affectation « par phonogramme » – comprenez par musique enregistrée où le streaming domine désormais.

Entraînement de modèles d’IA grâce aux données collectées par web scraping : les règles à suivre

Les plaintes à l’encontre de fournisseurs de systèmes d’IA se multiplient, que ce soit pour violation des droits de propriété intellectuelle ou pour manquements en matière de données à caractère personnel, notamment en lien avec leurs pratiques de collecte de données en ligne (web scraping).

Par Sandra Tubert et Laura Ziegler avocates associées, Algo Avocats

Afin de développer un système d’intelligence artificielle (IA) performant, il est nécessaire d’entraîner en amont les modèles qui le composent au moyen de vastes ensemble de données. Constituer ces ensembles de données d’entraînement représente donc un enjeu majeur pour les fournisseurs de systèmes d’IA. Plusieurs alternatives s’offrent à eux : utiliser les bases de données dont ils disposent en interne ; obtenir des licences auprès de titulaires de droits de propriété intellectuelle sur des contenus pertinents ; ou recourir au web scraping pour récupérer des données accessibles en ligne sur différents sites Internet.

Exception de Text and Data Mining
Cette troisième option, le web scraping (« moissonnage des données »), a connu un essor important ces dernières années. Pour autant, bon nombre d’acteurs récupèrent des données en ligne pour entraîner leurs modèles sans appréhender tous les enjeux et problématiques qui y sont attachés. Alors que plusieurs plaintes ou enquêtes d’autorités visent des fournisseurs de modèles d’IA à usage général pour des allégations de violation des droits de propriété intellectuelle ou de manquements au règlement général sur la protection des données (RGPD), l’entrée en vigueur prochaine du règlement européen sur l’intelligence artificielle – l’AI Act dont le texte final (1) a été signé le 13 juin 2024 – pourrait mettre en évidence les problématiques entourant les sources de données utilisées pour entraîner les modèles.

La France revoit sa stratégie numérique culturelle

En fait. Le 11 juin, le ministère de la Culture a publié le bilan complet de sa démarche de « stratégie numérique culturelle » qui a duré deux ans (consultation publique et groupes de travail). Son « service du numérique » a identifié les défis à relever et un plan d’action alliant culture et numérique.

En clair. Le ministère de la Culture, passé en janvier 2024 sous la coupe de Rachida Dati (1), cherche à mettre en œuvre une nouvelle « politique culturelle » en tenant compte de l’« explosion des pratiques numériques », de la « transformation des formes de création », du « bouleversement des circuits de distribution », de la « modification des modèles économiques » ou encore des « difficultés à assurer un partage équitable de la valeur ». Par exemple, « les débats actuels autour des NFT, des technologies immersives et de l’intelligence artificielle montrent à quel point les nouveaux usages numériques interrogent ». C’est dans cet esprit que le rapport de la rue de Valois sur la « stratégie numérique culturelle » à mettre en œuvre a été publié le 13 juin dernier.
Ce document de 32 pages (2) assorti de huit fiches (3) pour un « plan d’actions » à mener (ou à poursuivre) d’ici fin 2024 et courant 2025, voire en 2026, a été élaboré durant deux ans par le « service numérique » (SNum) du ministère de la Culture. Ce SNum a été créé par un arrêté du 31 décembre 2020 (4) et, opérationnel depuis début 2021, est dirigé par depuis lors par Romain Delassus. En tant que « chef du SNum », il a tenu à souligner que « loin de vouloir construire un jardin à la française, ou de se positionner en donneur d’ordre vis-à-vis de l’écosystème culturel, l’objectif de cette démarche est au contraire de responsabiliser et d’aider chaque équipe et chaque établissement dans la construction de sa propre stratégie numérique ».

Robots, crawlers, IA, … levée de boucliers en ligne

En fait. Le 18 juin, la société Clipeum a annoncé avoir le premier quotidien régional Ouest-France comme nouveau client de son outil Botscorner qui permet d’identifier robots, crawlers et IA génératives pour les faire payer. Selon nos informations, le CFC n’y fait plus appel, lui préférant Human Security.

En clair. Après avoir annoncé le 23 mai la signature avec Le Monde pour l’utilisation de son outils Botscorner destiné à repérer et à cartographier les robots de crawling (aspirateurs de sites web destinés à exploiter leurs contenus), la société Clipeum – dont le nom veut dire « bouclier » en latin – a annoncé le 18 juin un nouvel accord avec, cette fois, Ouest-France. Ces deux nouveaux clients rejoignent ainsi les nombreux éditeurs de presse en ligne en France – Le Figaro, Le Parisien, L’Equipe, Le Point, Challenges, L’Usine nouvelle, Libération ou encore L’Express – qui ont opté pour ce type de solutions – Botscorner, DataDome, Human Security (ex-White Ops), … – capables d’analyser le trafic entrant et d’identifier les robots (bots) absorbant leurs articles.
Selon les informations de Edition Multimédi@, le Centre français d’exploitation du droit de copie (CFC), qui a lancé en 2018 son « outil de régulation des robots de crawling » (ORRC), ne s’appuie plus sur Botscorner depuis fin 2023 mais sur Human Security, une société newyorkaise. Objectif pour l’éditeur de presse en ligne : analyser les logs des bots et crawlers arrivant sur leurs sites web et proposer des licences d’autorisation rémunératrices aux sociétés qui activent ces robots de crawling.

Elections européennes : le numérique au programme

En fait. Le dimanche 9 juin, les Français élisent leurs 81 députés européens (dès le 8 juin pour certains territoires ultra-marins et Français de l’étranger). Il n’y a pas moins de 38 listes pour ces élections européennes. Edition Multimédi@ a sélectionné quelques mesures-phare pour le numérique, dont l’IA.

En clair. Nous nous sommes concentrés sur le « Top 5 » des listes arrivant en tête des sondages (1), en allant de la cinquième position à la première (2).
« Europe écologie » (Marie Toussaint) : « Lancer un Digital Green and Social Deal qui place les technologies numériques au service de la réalisation d’une vie décente pour tous·tes dans les limites de la planète » ; « Passer une nouvelle étape dans la réglementation des cryptomonnaies » ; « Encadrer les consommations des datacenters sur le sol européen » ; « Briser le monopole des GAFAM en Europe en garantissant l’interopérabilité des services numériques » ; « Taxer les GAFAM ».
« La France insoumise » (Manon Aubry) : « Réglementer les IA » ; « Garantir un euro numérique 100 % public » ; « Reprendre le contrôle sur les multinationales du numérique » ; « Inscrire la neutralité du Net dans la Charte des droits fondamentaux de l’Union européenne » ; « Renforcer la réglementation sur l’IA, en interdisant les identifications biométriques et les technologies répressives » ; « Encadrer l’usage de l’IA dans les secteurs culturels et créatifs notamment par la transparence des algorithmes » ; « Réguler les “coffres à butin” (loot box) en jeux d’argent ».