« Résumé suffisamment détaillé » : 2025 sera l’année de vérité dans la mise en œuvre de l’AI Act

Le rapport du CSPLA sur la mise en œuvre du règlement européen établissant des règles harmonisées sur l’IA fournit les ingrédients mais… pas la recette ! Le Bureau européen de l’IA, créé par l’AI Act, doit publier prochainement un « modèle européen » à suivre par les Vingt-sept.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

Le rapport « IA et Transparence des données d’entraînement » (1), publié le 11 décembre 2024 par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), s’inscrit dans la préparation de la mise en œuvre du règlement européen sur l’intelligence artificielle (AI Act) et a pour objectif de clarifier l’interprétation et la portée des dispositions imposant un modèle de « résumé suffisamment détaillé » (2). Ce modèle sera présenté au nom de la France dans le cadre du processus d’adoption d’un modèle européen par le Bureau européen de l’IA (AI Office), autorité créée par l’AI Act et chargée d’accompagner les fournisseurs d’IA dans leur mise en conformité. La publication du modèle européen est attendue pour janvier 2025.

Transparence des données d’entraînement
La collecte de données de qualité, notamment de données culturelles, est d’une importance stratégique pour les fournisseurs d’IA, puisque les systèmes d’IA ont besoin d’ingurgiter de grandes quantités de données, leur servant de modèles dans leurs productions. Or, des données contenant des créations protégées par un droit de propriété intellectuelle peuvent avoir été obtenues sans autorisation ou sans tenir compte d’un « opt-out », et avoir été effectivement exploitées. Il en va de même concernant des données personnelles (posts Facebook, Instagram, …) potentiellement utilisées pour l’entraînement de modèles d’IA. L’enjeu est alors d’avoir accès à l’information sur les données d’entraînement utilisées par une IA, pour bien des raisons et notamment ouvrir une visibilité aux ayants droits dont des données et/ou créations auraient été mobilisées, quelles qu’en soient les modalités.
Pour ce faire, les fournisseurs d’IA sont désormais soumis à une obligation de transparence qui se concrétise par la mise en place d’une politique de conformité, ainsi que par la mise à disposition au public d’un « résumé suffisamment détaillé » (sufficiently detailed summary) des contenus utilisés pour l’entraînement du modèle d’IA. Ce résumé permet le développement d’une IA de confiance souhaitée au niveau européen (3), en remédiant aux difficultés rencontrées par les titulaires de droits, confrontés à une charge de la preuve disproportionnée concernant l’utilisation de leurs contenus. Pour autant, le résumé doit répondre aux enjeux de la création d’un marché dynamique et équitable de l’IA. Ce qui impose un compromis pour restreindre la quantité d’informations mise à disposition afin de protéger le secret des affaires, moteur d’innovation pour les fournisseurs d’intelligence artificielle. (suite)

La Commission européenne veut contrôler l’AI Office

En fait. Alors que le 30 septembre, la Commission européenne a tenu sa première séance plénière – sur fond de désaccords – sur le « code de bonnes pratiques pour les IA à usage général » (comme ChatGPT ou Mistral), elle cherche son « conseiller scientifique principal » qui sera indépendant de l’AI Office.

En clair. La Commission européenne – via sa DG Connect (alias Cnect) – cherche à recruter son « conseiller scientifique principal » (1) qui sera chargé des dossiers de l’IA, tout en étant indépendant du bureau européen de l’intelligence artificielle (AI Office), lequel comptera 140 salariés. Mais en recherchant en interne, c’est-à-dire au sein des institutions et agences européennes, comme l’ENISA (2), la Commission européenne s’est attirée des critiques. Car cette démarche exclurait la candidature de scientifiques de haut niveau venus de l’extérieur, reconnus internationalement en IA.
De plus, cela montre que la Commission européenne veut garder la main sur l’AI Office. Le Centre international pour les générations futures (ICFG) met en garde : « Le rôle ne peut être correctement rempli que par un scientifique de premier plan. Le conseiller [scientifique principal] aura une forte influence sur les décisions d’embauche et opérationnelles au bureau [de l’IA]. Sans un dirigeant qualifié, l’[AI] Office aura du mal à attirer les talents scientifiques et techniques nécessaires pour remplir sa mission de façonner la gouvernance de l’IA en Europe », écrit-il dans une tribune publiée sur Euractiv (3). Si la Commission européenne souhaite embaucher un candidat hautement qualifié pour ce poste-clé, encore faudrait-il que la DG Connect lance un appel à candidatures pour des scientifiques de classe mondiale puissent postuler. Car, selon l’ICFG, un fonctionnaire interne à l’UE risque de ne pas être à la hauteur. Surtout que l’AI Office a la lourde tâche de dire si tel ou tel modèle d’intelligence artificielle à usage général – ou GPAI (4) – présente des risques systémiques.