Community notes ou fact-checking : aucun des deux ?

En fait. Le 7 janvier, le patron de Meta, Mark Zuckerberg, a publié une vidéo dans laquelle il annonce que « nous allons nous débarrasser des fact-checkers et les remplacer par les community notes ». Depuis, polémiques et débats se sont enflammés dans le public et chez les politiques autour de la désinformation.

En clair. Facebook, Instagram et Threads, les trois médias sociaux du groupe Meta, suppriment les fact-checkers. Il s’agissait le plus souvent d’organisations tierces, soit plus de 80 extérieures au groupe de Mark Zuckerberg, chargées de vérifier les informations et les faits circulant sur les réseaux sociaux. En France, l’Agence France-Presse (AFP Factuel), Le Monde (Les Décodeurs), France 24 (Les Observateurs) ou encore 20 Minutes (Fake Off) en font partie.
Ces intermédiaires de la chasse à la désinformation sont certifiés « Poynter-IFCN », un label délivré par l’International Factchecking Network, un réseau créé il y a dix ans par l’école américaine de journalisme Poynter. Son fondateur Nelson Poynter (1903-1978), qui fut patron de presse en Floride, était plutôt démocrate et libéral (1). Autant dire que chaque média faisant office de fact-checker a sa propre sensibilité politique qui peut éventuellement l’amener à apporter un « biais » dans l’identification des faits qu’il considère comme « faux », « trompeurs » ou relevant de la « désinformation ». Au risque de passer pour des censeurs, les fact-checkers vérifient les informations et signalent les contenus « problématiques », mais ils ne les suppriment pas – l’algorithme de la plateforme s’en charge en les faisant moins apparaître ou… disparaître. Pour Meta, c’est ce système qui pose problème : « Trop de contenus inoffensifs sont censurés, trop de gens se retrouvent enfermés à tort dans la “prison Facebook”, et nous sommes souvent trop lents pour répondre quand ils le font. Nous voulons corriger cette situation et revenir à cet engagement fondamental envers la liberté d’expression », dit en substance Mark Zuckerberg (2). (suite)

La bataille des IA génératives d’images et de vidéos s’exacerbe, avec les Etats-Unis en force

Après deux ans de bataille des IA génératives textuelles, déclenchée fin novembre 2022 par ChatGPT d’OpenAI, l’année 2025 s’annonce comme celle des IA génératives d’images et de vidéos. Edition Multimédi@ passe en revue une sélection de concurrents, tous d’origine américaine. Mais les chinois sont en embuscades.


Grok
Pays d’origine : Etats-Unis
Propriétaire : xAI (Elon Musk)
Lancement : novembre 2023
Générateur de textes et d’images
https://x.ai/grok, https://x.com/i/grok
Disponibilité : gratuit depuis le 14-12-24
Accessible en France : oui
Remarque : Grok est développé par la start-up xAI créé en juillet 2023 par le milliardaire Elon Musk (cofondateur d’OpenAI qu’il a quitté en 2018). En plus de générer du texte, Grok peut aussi faire de même en créant des images réalistes grâce à son modèle text-to-image Aurora.


Sora
Pays d’origine : Etats-Unis
Propriétaire : OpenAI (Sam Altman)
Lancement : février 2024
Générateur de vidéo ultraréalistes
https://openai.com/sora, https://sora.com
Disponibilité : payant dans ChatGPT Plus et Pro
Accessible en France : non
Remarque : Sora est un modèle de type text-to-video développé par OpenAI, déjà à l’origine de ChatGPT, lequel intègre Sora depuis début décembre 2024 via les abonnements payants ChatGPT Plus et ChatGPT Pro. Sora signifie en japonais « ciel » (potentiel illimité). (suite)

La « French Tech » a eu du mal à lever des fonds en 2024, plafonnant à environ 7,2 milliards d’euros

S’il n’y avait pas eu le demi-milliard de la société française Mistral AI, la chute des levées de fonds par les start-up françaises aurait été plus prononcée en 2024 (-18 % sans, contre 12 % avec). Cette baisse des investissements, à environ 7,2 milliards d’euros, est inquiétante au regard des besoins.

Les premiers calculs sur les levées de fonds enregistrées sur l’année 2024 par les start-up de la « French Tech » font état d’un total d’environ 7,2 milliards d’euros. C’est plus ou moins un milliard de moins que l’année précédente, et bien loin des quelque 15 milliards d’euros levés en 2022 au sortir de la crise sanitaire, pour ne pas dire moitié moins que ce record. Cette chute de – 12 % sur un an des capitaux investis dans les jeunes pousses innovantes, bien qu’amortie, est paradoxale au regard de la révolution de l’intelligence artificielle (IA), des besoins en mobilité ou encore de l’essor de la fintech.

Mistral AI, Poolside AI et Electra en tête
Cette moindre performance devrait interpeller la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, Clara Chappaz (photo), nommée par l’éphémère gouvernement Barnier sous la houlette du ministère de l’Enseignement supérieur et de la recherche (1), et maintenue par le gouvernement Bayrou, mais cette fois auprès du ministre de l’Economie, des Finances et de la Souveraineté industrielle et numérique – en l’occurrence Eric Lombard (exCDC). Ancienne dirigeante de la mission French Tech d’octobre 2021 à septembre 2024, Clara Chappaz garde un œil sur le microcosme des jeunes pousses dont elle est issue (Zalora, Lullaby, Lyst, Vestiaire Collective). « En 2025, il nous faudra plus que jamais rassembler nos forces pour que la France et l’Europe restent dans la course au numérique et à l’IA », at-elle prévenu lors de ses vœux début janvier (2).
Or, selon les relevés de la mission French Tech justement, basés sur les données collectées par la plateforme néerlandaise Dealroom.co que Edition Multimédi@ a consultées, les fonds levés (suite)

Le débat relancé aux Etats-Unis sur la neutralité d’Internet pourrait se propager à l’Europe

Le 2 janvier 2025, la présidente de la Federal Communications Commission (FCC), Jessica Rosenworcel, a appelé le Congrès des Etats-Unis à graver dans le marbre le principe de la neutralité d’Internet – après qu’une cour d’appel américaine l’a remis en cause le jour-même. Et en Europe ?

La réaction de la présidente de la Federal Communications Commission (FCC), la démocrate Jessica Rosenworcel (photo), ne s’est pas faite attendre après que, le 2 janvier 2025, un arrêt d’une cour d’appel fédérale américaine a remis en cause la neutralité d’Internet, principe de non-discrimination et de non-blocage des accès aux contenus en ligne qu’avait rétabli Joe Biden lorsqu’il était encore président des Etats-Unis. Jessica Rosenworcel, dont le mandat se termine le 1er juillet 2025, demande au Congrès américain d’inscrire la « Net Neutrality » ou l’« Open Internet » dans la loi fédérale.

Une loi fédérale pour l’Internet ouvert ?
« Les consommateurs de tout le pays nous ont dit à maintes reprises qu’ils veulent un Internet rapide, ouvert et équitable. Avec cette décision [de la Cour d’appel du Sixième Circuit, ndlr], il est clair que le Congrès doit maintenant écouter leur appel, prendre en charge la neutralité du Net et mettre des principes d’Internet ouverts dans la loi fédérale », a déclaré la présidente de la FCC (1). Parmi les membres du collège de cette agence fédérale sur les télécommunications, la commissaire Anna Gomez, elle aussi démocrate, a abondé dans le sens de la présidente pour que soit enfin préservé ce principe d’Internet ouvert : « Il y a un principe au cœur du débat sur l’Internet ouvert sur lequel nous sommes tous d’accord : l’accès à l’Internet haut débit est essentiel pour la vie moderne. Des garde-fous appropriés sont nécessaires pour assurer l’accessibilité et la sécurité de ce service essentiel à tous. Dans la foulée de la décision du Sixième Circuit, le Congrès devrait agir pour mettre fin à ce débat et protéger les consommateurs, promouvoir la concurrence et le leadership économique, et assurer l’intégrité de nos réseaux » (2).
Pour la énième fois, le débat sur la neutralité d’Internet est relancé aux Etats-Unis, opposant d’un côté les opérateurs télécoms favorables à l’abolition de ce principe et de l’autres les plateformes numériques souhaitant au contraire préserver cette neutralité des réseaux. Le bras de fer se joue jusqu’au plus haut sommet de l’Etat américain, à la Maison-Blanche. (suite)

« Résumé suffisamment détaillé » : 2025 sera l’année de vérité dans la mise en œuvre de l’AI Act

Le rapport du CSPLA sur la mise en œuvre du règlement européen établissant des règles harmonisées sur l’IA fournit les ingrédients mais… pas la recette ! Le Bureau européen de l’IA, créé par l’AI Act, doit publier prochainement un « modèle européen » à suivre par les Vingt-sept.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

Le rapport « IA et Transparence des données d’entraînement » (1), publié le 11 décembre 2024 par le Conseil supérieur de la propriété littéraire et artistique (CSPLA), s’inscrit dans la préparation de la mise en œuvre du règlement européen sur l’intelligence artificielle (AI Act) et a pour objectif de clarifier l’interprétation et la portée des dispositions imposant un modèle de « résumé suffisamment détaillé » (2). Ce modèle sera présenté au nom de la France dans le cadre du processus d’adoption d’un modèle européen par le Bureau européen de l’IA (AI Office), autorité créée par l’AI Act et chargée d’accompagner les fournisseurs d’IA dans leur mise en conformité. La publication du modèle européen est attendue pour janvier 2025.

Transparence des données d’entraînement
La collecte de données de qualité, notamment de données culturelles, est d’une importance stratégique pour les fournisseurs d’IA, puisque les systèmes d’IA ont besoin d’ingurgiter de grandes quantités de données, leur servant de modèles dans leurs productions. Or, des données contenant des créations protégées par un droit de propriété intellectuelle peuvent avoir été obtenues sans autorisation ou sans tenir compte d’un « opt-out », et avoir été effectivement exploitées. Il en va de même concernant des données personnelles (posts Facebook, Instagram, …) potentiellement utilisées pour l’entraînement de modèles d’IA. L’enjeu est alors d’avoir accès à l’information sur les données d’entraînement utilisées par une IA, pour bien des raisons et notamment ouvrir une visibilité aux ayants droits dont des données et/ou créations auraient été mobilisées, quelles qu’en soient les modalités.
Pour ce faire, les fournisseurs d’IA sont désormais soumis à une obligation de transparence qui se concrétise par la mise en place d’une politique de conformité, ainsi que par la mise à disposition au public d’un « résumé suffisamment détaillé » (sufficiently detailed summary) des contenus utilisés pour l’entraînement du modèle d’IA. Ce résumé permet le développement d’une IA de confiance souhaitée au niveau européen (3), en remédiant aux difficultés rencontrées par les titulaires de droits, confrontés à une charge de la preuve disproportionnée concernant l’utilisation de leurs contenus. Pour autant, le résumé doit répondre aux enjeux de la création d’un marché dynamique et équitable de l’IA. Ce qui impose un compromis pour restreindre la quantité d’informations mise à disposition afin de protéger le secret des affaires, moteur d’innovation pour les fournisseurs d’intelligence artificielle. (suite)