Non, l’écran ne fabrique pas du « crétin digital »

En fait. Le 16 janvier, le président du Syndicat national de l’édition (SNE), Vincent Montagne, est reparti en croisade contre « les écrans » qu’il continue d’opposer aux livres (alors que l’on peut lire des ebooks sur écran). Il s’alarme du temps des jeunes passés sur les écrans, en parlant du « crétin digital ».

En clair. Lors de son discours à l’occasion des vœux du Syndicat national de l’édition (SNE), Vincent Montagne s’en est pris à nouveau aux jeunes qui soi-disant préfèrent les écrans plutôt que les livres. Comme si les livres numériques n’existaient pas (1). Comme si les ebooks destinés à la jeunesse n’avaient jamais été mis en ligne (romances, fantasy, fantastique, mangas, bandes dessinées, webtoons, …). Comme si les « adolécrans » ne lisaient pas de livres imprimés, alors qu’ils peuvent parfois devenir « accros » d’éditions intégrales de fictions de plusieurs centaines de pages (Hugo Publishing, BMR/Hachette Livre, Gallimard Jeunesse, …), comme l’a bien montré l’enquête « La jeunesse réinvente la lecture » parue dans Le Monde (2). Le déni de la réalité se le dispute à la croisade contre les écrans. « Les enfants de 8 à 12 ans passent près de 4 heures et demie par jour les yeux rivés à des écrans », a regretté Vincent Montagne, tout en évoquant « La Fabrique du crétin digital », livre d’un dénommé Michel Desmurget, paru en 2019 aux éditions du Seuil. Ce docteur en neuroscience a mis aux anges Vincent Montagne en publiant dans la même veine « Faites-les lire ! Pour en finir avec le crétin digital », un livre injonction édité cette fois en 2023 et à nouveau au Seuil (3).

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023.

Boosté par le cloud et l’IA, Microsoft conteste à Apple sa première place mondiale des capitalisations boursières

Le capitalisme a ses icônes, et la seconde est Microsoft. La valorisation boursière de la firme de Redmond, que dirige Satya Nadella depuis près de dix ans, atteint – au 1er décembre 2023 – les 2.816 milliards de dollars et pourrait bientôt détrôner Apple de la première place mondiale. Merci aux nuages et à l’IA.

(Cet article est paru le lundi 4 décembre 2023 dans Edition Multimédi@. L’AG annuelle des actionnaires de Microsoft s’est déroulée comme prévu le 7 décembre)

La prochaine assemblée générale annuelle des actionnaires de Microsoft, qui se tiendra le 7 décembre et cette année en visioconférence (1), se présente sous les meilleurs auspices. L’année fiscale 2022/2023 s’est achevée le 30 juin avec un chiffre d’affaires de 211,9 milliards de dollars, en augmentation sur un an (+ 7 %). Le bénéfice net a été de 72,4 milliards de dollars, en légère diminution (- 1 %). Et les résultats du premier trimestre de l’année 2023/2024, annoncé en fanfare le 24 octobre dernier, ont encore tiré à des records historiques le cours de Bourse de Microsoft – coté depuis plus de 37 ans. A l’heure où nous bouclons ce numéro de Edition Multimédi@, vendredi 1er décembre, la capitalisation boursière du titre « MSFT » – actuelle deuxième mondiale – affiche 2.816 milliards de dollars (2) et talonne celle du titre « AAPL » d’Apple dont la première place, avec ses 2.954 milliards de dollars (3), est plus que jamais contestée. Depuis la nomination il y a près de dix ans de Satya Nadella (photo) comme directeur général (4) pour succéder à Steve Ballmer, Microsoft a ainsi vu sa capitalisation boursière multiplié par presque dix. Les actionnaires de la firme de Redmond (Etat de Washington, près de Seattle) en ont pour leur argent (voir graphique), depuis vingt ans qu’elle s’est résolue à leur distribuer des dividendes – ce qui n’était pas le cas avec son cofondateur et premier PDG Bill Gates.

Assemblée générale annuelle le 7 décembre
Après avoir mis Microsoft sur les rails du cloud en faisant d’Azure – dont il était vice-président avant de devenir directeur général du groupe (5) – sa première vache à lait (87,9 milliards de dollars de chiffre d’affaires lors du dernier exercice annuel), Satya Nadella a commencé à faire de l’IA générative le moteur de tous ses produits et services. « Avec les copilotes, nous rendons l’ère de l’IA réelle pour les gens et les entreprises du monde entier. Nous insufflons rapidement l’IA dans chaque couche de la pile technologique et pour chaque rôle et processus métier afin de générer des gains de productivité pour nos clients », a déclaré fin octobre cet Indo-américain (né à Hyderabad en Inde), qui est aussi président de Microsoft depuis près de deux ans et demi (6).

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes. Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ».

Des œuvres utilisées comme inputs
Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur.