Les deepfakes audio inquiètent l’industrie musicale

En fait. Le 10 septembre, la Fédération internationale de l’industrie phonographique (IFPI) a publié son premier rapport sur « la musique dans l’UE ». Au-delà des inquiétudes sur la croissance musicale dans les Vingt-sept, une nouvelle pratique préoccupe : les deepfakes audio. Les détecteurs s’organisent.

En clair. « L’industrie musicale est préoccupée par la capacité des systèmes d’IA de générer du contenu “deepfake” qui s’approprie sans autorisation la voix, l’image et la ressemblance distinctives des artistes », alerte la Fédération internationale de l’industrie phonographique (IFPI), dans son rapport sur la musique dans l’Union européenne (UE) publié le 10 septembre. « Cela peut induire les fans en erreur, porter gravement atteinte à la réputation d’un artiste et fausser la concurrence en permettant aux clones générés de concurrencer de manière déloyale les artistes dont la musique et l’image ont été utilisées pour former le modèle d’IA » redoute-t-elle.
Six jours avant, de l’autre côté de l’Atlantique, un dénommé Michael Smith a été arrêté par le FBI et présenté devant juge de Caroline du Nord pour avoir créé des centaines de milliers de chansons avec une intelligence artificielle et utilisé des programmes automatisés (bots) pour diffuser des milliards de fois ces chansons générées par l’IA sur les plateformes de streaming (Amazon Music, Apple Music, Spotify et YouTube Music). Ce stratagème de fake streams (1) a permis à l’accusé de générer frauduleusement plus de 10 millions de dollars de royalties (2). De l’IA générative musicale au deepfake audio, il n’y a qu’un pas : les deux pratiques utilisent des masses de données audio pour générer du contenu fictif mais audible et vraisemblable.

L’AI Act devra limiter les risques élevés de l’IA pour les droits humains, sans freiner l’innovation

L’émergence fulgurante et extraordinaire de l’intelligence artificielle (IA) soulève aussi des préoccupations légitimes. Sur l’AI Act, un accord entre les Etats membres tarde avant un vote des eurodéputés, alors que 2024 va marquer la fin de la mandature de l’actuelle Commission européenne.

Par Arnaud Touati, avocat associé, Nathan Benzacken, avocat, et Célia Moumine, juriste, Hashtag Avocats.

Il y a près de trois ans, le 21 avril 2021, la Commission européenne a proposé un règlement visant à établir des règles harmonisées concernant l’intelligence artificielle (IA). Ce règlement européen, appelé AI Act, a fait l’objet, le 9 décembre 2023 lors des trilogues (1), d’un accord provisoire. Mais des Etats européens, dont la France, ont joué les prolongations dans des réunions techniques (2). La dernière version consolidée (3) de ce texte législatif sur l’IA a été remise le 21 janvier aux Etats membres sans savoir s’ils se mettront d’accord entre eux début février, avant un vote incertain au Parlement européen (4).

Contours de l’IA : éléments et précisions
Cette proposition de cadre harmonisé a pour objectif de : veiller à ce que les systèmes d’IA mis sur le marché dans l’Union européenne (UE) soient sûrs et respectent la législation en matière de droits fondamentaux et les valeurs de l’UE ; garantir la sécurité juridique pour faciliter les investissements et l’innovation dans le domaine de l’IA ; renforcer la gouvernance et l’application effective de la législation en matière de droits fondamentaux et des exigences de sécurité applicables aux systèmes d’IA; et faciliter le développement d’un marché unique pour les applications d’IA, sûres et dignes de confiance et empêcher la fragmentation du marché (5). Pour résumer, cette règlementation vise à interdire certaines pratiques, définir des exigences pour les systèmes d’IA « à haut risque »et des règles de transparence, tout en visant à minimiser les risques de discrimination et à assurer la conformité avec les droits fondamentaux et la législation existante. Il reste encore au futur AI Act à être formellement adopté par le Parlement et le Conseil européens pour entrer en vigueur.

De l’image détournée par l’IA aux deepfakes vidéo, la protection du droit à l’image en prend un coup

La manipulation d’images par l’intelligence artificielle, poussée jusqu’aux hypertrucages vidéo (deepfakes), n’épargne potentiellement personne. Angèle, Scarlett Johansson, Volodymyr Zelensky et bien autres en font les frais. Reste à savoir si le droit à l’image sera garanti par l’AI Act européen.

Par Véronique Dahan, avocate associée, et Jérémie Leroy-Ringuet, avocat, Joffe & Associés*

L’intelligence artificielle (IA) représente un défi désormais bien connu en matière de droit d’auteur (1). Mais de nouveaux enjeux se dessinent également en termes de droit à l’image, un des composants du droit au respect de la vie privée. Voyons ce qu’il en est sur ce point, à l’aube de l’adoption de l’AI Act (2). Malgré une entrée tardive dans le droit positif français (3), le droit au respect de la vie privée est un pilier des droits de la personnalité. Le droit à l’image, qui protège le droit de s’opposer à sa reproduction par des tiers (4) en fait également partie.

L’image inclut le physique et la voix
Parmi les composantes de l’image figurent non seulement l’aspect physique mais aussi, notamment, la voix. Le tribunal de grande instance de Paris avait ainsi considéré, en 1982, lors d’un procès relatif à des enregistrements de Maria Callas, que « la voix est un attribut de la personnalité, une sorte d’image sonore dont la diffusion sans autorisation expresse et spéciale est fautive ». Or, de même que les outils de l’IA utilisent des œuvres protégées et s’exposent à des risques de contrefaçon, leur utilisation peut consister à reproduire l’image ou la voix de personnes existantes ou décédées, par exemple en réalisant la fausse interview d’une personne défunte ou en faisant tenir à une personnalité politique un discours à l’encontre des opinions qu’elle défend. Ces usages sont-ils licites ?
Quels sont les droits des personnes concernées ? Les exemples ne manquent pas. A l’été 2023, un beatmaker (compositeur de rythmiques) nancéen, nommé Lnkhey, a remixé au moyen de l’IA une chanson des rappeurs Heuss l’Enfoiré et Gazo avec la voix de la chanteuse Angèle, dont les œuvres sont bien évidemment très éloignées de celles de ces rappeurs. Le remix (5) a eu un succès tel qu’Angèle l’a elle-même repris en public lors de la Fête de l’Humanité en septembre 2023.

Cybermenaces : bombe électronique à retardement

En fait. Le 14 octobre se terminent à Monaco les 23e Assises de la cybersécurité qui se sont tenues sur quatre jours. Les cyber-risques n’augurent rien de bon, tant les cyberattaques n’ont jamais été aussi redoutables avec le renfort de l’intelligence artificielle et maintenant de l’informatique quantique.

En clair. Sauve qui peut. Les responsables de la sécurité des systèmes d’information (RSSI) des entreprises et administrations, et leurs dirigeants, ont du souci à se faire. Jamais les cybermenaces et les cyberattaques n’ont été aussi fortes et nombreuses dans le monde. Internet devient le premier théâtre des opérations de la criminalité, de la guerre et de l’ingérence étrangère, tant économique que géopolitique. Cybersécurité et cyberdéfense n’y suffiront pas.
Aux 23es Assises de la cybersécurité (1), à Monaco, les quelque 5.000 visiteurs – Chief Information Security Officer (Ciso) en tête – auraient préféré ne pas verser dans le catastrophisme ni dans les théories du cybercomplot. Hélas, les prévisions sont plus que jamais alarmistes. Steve Morgan, fondateur de la société d’études américaine Cybersecurity Ventures, le confirme à Edition Multimédi@ : « Depuis trois ans, nos prévisions n’ont pas changé. Les coûts mondiaux des dommages liés à la cybercriminalité augmentent de 15 % par an et atteindront 10.500 milliards de dollars en 2025, contre 8.000 milliards de dollars en 2023. C’était 3.000 milliards de dollars en 2015 » (2).

Vers une régulation « presse, médias, plateformes »

En fait. Selon nos informations, c’est le 3 octobre que seront enfin lancés les « Etats généraux de l’information » voulus par Emmanuel Macron. Les conclusions sont attendues pour « mai 2024 », a indiqué Bruno Lasserre, président du « comité de pilotage » créé le 13 juillet par l’Elysée. Il a esquissé l’ambition dans Charente Libre le 7 août.

En clair. « Aujourd’hui nous avons une régulation pour chaque type d’entreprise de l’information : la presse, les médias, les plateformes numériques. Nous avons l’ambition d’une régulation qui surplombe et relie tous ces droits particuliers. La France peut innover et inspirer la Commission européenne », a esquissé Bruno Lasserre, président du comité de pilotage des Etats généraux de l’information, dans un entretien à Charente Libre le 7 août (1). La mission, que lui a confiée Emmanuel Macron consiste à « inspirer le législateur, les politiques publiques ».
Quelle sera cette régulation « surplomb[ant]» la presse, les médias et les plateformes ? « La livraison de nos conclusions est prévue pour mai 2024 », indique le retraité du Conseil d’Etat. Alors que les discussions démarrent au Parlement européen sur le projet de règlement sur « la liberté des médias » (EMFA) en vue d’aboutir avant les élections des eurodéputés en juin 2024 (2).