Les deepfakes audio inquiètent l’industrie musicale

En fait. Le 10 septembre, la Fédération internationale de l’industrie phonographique (IFPI) a publié son premier rapport sur « la musique dans l’UE ». Au-delà des inquiétudes sur la croissance musicale dans les Vingt-sept, une nouvelle pratique préoccupe : les deepfakes audio. Les détecteurs s’organisent.

En clair. « L’industrie musicale est préoccupée par la capacité des systèmes d’IA de générer du contenu “deepfake” qui s’approprie sans autorisation la voix, l’image et la ressemblance distinctives des artistes », alerte la Fédération internationale de l’industrie phonographique (IFPI), dans son rapport sur la musique dans l’Union européenne (UE) publié le 10 septembre. « Cela peut induire les fans en erreur, porter gravement atteinte à la réputation d’un artiste et fausser la concurrence en permettant aux clones générés de concurrencer de manière déloyale les artistes dont la musique et l’image ont été utilisées pour former le modèle d’IA » redoute-t-elle.
Six jours avant, de l’autre côté de l’Atlantique, un dénommé Michael Smith a été arrêté par le FBI et présenté devant juge de Caroline du Nord pour avoir créé des centaines de milliers de chansons avec une intelligence artificielle et utilisé des programmes automatisés (bots) pour diffuser des milliards de fois ces chansons générées par l’IA sur les plateformes de streaming (Amazon Music, Apple Music, Spotify et YouTube Music). Ce stratagème de fake streams (1) a permis à l’accusé de générer frauduleusement plus de 10 millions de dollars de royalties (2). De l’IA générative musicale au deepfake audio, il n’y a qu’un pas : les deux pratiques utilisent des masses de données audio pour générer du contenu fictif mais audible et vraisemblable.