Lutte contre le piratage : les « cyberlockers » donnent du fil à retordre aux industries culturelles

Aiguillonnée par l’Alpa et l’Arcom, la justice française multiplie les décisions de blocage de sites pirates qui recourent aux « cyberlockers », hébergeurs générant des liens web pour permettre à leurs utilisateurs d’accéder à des fichiers de films, séries, musiques ou livres, souvent piratés.

Les « cyberlockers » ont le vent en poupe et jouent au chat et à la souris avec les ayants droits, les régulateurs et les juges. En France, rien qu’en janvier 2024, ce ne sont pas moins cinq d’entre eux – Turbobit, Rapidgator, Streamtape, Upstream et Nitroflare – qui ont été bloqués par décision de justice. En un an, près d’une quinzaine de ces sites d’hébergement générateurs de liens web uniques ou multiples – des URL (Uniform Resource Locator) pour permettre de télécharger des fichiers de contenus et de les partager – ont été bloqués, sur décision du juge, par les Orange, SFR, Bouygues ou Free.

Les 25 membres de l’Alpa en lutte
Outre les cinq cyberlockers épinglés en janvier, il en a aussi été ainsi de Doodstream, Mixdrop, Vidoza et Netu par jugement de juin 2023, de Uptobox en mai 2023 (1), ainsi que de Uqload, Upvid, Vudeo et Fembed en janvier 2023. C’est ce que révèle une étude de l’Association de la lutte contre la piraterie audiovisuelle (Alpa), réalisée avec Médiamétrie et publiée discrètement le 7 mars dernier – communiquée, sans présentation formelle, aux membres de l’Alpa qui l’a mise en ligne sur son site web (2). Contacté par Edition Multimédi@, le délégué général de l’Alpa depuis plus de 21 ans, Frédéric Delacroix (photo), nous explique que « les sites pirates utilisent les cyberlockers pour héberger les contenus illicites qu’ils proposent sur leurs pages en mettant à disposition des liens – de téléchargement DDL (3) ou de streaming – renvoyant sur ces derniers, les cyberlockers étant des services essentiels dans l’écosystème pirate et ne servant qu’à l’hébergement de contenus illicites ». Les sites pirates et leurs sites miroirs peuvent y recourir pour brouiller les pistes en multipliant les URL. Les sites miroirs sont, eux, de nouveaux chemins d’accès via de nouveaux noms de domaine qu’utilisent les sites pirates, faisant l’objet de mesures de blocage sur leur nom de domaine initial, pour poursuivre leur activité illégale. Ces sites illégaux se nomment 1fichier.com, Yggtorrent.qa, Wawacity.autos, Papadustream.to ou encore Rapidgator.net, pour ne citer que les plus utilisés en décembre 2023 d’après Médiamétrie. « Les cyberlockers ont longtemps bénéficié du statut (favorable) d’hébergeurs, supprimant sur notification les fichiers illicites notifiés par les ayants droit, mais en favorisant leur réintroduction à l’identique en connivence avec les administrateurs pirates. Nous avons réussi à prouver que leur système économique ne reposait que sur la contrefaçon d’œuvres protégées », poursuit Frédéric Delacroix.
Le délégué général de l’Alpa rappelle que la Cour de justice de l’Union européenne (CJUE) a – dans son arrêt « Cyando/ Uploaded » du 27 juillet 2021 (4) – édicté des principes permettant d’établir le caractère contrefaisant de ce type de cyberlocker (plateforme de partage de vidéos ou plateforme d’hébergement et de partage de fichiers). « Ce qui a permis aux ayants droit, membres de l’Alpa et à notre initiative, d’en demander le blocage en justice fin 2022 ». Et depuis 2017, les ayants droit membres de l’Alpa sont à l’initiative de décisions de justice portant sur 1.300 sites pirates à ce jour, correspondant à l’utilisation de plus de 3.400 noms de domaine. L’Alpa – association française créée il y aura 40 ans l’an prochain et présidée depuis plus de 20 ans par Nicolas Seydoux (84 ans), président de Gaumont – compte aujourd’hui vingt-cinq membres que Edition Multimédi@ présente de façon inédite par catégorie : Organisations professionnelles : Association des producteurs indépendants (API), Auteurs, réalisateurs et producteurs (L’Arp), Fédération nationale des éditeurs de films (FNEF), Motion Picture Association (MPA), Société civile des producteurs de cinéma et de télévision (Procirep), Société des auteurs et compositeurs dramatiques (SACD), Société des auteurs, compositeurs et éditeurs de musique (Sacem), Syndicat de l’édition vidéo numérique (SEVN), Syndicat des producteurs indépendants (SPI), Union des producteurs de cinéma (UPC). Studios de cinéma : Gaumont, Paramount Picture France, Pathé Films, Sony Pictures Home Entertainment, Universal Pictures Vidéo France, Walt Disney Entertainment, Warner Bros Home Video. Salles de cinéma : Fédération nationale du cinéma français (FNCF), UGC (ex-Union générale cinématographique). Chaînes de télévision : France Télévisions, Canal+, TF1, M6 via sa Société nouvelle de distribution (SND). Plateforme de SVOD : Netflix. Autorité publique : Centre national du cinéma et de l’image animée (CNC).
L’Alpa touche des subventions publiques, notamment de la part du CNC qui est un établissement public à caractère administratif placé sous l’autorité du ministère de la Culture.Le CNC pourra bientôt saisir l’Arcom
Grand argentier du cinéma, de l’audiovisuel et du multimédia (dont la création numérique sur Internet, jeu vidéo, réalité virtuelle et métavers), le CNC pourrait voir ses pouvoirs étendus aux sites miroirs par la proposition de loi « visant à conforter la filière cinématographique ». Ce texte législatif, qui a été adopté en première lecture au Sénat le 14 février dernier et est actuellement entre les mains de la commission des affaires culturelles et de l’éducation de l’Assemblée nationale (5) a fait l’objet d’un amendement adopté en commission début février (6). Celui-ci prévoit que les titulaires de droits ne soient plus les seuls à pouvoir saisir l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour lui demander d’enjoindre directement aux fournisseurs d’accès à internet (FAI) et sans passer par un juge (7) – comme c’est cas depuis octobre 2022 – de bloquer des sites miroirs de ces sites illégaux et cyberlockers déjà condamnés par la justice. Avec la nouvelle mesure, le CNC aurai aussi la possibilité de saisir l’Arcom pour lutter contre ces sites miroirs. Les ayants droits, les organismes de gestion collective et les organismes de défense professionnelle – autrement dit « toute personne qualifiée pour agir » (8) – pourraient aussi saisir l’Arcom sur ces sites miroirs. D’autant que les premiers résultats de cette procédure sans juge sont considérés par le régulateur et les parlementaires comme « prometteurs » au regard de « la baisse de l’audience des “galaxies” de sites miroirs ». L’Arcom aurait ainsi reçu jusqu’à maintenant plus de 600 demandes d’« actualisation de décisions de justice » qui ont lui ont permet de notifier depuis plus d’un an 770 noms de domaine aux FAI pour en empêcher l’accès.

L’audience des sites illicites baisse
Ces jugements de blocage de cyberlockers, ordonnés le plus souvent par le tribunal judiciaire de Paris aux opérateurs télécoms et FAI contribuent – à l’instar du blocage des sites illégaux ou de leurs miroirs – à la baisse de l’audience des sites de streaming vidéo en France. A chaque décision judicaire, les audiences de ces cyberlockers et plus généralement des sites pirates ou de leurs répliques (sites miroirs) reculent de façon significative. Pour autant, la fréquentation de ces mêmes cyberlockers et/ou sites pirates peut reprendre du poil de la bête avec la mise en ligne de nouveaux sites miroirs et de nouveau liens URL, mais sans retrouver les niveaux d’avant les jugements (voir graphique plus haut).
Résultat, toujours selon Médiamétrie pour l’Alpa : l’audience globale des sites illicites en France ne cesse de baisser d’année en année (sauf en 2018), passant de 15,1 millions d’« internautes pirates » en 2016 à seulement 6,3 millions en 2023. Si l’on part de l’année 2018 où les smartphones ont été pris en compte pour la première fois, portant à 15,4 millions le nombre d’« internautes pirates », cela représente un recul de 59 % en cinq ans (voir graphique ci-dessous). Mais le piratage en ligne (streaming et téléchargement) n’est pas mort pour autant. « L’efficacité est “relative” si l’on regarde la courbe du piratage », relève le délégué général de l’Alpa, d’autant que « nos statistiques ne prennent pas en compte les blocages des services IPTV que nous opérons depuis 2020 ». @

Charles de Laubier

La nouvelle super-régulation d’Internet se met en place en Europe, avec l’Arcom en soutien pour la France

Le Digital Services Act (DSA) entre entièrement en application le 17 février 2024 dans les Vingt-sept. L’Arcom devient pour la France le « Coordinateur pour les services numériques » (DSC) et l’un des vingt-sept membres du « Comité européen des services numériques » (EBDS) présidé par la Commission européenne.

Il n’y aura pas de super-régulateur européen d’Internet, mais c’est tout comme. Avec le règlement sur les services numériques, le DSA (Digital Services Act), qui entre pleinement en application le 17 février (1), l’Union européenne (UE) devient la première région du monde à mettre en place une vaste « régulation systémique » de l’Internet. Elle va s’articuler autour du Comité européen des services numériques (EBDS), présidé par la Commission européenne et assisté – pour chacun des vingt-sept Etats membres – d’un Coordinateur pour les services numériques (DSC).
Pour la France, c’est l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) qui est désignée DSC par la loi « Sécuriser et réguler l’espace numérique » (SREN) dont le vote définitif est attendu en mars (2). « Pour moi, europhile, je crois qu’on a la chance d’être sur un continent pionnier dans la régulation des grands acteurs du numérique. On peut espérer que ce règlement aura un effet de jurisprudence : ce que les plateformes feront sur le continent européen pour se conformer aux obligations du DSA, elles pourront le faire dans d’autres pays », a déclaré le 1er février Roch-Olivier Maistre (photo), président de l’Arcom. « Je suis heureux d’être sur un continent qui tente quelque chose, sans être ni le modèle chinois ni le modèle américain. C’est une tierce-voix qui est conforme à la protection de la liberté et du public », a-t-il ajouté devant l’Association des journalistes médias (AJM), dont il était l’invité.

Un Comité européen et 27 Coordinateurs nationaux
Pour assurer cette nouvelle « super-régulation » du Net dans les Vingt-sept, la Commission européenne et les régulateurs nationaux vont travailler main dans la main. Le Comité européen des services numériques (EBDS (3)), créé à cet effet, est chapeauté par la Commission européenne elle-même et composé de « hauts fonctionnaires » représentant, chacun, le Coordinateur national pour les services numériques (DSC (4)) d’un Etat membre – à savoir l’Arcom pour la France, en liaison avec la Cnil et l’Autorité de la concurrence. « Pour les très grandes plateformes, qui comptent chacune au moins 45 millions d’utilisateurs par mois en moyenne dans l’UE et pour lesquelles le DSA est entré en vigueur le 25 août 2023, c’est la Commission européenne qui jouera un rôle central. Comme elle l’a fait en ouvrant, le 18 décembre 2023, une enquête formelle à l’encontre de X (ex-Twitter) soupçonné d’avoir enfreint le DSA », a expliqué Roch-Olivier Maistre, dont le mandat à la tête de l’Arcom se termine fin janvier 2025.

Les géants d’Internet risquent gros
La Commission européenne – par les voix de Margrethe Vestager (photo ci-contre) et de Thierry Breton – reproche à X, le réseau social racheté en octobre 2022 par Elon Musk et totalisant 112 millions d’utilisateurs actifs par mois dans l’UE, de contrevenir au DSA (5). X risque une amende pouvant atteindre 6 % de son chiffre d’affaires mondial annuel. La Commission européenne régule ces très grandes plateformes, en liaison avec les autorités nationales désignées « Coordinator » (DSC). « Il y aura donc un dialogue qui s’instaure avec la Commission européenne, le processus se mettant déjà en œuvre », a précisé le président de l’Arcom, DSC pour la France. L’an dernier, la Commission européenne a identifié 22 très grandes plateformes, dont 19 premières (6) le 25 avril 2023 (Alibaba/AliExpress, Amazon Store, Apple/AppStore, Booking, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing et Google Search) et 3 autres (7) le 28 décembre 2023 : les plateformes pornographiques Pornhub, Stripchat et XVideos. « Mais contrairement à l’audiovisuel, a précisé Roch-Olivier Maistre (« ROM »), on ne pourra pas saisir ni la Commission européenne ni l’Arcom pour un contenu (comme un tweet) qui nous heurte ou qui nous choque. Car il s’agit là d’une régulation systémique : ce qui est jugé porte sur la plateforme afin de savoir si elle est en défaut global par ses systèmes de modération, au regard des obligations de lutte contre les contenus illicites ».
Quant aux autres plateformes – exceptées, est-il précisé dans le DSA, les « microentreprises » et les « petites entreprises » –, l’entrée en vigueur de ce règlement va intervenir le 17 février 2024 et relèvera de la compétence du régulateur du pays d’implantation de l’acteur du Net : l’Arcom lorsqu’il est en France. « Nous rendrons publique une liste de ces acteurs “plus petits” du numérique », a indiqué son président. Tout en insistant sur le fait que « le sujet central de la mise en œuvre du DSA aujourd’hui, chacun le sait bien, c’est X (ex-Twitter), TikTok et Meta (Facebook) ; cela ne veut pas dire qu’il n’y en a pas d’autres, le texte étant suffisamment large et concernant aussi les places de marché ». Ce sont donc sur vingt très grandes plateformes, dites VLOP (8), et sur deux très grands moteurs de recherche en ligne, Google (Alphabet) et Bing (Microsoft) dits VLOSE (9), que se concentre la nouvelle super-régulation européenne. « Le DSA impose à ces grands acteurs de l’Internet une obligation de lutter contre les contenus illicites et de déployer les ressources nécessaires pour y parvenir : outils d’intelligence artificielle, outils de modération humaine », a expliqué « ROM ». Et de poursuivre : « Le DSA leur impose aussi : de faire une évaluation annuelle des risques auxquels la plateforme expose ses utilisateurs, de faire un audit annuel extérieur de cette évaluation, de permettre aux chercheurs d’avoir accès aux données de ces plateformes pour mener leurs travaux académiques, d’associer la société civile par les “signaleurs de confiance” dont les signalements doivent être traiter rapidement, de façon prioritaire ». Pour lutter contre les « contenus illicites » sur Internet et les « risques systémiques » des plateformes, des « signaleurs de confiance » – Trusted Flaggers – vont ainsi être dans les Vingt-sept désignés par chaque DSC. Une fois que l’Arcom sera habilité par la loi SREN à le faire en tant que « Coordinateur », « ROM » a par exemple indiqué qu’il y avait « de fortes chances » pour que l’Arcom désigne l’association e-Enfance comme un signaleur de confiance. Une fois désignés, ces signaleurs de confiance communiqueront à l’Arcom leurs signalements de « contenus problématiques » qu’ils auront effectués auprès des différentes plateformes. « En cas de manquements, nous pourrions alors considérer qu’il y a “dysfonctionnement systémique” de la plateforme en question et éventuellement la sanctionner », prévient le président de l’Arcom. Pour les contenus de pédo-criminalité ou de terrorisme, « l’Arcom supervise Pharos [plateforme du ministère de l’Intérieur, ndlr], qui nous transmet toutes les semaines les sites qu’ils bloquent – 150.000 en 2023 – et nous nous assurons que tous les blocages opérés par Pharos sont pertinents au regard notamment des libertés publiques ».
Au-delà du DSA, dont le pendant « antitrust » est le Digital Markets Act (DMA) qui entrera en vigueur le 6 mars prochain (10), et au-delà de la directive européenne de 2010 sur les services de médias audiovisuels (SMA), l’Arcom verra encore ses pouvoirs s’étendre avec l’EMFA (11). Ce règlement européen sur « la liberté des médias » a été approuvé le 19 janvier dernier (12) et doit être formellement adopté d’ici le mois d’avril.

Comité européen pour les services de médias
L’EMFA vise à protéger les fournisseurs de services de médias contre les ingérences politiques. Il protègera aussi les journalistes et leurs sources, tout en garantissant le droit d’accès des citoyens à des informations libres et pluralistes (13). Pour ce faire, le réseau des régulateurs européens – l’Erga (14), dont fait partie l’Arcom – est transformé en « Comité européen pour les services de médias » (EBMS (15)). Sur le front des fake news, l’Arcom est déjà dotée de pouvoirs depuis la loi française de 2018 « contre la manipulation de l’information » (16). Elle publiera fin février une délibération à ce sujet. Avec les élections des eurodéputés en juin sur fond de guerre entre la Russie et l’Ukraine, l’Arcom – associée à Viginum (rattaché au Premier ministre) – pourrait ordonner le blocage de chaînes étrangères ou de sites web. @

Charles de Laubier

Frances Haugen rend responsable Mark Zuckerberg

En fait. Le 10 novembre, Frances Haugen, l’ancienne salariée de Facebook, sera auditionnée à l’Assemblée nationale par – conjointement – la commission des affaires économiques et celle des lois. Le 8 novembre, l’ingénieure lanceuse d’alerte qui accuse Facebook aura été entendue au Parlement européen.

L’Europe veut encadrer les algorithmes pour retirer les contenus illicites et éviter les « faux positifs »

Le futur règlement européen Digital Services Act (DSA) veut encadrer l’utilisation d’algorithmes dans la gestion des contenus sur les réseaux sociaux et d’en retirer ceux « jugés » illicites. Mais le risque de « faux positifs » (bloqués à tort) va poser des problèmes aux régulateurs et aux juges.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Bloquer la publication d’un contenu est une décision grave, portant potentiellement atteinte à l’un des droits fondamentaux les plus importants pour la démocratie : la liberté d’expression. Pour la préserver, le droit constitutionnel américain et français exigent généralement qu’une décision interdisant la diffusion de contenus soit prise par une autorité judiciaire, et qu’elle le soit prise après la publication du contenu, non avant (1).

Blocage automatique : quelle légitimité ?
Les plateformes ne s’embarrassent pas de ces principes, filtrant des contenus avant leur publication par l’utilisation de robots. Faut-il s’en inquiéter ? S’agit-il d’une violation des droits fondamentaux des utilisateurs ? Le recours aux algorithmes pour identifier des contenus illégaux est devenu incontournable en raison de la quantité des informations publiées par les utilisateurs des réseaux sociaux. Même si la loi n’impose pas aux plateformes une obligation générale de surveillance des contenus, laquelle reste interdite (2), celles-ci ont mis en place des systèmes automatisés de détection de contenus illicites. Le champ d’application de ces outils s’est élargi grâce à l’émergence de modèles d’apprentissage automatique (machine learning), capables d’identifier des images et textes plus complexes, de comprendre le contexte d’une phrase ou d’une image, voire de juger de la véracité d’une affirmation.
Le futur règlement européen Digital Services Act (DSA) met en lumière les multiples rôles d’algorithmes dans la gestion de contenus sur les réseaux sociaux. Ces algorithmes identifient des contenus illicites et procèdent à leur retrait avec ou sans intervention humaine ; ils signalent l’existence d’utilisateurs potentiellement abusifs du service ; ils organisent la présentation de contenus et de publicités aux utilisateurs en fonction de leurs profils. Le règlement DSA propose d’encadrer l’utilisation d’algorithmes, surtout ceux utilisés pour retirer des contenus illicites. Les outils sont calibrés pour bloquer automatiquement, et sans intervention humaine, des contenus les plus manifestement illégaux. En cas de doute, la machine enverra le cas à des décisionnaires humains. Une grande partie des décisions de retrait de contenus sont aujourd’hui prises sans intervention humaine (3), ce qui soulève la question de leur légitimité et des garanties qui les entourent. Le DSA prévoit des garanties procédurales et de transparence similaires à celles qui existent pour les décisions prises par l’Etat. Le droit constitutionnel impose à l’Etat des règles contraignantes en matière de blocage de contenus illicites, alors que les plateformes, elles, ne sont pas directement concernées par ces contraintes constitutionnelles. Cependant, les plateformes dites « structurantes » ont un pouvoir quasi-étatique en matière de liberté d’expression. Il est donc logique d’étendre à ces plateformes les règles de transparence et de procédure qui s’appliquent aux décisions de l’Etat.
En 2018, les organisations de défense des droits civiques aux Etats-Unis ont élaboré des principes minimaux de transparence et de procédure équitable qui doivent s’appliquer aux décisions de retrait de contenus ou de suspension de comptes sur les réseaux sociaux. Appelés « Santa Clara Principles » (4), ces principes non-contraignants recommandent la publication par chaque plateforme numérique de données détaillées sur les alertes, les décisions de retrait et de suspension. Ils prévoient la notification aux utilisateurs affectés par les décisions de retrait, la publication de règles claires sur les types de contenus interdits sur la plateforme, la mention de raisons du retrait, la fourniture d’informations sur l’utilisation ou non d’un outil automatique, et une procédure efficace de contestation devant un décisionnaire humain différent de la personne qui a pris la décision initiale. Les Santa Clara Principles (SCP) reprennent, pour les adapter aux plateformes, une partie des règles constitutionnelles de « due process » aux Etats-Unis qui s’appliquent aux décisions, notamment algorithmiques, de l’Etat.

Le DSA va plus loin que les « SCP »
Le projet de règlement DSA rendrait contraignant un certain nombre des SCP, et notamment l’obligation d’informer l’utilisateur que son contenu a été retiré et de lui fournir une explication sur les raisons du retrait. La notification doit également mentionner l’utilisation éventuelle d’un outil automatique, et fournir des informations claires sur la possibilité de contester la décision. Le DSA exige une procédure efficace pour gérer les contestations d’utilisateurs, une procédure qui ne peut pas s’appuyer uniquement sur des moyens automatisés. Les utilisateurs peuvent donc contester un retrait devant un décisionnaire humain. Le DSA va au-delà des SCP en matière de transparence algorithmique, en exigeant la publication par les plateformes structurantes d’information sur les objectifs poursuivis par l’algorithme, les indices de performance, et les garanties entourant son utilisation.
Le projet de loi français sur le « respect des principes de la République », adopté par l’Assemblée nationale le 16 février dernier et actuellement examiné au Sénat (5), va plus loin encore en prévoyant la communication au Conseil supérieur de l’audiovisuel (CSA) des paramètres utilisés par les outils automatisés, des méthodes et des données utilisées pour l’évaluation et l’amélioration de leur performance.

Algorithmes, « faux positifs » et censure
La performance des algorithmes sera un sujet-clé pour le régulateur. Quel est le niveau acceptable de « faux positifs », à savoir des contenus bloqués à tort ? On sait que les tribunaux n’apprécient guère les faux positifs en matière de liberté d’expression (lire encadré ci-dessous) et qu’un algorithme d’apprentissage automatique va forcément générer des faux positifs. Le niveau de faux positifs dépendra notamment du niveau de sensibilité de l’algorithme dans la détection de « vrais » positifs, par exemple une vraie vidéo terroriste. Si l’on réduit le nombre de faux positifs, on va nécessairement réduire la sensibilité de l’algorithme dans la détection de vrais cas de contenus illégaux. Le bon équilibre entre les faux positifs et les faux négatifs sera un sujet délicat, et le niveau d’équilibre sera différent selon le type de contenus. Laisser passer la vidéo d’un acte terroriste du type Christchurch aura un coût très élevé pour la société, alors que laisser passer un morceau de musique protégé par le droit d’auteur sera a priori moins dommageable.
Les taux d’erreurs algorithmiques peuvent varier en fonction de la langue utilisée – un algorithme d’analyse de textes sera généralement plus performant en anglais – et peuvent également refléter les biais présents dans les données d’entraînement. Les algorithmes apprennent à partir des exemples de contenus retirés précédemment par les analystes humains. Ces analystes humains sont faillibles. Ils ont leur propre biais – biais culturels, linguistiques, ethniques, de genre – et commettent eux-aussi des erreurs d’appréciation qui seront reproduits ensuite par les algorithmes (6). Ainsi, il faut veiller non seulement au « bon » niveau de faux positifs et de faux négatifs selon le type de contenu, mais également vérifier que le niveau de perfor-mances de l’algorithme ne varie pas selon la couleur de la peau ou le sexe des personnes impliquées, selon la langue utilisée, ou selon le type de discours haineux (7). Ces multiples équilibres devraient être abordés dans un premier temps dans les études de risques systémiques conduites par les plateformes structurantes, en application de l’article 26 du futur règlement DSA en Europe. Ces études devront analyser l’impact des algorithmes d’identification et de retrait de contenus sur les droits fondamentaux. Ainsi, les plateformes devront proposer des solutions techniques et humaines pour concilier des objectifs – souvent contradictoires – liés à la mise en place d’un système de détection performant qui respecte en même temps la liberté d’expression, la protection des données personnelles et la protection contre les discriminations. Actuellement, le projet de règlement DSA prévoit que la Commission européenne sera le régulateur principal pour les plateformes structurantes. Celle-ci pourra émettre des recommandations relatives aux systèmes algorithmiques. Mais la manière de gérer les tensions entre la liberté d’expression et d’autres droits est avant tout une affaire nationale, dépendant du contexte, de l’histoire et de la culture de chaque pays (8).
En France, le CSA serait mieux placé que la Commission européenne pour évaluer les systèmes algorithmiques mis en place par les grandes plateformes pour analyser des contenus destinés au public français. Le paramétrage des algorithmes devra nécessairement refléter ces circonstances locales, et le contrôle de ces paramètres relèverait plus naturellement de la compétence du régulateur national. Un contrôle national de ces outils renforcerait en revanche le morcèlement des approches réglementaires entre Etats membres, et nécessiterait donc un système de coordination au niveau européen similaire à ce qui existe pour la régulation des télécoms et le RGPD. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

Europe : les plateformes numériques visées sont préoccupées par le projet de régulation du Net

Les GAFAM sont les premiers concernés par les deux textes législatifs proposés le 15 décembre 2020 par la Commission européenne. Un mois après la publication de ce « paquet numérique » (Digital Services Act et Digital Markets Act), Edition Multimédi@ revient sur les réactions des acteurs du Net.

« Le diable sera dans les détails », a lancé Siada El Ramly (photo), directrice générale de Dot Europe (ex-Edima), lobby des GAFAM et d’autres. De son côté, Christian Borggreen, directeur de la CCIA Europe, où l’on retrouve aussi les géants du Net, dit en substance : « La réglementation numérique ne doit pas empêcher l’innovation numérique ». Tandis que DigitalEurope (ex-Eicta), également porte-voix de la high-tech dirigé par Cecilia Bonefeld-Dahl, estime que tout est question d’« équilibre entre la protection des droits fondamentaux et la prévention des activités illégales et nuisibles en ligne ».

Régime de responsabilité limitée en question
La présentation des projets de loi Digital Services Act (DSA) et Digital Markets Act (DMA) par la Commission européenne le 15 décembre dernier n’a pas laissé les Big Tech indifférentes. Lors d’un séminaire en ligne organisé le 17 décembre dernier par Dot Europe, sa directrice Siada El Ramly a prévenu : « Si elle est élaborée et mise en œuvre de la bonne façon, la loi sur les services numériques – le DSA – pourrait offrir un cadre plus robuste pour la modération du contenu en ligne. Il reste cependant beaucoup de détails à régler et le processus en est encore à un stade précoce ». Et la directrice de Dot Europe basée à Bruxelles de rappeler : « Il existe déjà une législation sur le contenu en ligne au niveau national et européen et il sera crucial que le DSA travaille de manière cohérente avec toutes les règles déjà en place. Les principes de la directive (européenne) sur le commerce électronique demeurent une base solide et importante pour l’élaboration de futures règles et nous devrions nous appuyer sur ses fondements avec la loi sur les services numériques ». Entrée en vigueur il y a vingt ans maintenant, la fameuse directive dite « E-commerce » assure aux plateformes numériques et aux réseaux sociaux un statut protecteur d’hébergeur qui leur accorde une responsabilité limitée dans les contenus stockés, partagés et/ou diffusés par leurs millions d’utilisateurs. Ainsi, les GAFAM et les autres acteurs concernés ne peuvent être tenus pour responsables des informations et contenus exploités par internautes qui utilisent leurs plateformes numériques – à moins que ces dernières n’aient pris connaissance du caractère illicite de ces contenus illicites et/ou piratés mais ne les aient pas  promptement retirés ou rendus inaccessibles. « En janvier 2020, nos membres ont demandé à la Commission européenne d’introduire un nouveau cadre de responsabilité en ligne pour leur permettre de mieux lutter contre le contenu illégal en ligne et nous sommes encouragés de voir que certains des points que nous avons soulevés ont été pris en compte dans le projet de DSA », a indiqué Dot Europe dès le 15 décembre.
Une des autres préoccupations concerne la transparence exigée concernant les algorithmes utilisés par les plateformes numériques, lesquelles seront tenues de divulguer les paramètres utilisés par ces règles opératoires dont l’application permet de résoudre un problème énoncé, comme le classement de produits et ou de services dans les résultats de recherche. « Nous avons certaines préoccupations en matière de sécurité concernant la possibilité d’exiger que les plateformes fournissent un accès direct à leurs algorithmes, a expliqué Siada El Ramly. La transparence peut être obtenue par de nombreuses façons différentes et le saut pour potentiellement forcer les entreprises à exposer leurs informations exclusives peut être disproportionné ».
Les GAFAM auront l’obligation de donner aux autorités qui le demandent un accès à leurs algorithmes, comme l’avait justifié en octobre dernier Margrethe Vestager, viceprésidente exécutive de la Commission européenne, chargée de la Concurrence : « Nous ne pouvons pas laisser les décisions qui affectent l’avenir de notre démocratie être prises dans le secret de quelques conseils d’administration d’entreprises ». Intervenant lors d’un événement organisé par AlgorithmWatch (3), la Danoise a prévenu les grandes plateformes qu’elles devront fournir aux régulateurs demandeurs plus d’informations sur le fonctionnement de leurs algorithmes.

Trop de régulation tue l’innovation
L’organisation Dot Europe, qui représente les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que TikTok, Spotify, Snap, Twitter, eBay, Verizon Media, King, Airbnb, Expedia, Mozilla, Allegro, Etsy ou encore Yelp, ne se focalise pas seulement sur le DSA (4), axé sur les contenus (lutter contre la cyberhaine, la désinformation et tout contenu illicite), mais aussi sur le DMA (5) qui veut imposer à la dizaine de grandes plateformes numériques dites « systémiques » (dont les GAFAM) des contraintes antitrust et empêchant les abus de position dominante de certains écosystèmes. L’association américaine CCIA (Computer and Communications Industry Association) a, elle aussi, réagi dès le 15 décembre avec notamment un semblant de pointe d’ironie : « Nous espérons que les futures négociations viseront à faire de l’Union européenne un leader en matière d’innovation numérique, et pas seulement en matière de réglementation numérique ».

Des amendes jusqu’à 10% du chiffre d’affaires
Basée à Washington, la CCIA – vétérane de la high-tech (créée en 1972) – dispose aussi à Bruxelles d’un bureau qui veille au grain. « Une réglementation solide et fondée sur des données probantes jouera un rôle essentiel pour encourager l’innovation, les investissements et le choix des consommateurs en Europe », prévient Christian Borggreen, directeur de la CCIA Europe basée aussi à Bruxelles, tout en se « réjouiss[ant] à la perspective de travailler avec les décideurs politiques de l’Union européenne pour veiller à ce que les propositions atteignent les objectifs énoncés, afin que les Européens continuent de récolter tous les avantages des produits et services numériques ».
La CCIA, dont sont membres les GAFA (sauf Apple) aux côtés de Twitter, Pinterest, Rakuten, eBay, Uber et d’autres, relève que le projet de loi européen sur les marchés numériques – le DMA (6) – vise à cibler les services de base des « gatekeepers » numériques en restructurant leurs relations avec les utilisateurs commerciaux et en imposant de nouvelles modalités et obligations (lesquelles pourront évoluer et être étendues). Le DMA menace aussi de sanctionner ces grandes plateformes du Net en cas d’infraction à ces nouvelles règles européennes : « Des sanctions structurelles et comportementales [seront] imposées en cas de non-respect, y compris des amendes pouvant atteindre 10 % du chiffre d’affaires annuel global d’une entreprise ». Dans le même esprit, le projet de loi européen sur les services numériques – le DSA (7) – impose des obligations de réactivité raisonnable (due diligence obligations) aux plateformes en ligne. Il introduit également un régime spécifique pour les « très grandes plateformes en ligne » (à partir de 45 millions d’utilisateurs actifs dans l’Union européenne), qui devront se conformer à des obligations supplémentaires telles qu’en matière de transparence stricte et de déclaration, de vérifications annuelles, de divulgation des principaux paramètres utilisés dans leurs systèmes de recommandation (dont les algorithmes) et la nomination d’un agent de conformité. Là aussi la CCIA retient que les amendes peuvent atteindre 6% du chiffre d’affaires annuel en cas de non-conformité. « Nous appuyons les efforts visant à encourager l’innovation et une concurrence efficace. Nous espérons que la loi finale ciblera les comportements problématiques plutôt que la taille de l’entreprise », a déclaré Kayvan Hazemi-Jebelli, un ancien du cabinet d’avocats Hogan Lovells, conseil depuis plus d’un an de la CCIA à Bruxelles en matière concurrentielle et réglementaire. « Le DMA introduirait de nouvelles règles de définition du marché régissant les services de base des plateformes. Dans ces marchés numériques en évolution dynamique, le risque de législation contre-productive est élevé. Nous espérons que le résultat final sera bon pour les consommateurs de l’Union européenne, les utilisateurs commerciaux et l’écosystème numérique dans son ensemble », a-t-il fait valoir. Concernant le DSA, cette fois, la CCIA espère ce que les Européens continueront à bénéficier de tous les avantages économiques et sociaux des services numériques. « Toute nouvelle obligation doit être réalisable et proportionnée aux risques connus. La création d’un régime spécifique axé sur les “très grandes plateformes en ligne” risque de pousser par inadvertance le contenu et les produits illégaux vers les petits fournisseurs de services numériques », met en garde Victoria de Posson, directrice des affaires publiques de la CCIA Europe.
Quant à l’association DigitalEurope, également installée à Bruxelles et représentant les GAFAM ainsi que Samsung, Huawei, Sony, Nvidia ou encore Dropbox, elle plaide pour une réglementation de l’Internet qui soit « un équilibre entre la protection des droits fondamentaux comme la liberté d’expression et la vie privée, d’un côté, et la prévention des activités illégales et nuisibles en ligne, de l’autre ». Sa directrice générale, Cecilia Bonefeld-Dahl, appelle l’Union européenne à « exploiter au maximum les outils de concurrence existants avant d’envisager l’introduction de nouveaux mécanismes susceptibles d’entraver l’innovation et l’entrée sur le marché ».

Google se sent visé ; Facebook tacle Apple
Membre de ses trois lobbies européens, Google – la filiale d’Alphabet – a fait part de ses inquiétudes vis-à-vis du DSA et du DMA. « Nous sommes préoccupés par le fait que les propositions faites par la Commission européenne semblent cibler spécifiquement une poignée d’entreprises et rendre plus difficile le développement de nouveaux produits pour soutenir les petites entreprises en Europe », a déclaré Karan Bhatia, directeur des affaires publiques et réglementaires de Google. Un porte-parole de Facebook en a profité, quant à lui, pour s’en prendre à la marque à la pomme : « Nous espérons que le DMA fixera également des limites pour Apple. Apple contrôle tout un écosystème, d’un appareil à l’autre et utilise ce pouvoir pour nuire aux développeurs et aux consommateurs, ainsi qu’aux grandes plateformes comme Facebook ». Ambiance. @

Charles de Laubier