Abonnements payants de Facebook et Instagram en Europe : Meta se heurte aux exigences du RGPD

Pour Instagram ou Facebook sans publicités, il en coûte désormais aux Européens 9,99 euros par mois sur le Web et même 12,99 euros sur application mobile. C’est cher payé pour ne plus être ciblé dans sa vie privée. Et le consentement « libre » des utilisateurs exigé par le RGPD est-il respecté ?

Médias sociaux : l’Unesco tiendra sa première Conférence mondiale des régulateurs en juin 2024

L’agence de l’ONU pour l’éducation, la science et la culture organisera mi-2024 sa toute première Conférence mondiale des régulateurs. Au moment où les plateformes numériques en Europe font la chasse aux « contenus illicites », l’Unesco veut des garde-fous pour la liberté d’expression. Audrey Azoulay (photo), directrice générale de l’Unesco, l’a annoncé le 6 novembre dernier : l’agence des Nations unies pour l’éducation, la science et la culture organisera mi-2024 – en juin, selon les informations de Edition Multimédi@ – sa toute première Conférence mondiale des régulateurs, en vue de mettre en œuvre les mesures préconisées pour « mettre fin à ce fléau » qu’est « l’intensification de la désinformation et des discours de haine en ligne » sur les médias sociaux. Ce prochain rendez-vous concernera non seulement les gouvernements et les autorités de régulation, mais aussi la société civile et les plateformes numériques. Préserver la liberté d’expression « Il y a une exigence cardinale qui a guidé nos travaux : celle de préserver toujours la liberté d’expression et tous les autres droits humains. Contraindre ou brider la parole serait une terrible solution. Des médias et des outils d’information libres, de qualité et indépendants, constituent la meilleure réponse sur le long terme à la désinformation », a mis en garde Audrey Azoulay. L’Unesco, qui revendique son rôle « pour la promotion et la protection de la liberté d’expression et de l’accès à l’information », a présenté à Paris – où est basé son siège social – les « Principes pour la gouvernance des plateformes numériques », détaillés dans un document d’une soixantaine de pages (1). Ils sont le fruit d’une consultation multipartite engagée en septembre 2022 et au cours de trois consultations ouvertes qui ont eu lieu respectivement entre décembre 2022 et janvier 2023, entre février et mars 2023 et entre avril et juin 2023, soit au total 1.540 contributions provenant de 134 pays et ayant généré plus de 10.000 commentaires. « Préserver la liberté d’expression et le droit d’accès à l’information, tout en luttant contre la désinformation, les discours de haine et les théories du complot, nécessite une approche multipartite », justifie l’Unesco, qui a aussi tenu compte des conclusions de sa conférence mondiale de février 2023 consacrée à la régulation des plateformes numériques (2). La protection de la liberté d’expression dans le monde est la première préoccupation de l’Unesco, alors que dans les vingt-sept Etats membres de l’Union européenne (UE) les très grandes plateformes en ligne et très grands moteurs de recherche en ligne – au nombre de dix-neuf (3) – doivent se conformer depuis le 25 août au règlement sur les services numériques qui leur impose de lutter contre les « contenus illicites » (fausses informations, discours haineux, messages à caractère terroriste, …). Selon certaines organisations, ce Digital Services Act (DSA) – applicable à toutes les plateformes numériques à partir du 17 février 2024 – présentent une menace pour la liberté d’expression des Européens (4) – notamment en cas de censure abusive, voire d’interprétation contestée de la part du commissaire au Marché intérieur, Thierry Breton (5). Si l’Unesco ne mentionne pas dans son document les avancées de l’UE dans ce domaine, elle n’en met pas moins en garde les Etats du monde entier contre les atteintes à la liberté d’expression et aux droits humains. « Les Principes [pour la gouvernance des plateformes numériques] commencent par décrire l’environnement propice nécessaire pour sauvegarder la liberté d’expression, l’accès à l’information et d’autres droits humains, tout en garantissant un environnement ouvert, sûr et sécurisé pour les utilisateurs et les non-utilisateurs des plateformes numériques », explique l’Unesco dans son document. Sont ainsi définies les responsabilités des différentes parties prenantes, et ce n’est pas un hasard si celles-ci commencent par « les devoirs des Etats de respecter, protéger et appliquer les droits humains » : Les Etats doivent respecter et promouvoir les droits humains, y compris le droit à la liberté d’expression et le droit d’accès à l’information. Les restrictions à la liberté d’expression ne sont admissibles que dans les conditions prévues aux articles 19 et 20 du PIDCP [Pacte international relatif aux droits civils et politiques (6), adopté par les Nations Unies en 1966 et entré en vigueur en 1976, ndlr]. Les Etats ne doivent ni censurer… Les Etats ont des obligations positives de protéger les droits humains contre les ingérences injustifiées des acteurs privés, y compris les plateformes numériques, car ils ont la responsabilité de créer un environnement réglementaire qui facilite le respect des droits humains par les plateformes numériques et de donner des orientations aux plateformes numériques sur leurs responsabilités. Les Etats sont tenus d’être pleinement transparents et responsables quant aux exigences qu’ils imposent aux plateformes numériques pour assurer la sécurité et la prévisibilité juridiques, qui sont des conditions préalables essentielles à l’Etat de droit. Plus précisément, les Etats doivent notamment : garantir les droits des utilisateurs des plateformes numériques à la liberté d’expression, à l’accès à l’information, à l’égalité et à la non-discrimination, et protéger les droits à la vie privée, à la protection des données, d’association et de participation publique des utilisateurs ; veiller à ce que toute restriction imposée aux plateformes respecte systématiquement le seuil élevé fixé pour les restrictions à la liberté d’expression, sur la base de l’application des Articles 19 et 20 du PIDCP. …ni couper le réseau Internet Les Etats doivent s’abstenir, notamment : d’imposer des mesures qui empêchent ou perturbent l’accès général à la diffusion de l’information, en ligne et hors ligne, y compris les coupures d’Internet ; d’imposer une obligation générale de surveillance ou, pour les plateformes numériques, l’obligation générale de prendre des mesures proactives en relation avec les contenus considérés comme illégaux dans une juridiction spécifique ou avec les contenus qui peuvent être restreints de manière admissible en vertu des normes et de la législation internationales en matière de droits humains. L’année 2024, au cours de laquelle se tiendra la première Conférence mondiale des régulateurs organisée par l’Unesco, sera d’autant plus décisive pour la régulation des plateformes numérique que 2 milliards de personnes sur la planète seront appelées à voter lors d’une cinquantaine d’élections dans plusieurs pays. Or, selon une étude réalisée l’été dernier par l’institut Ipsos pour l’agence « éducation, science et culture » de l’ONU, 87 % des personnes interrogées (sur un total de 8.000 dans 16 pays où se dérouleront une élection en 2024) craignent que la propagation de fausses informations en ligne ait un impact majeur sur les élections dans leur pays, et autant (87 % également) en appelle à une meilleure régulation des médias sociaux. Les Facebook, YouTube, TikTok et autres Snapchat sont devenus dans de nombreux pays « la première source d’information des citoyens, en même temps que le principal vecteur de désinformation et de manipulation », relève la directrice générale de l’Unesco. La prochaine année électorale débutera avec les élections parlementaires au Bengladesh en janvier 2024, suivies par l’élection présidentielle au Sénégal en février 2024 et bien d’autres rendez-vous électoraux dans d’autres pays (El Salvador, Indonésie, Inde, Afrique du Sud, République dominicaine, Belgique, Mexique, Croatie, Autriche, Roumanie, Ghana), et se terminera avec l’élection présidentielle en Algérie en décembre 2024, précédée de l’élection présidentielle aux Etats-Unis en novembre 2024. « La régulation des réseaux sociaux constitue d’abord un enjeu démocratique. Bien sûr, la libération de la parole et de la participation démocratique par le numérique a représenté d’immenses progrès à certains égards, a expliqué Audrey Azoulay. Mais ces réseaux sociaux ont aussi accéléré et amplifié, parfois délibérément et à une échelle quasi-industrielle, la diffusion de fausses informations, voire de discours de haine et de théories complotistes – et ceux-ci tendent à se renforcer mutuellement ». Tout en appelant à la « modération » des contenus illicites sur Internet, elle appelle aussi à la « modération » de la régulation pour préserver la liberté d’expression. « Je voudrais souligner une exigence essentielle, qui a servi de boussole pour nous : la préservation de la liberté d’expression et de tous les autres droits de l’homme. Limiter ou restreindre la parole serait une fausse solution – une solution terrible, en fait – pour un problème très réel », a prévenu la directrice générale de l’Unesco, dont le second mandat s’achèvera en novembre 2025. Les gouvernements et les autorités de régulation auront-ils la main lourde dans la chasse aux fake news ? C’est à craindre, alors que les pouvoirs publics (gouvernements et régulateurs justement) sont considérés – par le plus grand nombre de personnes interrogées dans le monde par Ipsos pour l’Unesco (29 %) – « comme les principaux responsables de l’identification et de la lutte contre la désinformation en ligne ». Et ce, devant les internautes eux-mêmes (23 %), les nouveaux médias (20 %), les médias sociaux (19 %), les organisations internationales (5 %) et les politiciens (4 %). En outre, à l’affirmation selon laquelle « les organisations internationales comme les Nations unies ou l’Unesco ont un rôle majeur à jouer dans la lutte contre la désinformation et les “fake news” », 75 % des sondés disent « Oui » (7). La recommandation sur l’IA a deux ans L’Unesco, dont le mandat confié par l’ONU est aussi de défendre et de promouvoir la liberté d’expression, l’indépendance et le pluralisme des médias (régulation globale des médias comme la radio ou la télévision), s’affirme de plus en plus dans la régulation d’Internet et l’éthique des nouvelles technologies. Elle a ainsi émis une recommandation sur l’éthique de l’intelligence artificielle, adoptée en novembre 2021 par les 193 Etats membres, pour fixer un cadre humaniste aux développements de cette innovation qui a depuis explosée avec les IA génératives (8). Tandis que la Convention de l’Unesco de 2005 sur la protection et la promotion de la diversité des expressions culturelles (9) intègre de plus en plus de directives opérationnelles élargies au numérique. @

Charles de Laubier

Guerre israélo-palestinienne : baptême du feu pour le Digital Services Act au sein des Vingt-sept

Depuis le déclenchement le 7 octobre par le Hamas de la nouvelle guerre en Israël/Palestine, les réseaux sociaux dans les Vingt-sept sont sous haute surveillance, avec des rappels à l’ordre de la part de la Commission européenne qui entend lutter contre les « contenus illicites » avec son DSA.

« Nous nous trouvons dans une période marquée par le terrorisme et la guerre aux portes de l’UE. Cela s’accompagne d’une guerre de l’information, d’une vague de désinformation et de manipulation et d’ingérence de l’information étrangère. Nous l’avons vu clairement avec le Kremlin après l’agression russe contre l’Ukraine. Nous le voyons maintenant après les actes barbares du Hamas. Nous devons sécuriser notre espace d’information. C’est de la plus grande urgence », a prévenu le 18 octobre à Strasbourg la vice-présidente de la Commission européenne Véra Jourová (photo), en charge des valeurs et de la transparence.

« Plateformes, outils pour les terroristes » Et la commissaire européenne tchèque de mettre en garde les Twitter, Facebook et autres YouTube : « Nous ne pouvons tout simplement pas accepter ce que nous voyons actuellement : les plateformes en ligne deviennent un outil pour les terroristes, un outil pour diffuser du contenu illégal antisémite et violent. L’espace d’information doit être sûr pour les citoyens européens. L’incitation au terrorisme, le discours de haine, illégal, la louange des meurtres, la désinformation peuvent déclencher la violence dans la vie réelle ». Pourtant, l’arsenal juridique de l’Union européenne, avec lourdes sanctions pécuniaires maximales à la clé en cas de non-respect des obligations, est maintenant bien fourni. Entre le règlement européen du 29 avril 2021 de lutte contre la diffusion des contenus à caractère terroriste en ligne ou « Anti-Terrorism Online Act » (1), d’une part, et le règlement européen du 19 octobre 2022 concernant le marché unique des services numériques ou « Digital Services Act » (2), d’autre part, les réseaux sociaux et les plateformes de partage ont deux épées de Damoclès au-dessus de leur tête. Le « ATOA » et le « DSA » les menacent de sanctions financières en cas d’infractions à ces deux législations contraignantes, ou autrement dit si elles ne coopèrent pas avec les autorités compétentes des Etats membres. Ces amendes peuvent aller respectivement « jusqu’à 4 % du chiffre d’affaires mondial du fournisseur de services d’hébergement pour l’exercice précédent » (son article 18) et « jusqu’à concurrence de 6 % du chiffre d’affaires mondial annuel réalisé au cours de l’exercice précédent » (son article 74). L’ATOA, applicable dans toute l’Union européenne depuis le 7 juin 2022, oblige que tous les « fournisseurs de services d’hébergement » (réseaux sociaux, plateformes de partage vidéo ou encore moteurs de recherche, indépendamment du pays de leur établissement principal) « retirent les contenus à caractère terroriste ou bloquent l’accès à ces contenus dans tous les Etats membres dès que possible et, en tout état de cause, dans un délai d’une heure à compter de la réception de l’injonction de retrait » (article 3). Un formulaire est même indexé à l’ATOA – publié au Journal Officiel de l’UE daté du 17 mai 2021 – pour que l’autorité compétent d’émission de l’injonction de retrait du (ou des) contenu(s) en ligne à caractère terroriste puisse(nt) être supprimé(s) – dans l’heure. De plus, le destinataire (la plateforme numérique concernée) « conserve le contenu et les données connexes qui ont été retirés ou auxquels l’accès a été bloqué, pendant une période de six mois ou davantage à la demande des autorités ou juridictions compétentes » (article 6). Malgré cette obligation de supprimer ou de bloquer dans l’heure les contenus terroristes en ligne notifiés, la Commission européenne estime que ce règlement ATOA n’empêche pas toujours ces contenus illicites de circuler sur les réseaux sociaux après les faits de terrorisme et les cas d’apologie du terrorisme. « Nous avons vu récemment, également après le tragique attentat terroriste en Belgique [lundi 16 octobre 2023 où des vidéos ont été diffusées et partagées sur les réseaux sociaux pendant plusieurs heures, ndlr], que des efforts sont nécessaires pour rendre cette loi plus efficace. Avec le vice-président Schinas [Margaritis Schinas, commissaire européen en charge de la promotion de notre mode de vie européen, ndlr] et le commissaire Johansson [Ylva Johansson, chargé des affaires intérieures, ndlr], nous nous entretenons avec les Etats membres, Europol et Interpol pour améliorer les mécanismes de notification. Je suis également en contact avec les plateformes sur cette question », a annoncé à Strasbourg Véra Jourová (3). « Obligations de diligence » et rapport annuel Le DSA, applicable dans toute l’Union européenne à partir du 17 février 2024, est néanmoins applicable depuis le 16 novembre 2022 aux « très grandes plateformes en ligne et très grands moteurs de recherche en ligne » (article 33), dont la Commission européenne a officiellement dressé la liste le 25 avril 2023. Ce « Big 19 », comme Edition Multimédi@ a surnommé (4) ces grands acteurs du Net (Alibaba, AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing, et Google Search), ont eu jusqu’au 25 août dernier pour se mettre en règle. Ce « Big 19 » a une « obligation de diligence » (chapitre III de ce règlement) vis-à-vis des « contenus illicites » qui sont signalés à ces très grandes plateformes numériques (moteurs de recherche compris), lesquelles doivent les supprimer ou les bloquer sans tarder. En outre, chacune d’elle s’apprête à fournir à la Commission européenne leur premier rapport d’« évaluation des risques », notamment « tout risque systémique » au sein de l’UE (article 34) – puis après un rapport « au moins une fois par an ». Liberté d’expression, victime collatérale ? Le problème est que le DSA donne une « définition large » (son considérant 12) de la notion de « contenus illicites ». Chaque géant du Net est tenu ainsi de lutter contre « la diffusion de contenus illicites en ligne et contre les risques pour la société que la diffusion d’informations trompeuses ou d’autres contenus peuvent produire ». L’extension du domaine de la lutte se le dispute au manque de délimitation claire du champ d’intervention de la loi, au risque de porter atteinte à la liberté d’expression des Européens (5). « Nous utilisons nos structures uniques pour lutter contre la montée de la haine, de la violence et du contenu illégal en ligne. Il n’y a pas de solution miracle, il n’y a pas un seul outil pour s’attaquer à tous les problèmes. Aussi, parce que la liberté d’expression doit, est et sera protégée en ligne et hors ligne », a tenu tout de même à rassurer Véra Jourová. D’autant que cette bataille contre ces « contenus illicites », qui ne sont pas forcément générés par des criminels et des terroristes (loin s’en faut) ne relève pas, la plupart du temps, de la décision d’un juge mais d’une autorégulation privée sans qu’il y ait de véritable garde-fou judiciaire. « Le DSA travaille main dans la main avec notre code anti désinformation (6) qui est un outil plus agile qui nous permet de réagir rapidement aux risques et aux crises en coopération avec la société civile et les plateformes, a précisé Véra Jourová. Nous utilisons une structure unique pour prendre rapidement les mesures nécessaires et améliorer les situations. […] J’ai ainsi demandé à l’Observatoire européen indépendant des médias numériques [l’Edmo, financé par Bruxelles, ndlr] de faciliter le travail au niveau opérationnel avec la communauté et les plateformes d’experts ». Cet organisme de la société civile, l’European Digital Media Observatory (Edmo), a été créé en juin 2020 par l’Institut universitaire européen de Florence (Italie), le Datalab de l’université d’Aarhus à Athènes (Grèce), et Pagella Politica, un site italien dédié au fact-checking des déclarations politiques (7). Le 17 octobre, le jour-même du bombardement de l’hôpital Al-Ahli Arab au sujet duquel chaque partie du conflit israélo-palestinien se rejette la faute, l’Edmo a publié une « analyse préliminaire de la désinformation liée au conflit entre Israël et le Hamas », dont la Commission européenne a aussitôt pris connaissance. Il en ressort que « l’attaque surprise du Hamas contre des villes israéliennes à la frontière avec Gaza le matin du samedi 7 octobre 2023, ainsi que la réaction militaire suivante d’Israël, ont provoqué une vague considérable de désinformation sur toutes les grandes plateformes de médias sociaux » (8). Le commissaire européen Thierry Breton (photo ci-dessous) a immédiatement réagi en faisant savoir le 18 octobre qu’il adressait quatre lettres aux dirigeants respectifs de X – Elon Musk (9) –, Meta (Facebook, Instagram), TikTok et YouTube (Google) pour les rappeler à l’ordre et leur rappeler que ces très grandes plateformes doivent respecter leurs obligations « DSA » depuis le 25 août. « Nous ne laisserons pas la terreur & la #désinformation nous diviser ou miner notre démocratie », a tweeté Thierry Breton (10) après son intervention à ce sujet au Parlement européen. Et le 19 octobre, la Commission européenne a ouvert trois enquêtes (demandes formelles d’informations) à l’encontre de X, Meta et TikTok, tout en demandant aux Etats membres « d’accélérer la mise en place de la gouvernance prévue par le DSA ». Et ce, sans attendre « le 17 février 2024 au plus tard » pour désigner leur « coordinateur pour les services numériques » (Digital Services Coordinator), une autorité indépendante chargée de contrôler le respect du règlement par les services en ligne établis sur leur territoire (11). A savoir pour la France : l’Arcom (12). Mais des voix de la société civile, plus soucieuses de la liberté d’expression et de droits fondamentaux, se sont élevées contre la pression exercée par la Commission européenne. « A l’attention du commissaire européen chargé du marché intérieur Thierry Breton, nous, les organisations soussignées [une trentaine d’ONG, ndlr], vous écrivons en réponse à quatre lettres que vous avez récemment adressées à Meta, X, TikTok, et plus récemment, YouTube […] dans le contexte des conflits […] dans la bande de Gaza et en Israël », a par exemple écrit Accessnow dans une lettre ouverte datée du 18 octobre (13). Thierry Breton en fait trop, selon 30 ONG Et cette association internationale basée à New-York de mettre en garde Thierry Breton : « Nous sommes préoccupés par l’interprétation de la loi présentée dans ces lettres. Premièrement, les lettres établissent une fausse équivalence entre le traitement du contenu illicites du DSA et la “désinformation” […] pouvant présenter un risque important pour les droits de la personne et le discours public. […] Deuxièmement, le DSA ne prévoit pas de délais pour les suppressions de contenu […]. Troisièmement, le DSA n’impose pas aux fournisseurs de services l’obligation d’appliquer [leurs] propres politiques de façon uniforme et diligente ». La démocratie est prise en étaux entre l’ATOA et le DSA. @

Charles de Laubier

Chrome, Safari, Edge, Firefox, … : les navigateurs Internet pourraient filtrer, voire censurer

Le projet de loi « Sécuriser et réguler l’espace numérique » sera examiné à l’Assemblée nationale par une « commission spéciale » qui se réunira du 19 au 22 septembre. Parmi les mesures controversées : obliger les navigateurs web à faire la chasse aux contenus illicites, par filtrage ou blocage. Les navigateurs Chrome de Google, Safari d’Apple, Edge de Microsoft ou encore Firefox de Mozilla sont appelés à lutter contre les sites web et les contenus illicites, au risque de devenir des censeurs de l’Internet. L’article 6 du projet de loi – du gouvernement donc (1) – visant à sécuriser et réguler l’espace numérique (« SREN »). Le texte dans son ensemble a déjà été adopté en première lecture par le Sénat le 5 juillet dernier ; il doit maintenant passer par les fourches caudines d’une « commission spéciale » créée à l’Assemblée nationale. Les réunions pour l’examiner dans ce cadre se tiendront du 19 au 22 septembre (2). Les navigateurs avertissent voire bloquent « L’autorité administrative notifie l’adresse électronique du service concerné aux fournisseurs de navigateurs Internet […], aux fins de la mise en œuvre de mesures conservatoires » prévoit l’article 6 du projet SREN. Et de préciser : « La personne destinataire d’une notification prend sans délai, à titre conservatoire, toute mesure utile consistant à afficher un message avertissant l’utilisateur du risque de préjudice encouru en cas d’accès à cette adresse. Ce message est clair, lisible, unique et compréhensible et permet aux utilisateurs d’accéder au site Internet officiel du groupement d’intérêt public pour le dispositif national d’assistance aux victimes d’actes de cyber malveillance ». Tout en fixant un délai durant lequel apparaîtra le message d’avertissement : « Cette mesure conservatoire est mise en œuvre pendant une durée de sept jours ». De deux choses l’une, alors : soit l’éditeur du service en cause cesse de mettre en ligne le contenu illicite, auquel cas il est mis fin à la mesure conservatoire, soit l’infraction en ligne continue, auquel cas « l’autorité administrative peut, par une décision motivée, enjoindre aux fournisseurs de navigateurs Internet […], aux fournisseurs de services d’accès à internet ou aux fournisseurs de systèmes de résolution de noms de domaine [DNS, ndlr] de prendre sans délai toute mesure utile destinée à empêcher l’accès à l’adresse de ce service pour une durée maximale de trois mois ». Pendant ces trois mois de blocage, destiné à empêcher l’accès à l’adresse du service incriminé, les internautes seront redirigés vers « une page d’information de l’autorité administrative compétente indiquant les motifs de la mesure de blocage ». Mais le blocage peut être prolongée « de six mois au plus » sur avis conforme de la personnalité qualifiée désignée au sein de la Commission nationale pour l’informatique et les libertés (Cnil). Et si cela ne suffit pas, « une durée supplémentaire de six mois peut être prescrite selon la même procédure ». Il est en outre précisé que l’autorité administrative établit « une liste des adresses des services de communication au public en ligne dont l’accès a été empêché » et vérifie cette « liste noire » à l’approche de l’expiration de la durée des trois mois de blocage. Dans son rapport daté du 27 juin 2023, la commission du Sénat fait remarquer que « le dispositif de filtrage proposé s’inspire à la fois des dispositifs de filtrage déjà existants, des dispositifs mis en œuvre à l’étranger, mais aussi des solutions gratuites déjà mises en œuvre par les principaux navigateurs sur Internet depuis plusieurs années, en particulier l’outil Safe Browsing de Google et Smart Screen de Microsoft, qui sont d’ailleurs utilisables sur d’autres navigateurs tels que Mozilla Firefox ». Pourtant, elle reconnaît que « le dispositif proposé va toutefois plus loin que ce que le marché offre actuellement, en permettant le blocage de l’accès aux sites frauduleux » (3). Pour la fondation Mozilla justement, éditrice du navigateur Firefox, c’est là que le bât blesse selon elle. Ces mesures présentent un risque de censure pour Internet, non seulement en France mais aussi ailleurs. « Obliger les navigateurs à créer des fonctionnalités pour bloquer des sites web créera un précédent inquiétant à l’échelle mondiale », explique à Edition Multimédi@ Tasos Stampelos (photo ci-dessus), responsable des politiques publiques et des relations gouvernementales de Mozilla en Europe. Le « filtre anti-arnaque » de Macron « Car, poursuit-il, de telles fonctionnalités pourraient être utilisées par des régimes autoritaires pour restreindre les droits fondamentaux, les libertés publiques et imposer une censure sur les sites web auxquels les utilisateurs voudraient accéder ». La fondation Mozilla a en outre lancé en ligne, le 17 août dernier, une pétition (4) « pour empêcher la France d’obliger les navigateurs comme Mozilla Firefox à censurer des sites web ». Elle a déjà recueilli « plus de 50.000 signatures », nous indique Tasos Stampelos. Au Sénat, il était intervenu lors de la table ronde « Navigateurs Internet » réunie avant l’été par la commission sénatoriale, où était aussi présent Sylvestre Ledru, directeur de l’ingénierie et responsable de Mozilla en France. Google (Chrome) et Apple (Safari) y participaient également. Selon l’éditeur de Firefox, la loi poussée par le gouvernement français – lequel a engagé la procédure accélérée – « pourrait menacer la liberté sur Internet », en obligeant les navigateurs à bloquer des sites web directement au niveau du navigateur. « Cette mesure créerait un dangereux précédent et servirait de modèle à d’autres gouvernements pour, à leur tour, transformer les navigateurs en outils de censure gouvernementale », craint-elle. Mozilla contre le risque de « dystopie » L’article 6 est au cœur du « filtre anti-arnaque » promis par le président de la République au printemps 2022, lorsque Emmanuel Macron était candidat à sa propre succession : « Un filtre anti arnaques [qui] avertira en temps réel tous les usagers d’Internet avant qu’ils ne se rendent sur un site potentiellement piégé ». On y est. Dans un post sur le blog de Mozilla publié le 27 juin 2023, Sylvestre Ledru (photo ci-contre) estime que « la proposition française de bloquer les sites web via le navigateur nuira gravement à l’Internet ouvert mondial ». Ce texte de loi, s’il devait être adopté, « serait un désastre pour un Internet libre et serait disproportionnée par rapport aux objectifs du projet de loi, à savoir la lutte contre la fraude ». Pire, selon la fondation Mozilla : « La France s’apprête à obliger les créateurs de navigateurs à mettre en œuvre une fonctionnalité technique relevant de la dystopie », à savoir, d’après le Larousse, une « société imaginaire régie par un pouvoir totalitaire ou une idéologie néfaste ». Mozilla affirme en outre que « cette mesure fournira aux gouvernements autoritaires un moyen de minimiser l’efficacité des outils qui peuvent être utilisés pour contourner la censure », comme les VPN (réseaux privés virtuels) ou les « proxy ». La France entre, selon la fondation de Firefox, dans « un terrain inconnu » et crée « un précédent mondial ». Sylvestre Ledru rappelle que « même les régimes les plus répressifs dans le monde préfèrent jusqu’à présent bloquer les sites web en amont du réseau (fournisseurs d’accès à Internet, etc.) » plutôt que d’ordonner aux éditeurs de navigateur du Net de bloquer ou censurer (c’est selon) les sites indésirables. Pour éviter d’en arriver là, « il serait plus judicieux de tirer parti des outils de protection existants contre les logiciels malveillants et l‘hameçonnage (phishing) plutôt que de les remplacer par des listes de blocage de sites web imposées par le gouvernement » (5). La fondation Mozilla rappelle que « les deux systèmes de protection contre les logiciels malveillants et l’hameçonnage les plus utilisés dans l’industrie sont Safe Browsing de Google et Smart Screen de Microsoft, Mozilla (ainsi qu’Apple, Brave et bien d’autres) utilisant Safe Browsing de Google ». Safe Browsing, qui couvre les logiciels malveillants, les logiciels indésirables et l’ingénierie sociale (hameçonnage et autres sites trompeurs), existe depuis au moins 2005 et protègerait actuellement près de la moitié de la population mondiale en ligne sur divers appareils et logiciels. Firefox utilise l’offre Safe Browsing de Google depuis 2007 et dispose d’une implémentation unique qui protège la vie privée des utilisateurs tout en les empêchant d’être victimes de logiciels malveillants et d’hameçonnage. Ce paramètre peut également être désactivé par les utilisateurs à tout moment, ce qui leur permet de garder le contrôle de leur expérience sur le Web. Dans le cadre de son audition pour le rapport du Sénat, Benoît Tabaka, secrétaire général de Google France, a expliqué que Safe Browsing utilise l’intelligence artificielle et se base sur les analyses menées par les équipes du géant du Net. « Cette interface de programmation d’application (API) affiche les informations dans les navigateurs comme Safari, Firefox ou Google Chrome, mais aussi dans les navigateurs internes de certaines applications. Nos équipes travaillent aujourd’hui sur l’articulation entre l’outil et le nouveau cadre juridique français, en sachant qu’un blocage via Safe Browsing serait par nature mondial », avait-il indiqué aux sénateurs. La France outrepasse les DSA et DMA Mettre à contribution obligatoire les navigateurs Internet dans la lutte contre les contenus illicites outrepasse les dispositions des deux règlements européens DSA et DMA, lesquels, assure Tasos Stampelos, « ne prévoient pas d’obligations pour les navigateurs web en matière de modération de contenu ». Selon lui, « l’article 6 du projet SREN va trop loin et crée directement une incohérence avec la législation européenne ». Le 2 août, le commissaire européen Thierry Breton, chargé du marché intérieur, a mis en garde la France : « L’effet direct des règlements de l’UE rend toute transposition nationale inutile et […] les Etats membres devraient s’abstenir d’adopter des législations nationales qui feraient double emploi » (6). Il a indiqué aussi que « les autorités françaises n’ont que partiellement notifié leur projet de loi » et « l’appréciation de sa compatibilité avec le droit de l’Union est en cours ». @

Charles de Laubier

Le Digital Services Act (DSA) présente un vrai risque pour la liberté d’expression des Européens

Les 19 très grandes plateformes Internet en Europe avaient quatre mois, après avoir été désignées comme telles le 25 avril 2023 par la Commission européenne, pour se mettre en règle avec la législation sur les services numériques (DSA). La liberté d’expression sera-t-elle la victime collatérale ? La liberté d’expression risque gros en Europe depuis le 25 août 2023, date à laquelle les 19 très grandes plateformes numériques – Alibaba, AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing, et Google Search – doivent appliquer à la lettre le Digital Services Act (DSA), sous peine d’être sanctionnées financièrement jusqu’à 6 % de leur chiffre d’affaires mondial. « Définition large » des « contenus illicites » Cette épée de Damoclès suspendue au-dessus de la tête de ces 19 géants du Net, dépassant chacun plus de 45 millions d’utilisateurs actifs par mois (soit l’équivalent de 10 % de la population de l’Union européenne), pourrait les pousser à faire de l’excès de zèle. Et ce, pour ne pas prendre le risque d’être hors des clous du DSA et de se voir infliger une sanction pécuniaire. Entre leur désignation le 25 avril 2023 comme « Very large Online Platforms » (VLOP) par la Commission « von der Leyen » (photo) et leur mise en conformité avec la législation sur les services numériques, les dix-sept très grandes plateformes et les deux grands moteurs de recherche avaient un délai de quatre mois pour se préparer. Depuis le 25 août 2023, soit moins d’un an après la publication du règlement au Journal officiel de l’Union européenne (1), le « Big 19 » est censé agir comme un seul homme pour réguler en Europe une grande partie de l’Internet relevant de leurs activités (2). Le DSA les oblige désormais à lutter contre « la diffusion de contenus illicites en ligne et contre les risques pour la société que la diffusion d’informations trompeuses ou d’autres contenus peuvent produire ». Vaste et flou à la fois. Le règlement européen donne en effet à la notion de « contenus illicites » une « définition large » (3). Elle couvre ainsi « les informations relatives aux contenus, produits, services et activités illégaux » ainsi que « des informations, quelle que soit leur forme, qui, en vertu du droit applicable, sont soit ellesmêmes illicites, comme les discours haineux illégaux ou les contenus à caractère terroriste et les contenus discriminatoires illégaux, soit rendues illicites par les règles applicables en raison du fait qu’elles se rapportent à des activités illégales ». Et le DSA de donner des exemples d’« activités illégales » : partage d’images représentant des abus sexuels commis sur des enfants, partage illégal d’images privées sans consentement, harcèlement en ligne, vente de produits non conformes ou contrefaits, vente de produits ou de la fourniture de services en violation du droit en matière de protection des consommateurs, utilisation non autorisée de matériel protégé par le droit d’auteur, offre illégale de services de logement ou vente illégale d’animaux vivants. « En revanche, précise néanmoins le DSA, la vidéo d’un témoin oculaire d’une infraction pénale potentielle ne devrait pas être considérée comme constituant un contenu illicite simplement parce qu’elle met en scène un acte illégal, lorsque l’enregistrement ou la diffusion au public d’une telle vidéo n’est pas illégal ». Pour lutter contre les contenus illicites, et ils sont nombreux, les grandes plateformes du Net doivent assurer – elles-mêmes ou par un intermédiaire, de façon automatisées ou pas – une « modération des contenus », à savoir : « détecter et identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales », « lutter contre ces contenus ou ces informations, y compris les mesures prises qui ont une incidence sur la disponibilité, la visibilité et l’accessibilité de ces contenus ou ces informations ». La modération de contenus illicites peut consister en leur « rétrogradation », leur « démonétisation », leur « accès impossible » ou leur « retrait », voire en procédant à « la suppression ou la suspension du compte d’un destinataire » (4). Toutes ces restrictions possibles doivent être stipulées dans les conditions générales d’utilisation de la grande plateforme numérique, renseignements comprenant « des informations sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain » (5). Responsabilité limitée et injonctions Si le DSA conserve le cadre de l’« exemption de responsabilité » des « fournisseurs de services intermédiaires » (statut d’hébergeur) telle qu’édictée par la directive européenne « E-commerce » de 2000 (6), cette « sécurité juridique » tombe dès lors que la plateforme numérique « a effectivement connaissance ou conscience d’une activité illégale ou d’un contenu illicite », et qu’elle doit de ce fait « agir rapidement pour retirer ce contenu ou rendre l’accès à ce contenu impossible » (7). Les exemptions de responsabilité sont réaffirmées par le DSA, lequel précise bien qu’elles n’empêchent pas de pouvoir aussi « procéder à des injonctions de différents types à l’encontre des fournisseurs de services intermédiaires », ces injonctions pouvant émaner « de juridictions ou d’autorités administratives » pour exiger « qu’il soit mis fin à toute infraction ou que l’on prévienne toute infraction, y compris en retirant les contenus illicites spécifiés dans ces injonctions, ou en rendant impossible l’accès à ces contenus » (8). C’est en cela que le DSA modifie la fameuse directive « E-commerce ». La liberté d’expression menacée Les Européens risquent-ils d’être les grands perdants en termes de liberté d’expression sur Internet ? Garantis par la Charte des droits fondamentaux de l’Union européenne (9), la liberté d’expression et d’information, la liberté d’entreprise, le droit à la non-discrimination et la garantie d’un niveau élevé de protection des consommateurs le sont aussi par le DSA qui y fait référence à de nombreuses reprises (10). « Les fournisseurs de très grandes plateformes en ligne devraient, par exemple, en particulier, tenir dûment compte de la liberté d’expression et d’information, notamment la liberté et le pluralisme des médias », stipule notamment le DSA (11). « Toute mesure prise par un fournisseur de services d’hébergement à la suite de la réception d’une notification devrait être strictement ciblée [sur le contenu illicite, ndlr], sans porter indûment atteinte à la liberté d’expression et d’information des destinataires du service », est-il ajouté (12). Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne sont tenus d’« éviter des restrictions inutiles à l’utilisation de leur service, compte devant dûment être tenu des effets négatifs potentiels sur les droits fondamentaux » et « accorder une attention particulière aux répercussions sur la liberté d’expression » (13). Le règlement sur les services numériques, dans son article 14, oblige donc les plateformes à « [tenir] compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias et d’autres libertés et droits fondamentaux ». Et dans son article 34, le DSA oblige les grands acteurs du Net à recenser, analyser et évaluer de manière diligente « tout risque systémique », notamment « tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux » : non seulement liberté d’expression et d’information, y compris liberté et le pluralisme des médias, mais aussi dignité humaine, respect de la vie privée et familiale, protection des données à caractère personnel, non-discrimination, droits de l’enfant, et protection des consommateurs (14). Pour parer au pire, il est prévu à l’article 48 que la Commission européenne – assistée par un Comité pour les services numériques (Digital Services Committee) – « s’efforce de garantir que les protocoles de crise établissent clairement », entre autres, « les mesures de sauvegarde contre les effets négatifs éventuels sur l’exercice des droits fondamentaux consacrés dans la Charte [des droits fondamentaux de l’Union européenne], en particulier la liberté d’expression et d’information et le droit à la non-discrimination » (15). A la question « Comment comptez-vous maintenir un juste équilibre avec les droits fondamentaux tels que la liberté d’expression ? », la Commission européenne avait répondu, dans un Q&A du 25 avril dernier : « Le règlement sur les services numériques donne aux utilisateurs la possibilité de contester les décisions de suppression de leurs contenus prises par les plateformes en ligne, y compris lorsque ces décisions s’appuient sur les conditions générales des plateformes. Les utilisateurs peuvent introduire une plainte directement auprès de la plateforme, choisir un organisme de règlement extrajudiciaire des litiges ou demander réparation devant les tribunaux ». Au plus tard le 17 novembre 2025, la Commission européenne évalue notamment « l’incidence sur le respect du droit à la liberté d’expression et d’information » (16) et remet un rapport à ce sujet au Parlement européen, au Conseil de l’Union européenne et au Comité économique et social. L’avenir nous dira si le DSA est une arme à double tranchant pour la liberté d’expression et la démocratie en Europe. Tandis que pour le Digital Markets Act (DMA), cette fois, sept géants du Net – Alphabet (Google/ YouTube), Amazon, Meta (Facebook/ Instagram), Apple, Microsoft, Samsung et ByteDance (TikTok) – vont être le 6 septembre désignés officiellement par la Commission européenne (17) comme des « gatekeepers » (contrôleurs d’accès) soumis à des règles de concurrence renforcées. Des garde-fous contre la censure ? Lorsque le commissaire européen au Marché intérieur, Thierry Breton (photo ci-dessus), a lancé le 10 juillet 2023 sur Franceinfo que « lorsqu’il y aura des contenus haineux, des contenus qui appellent par exemple à la révolte, qui appellent également à tuer ou à brûler des voitures, [ces plateformes] auront l’obligation dans l’instant de les effacer » (18). Et en prévenant :« Si elles ne le font pas, elles seront immédiatement sanctionnées (…) non seule-ment donner une amende mais interdire l’exploitation sur notre territoire ». Ses propos ont aussitôt soulevé une vague d’inquiétudes sur les risques de censures. Il a dû revenir sur Franceinfo le 25 août (19) pour tenter de rassurer à propos du DSA : « C’est la garantie de nos libertés, c’est tout sauf le ministère de la censure ». @

Charles de Laubier