Le New Deal Mobile promet « la 4G pour tous » au 31 décembre mais… pas dans les zones blanches

Le gouvernement et le régulateur nous le promettent sur tous les tons : tous les réseaux mobiles fonctionnant encore aujourd’hui uniquement en 2G et/ou en 3G devront avoir basculé en 4G d’ici la fin de l’année. Il serait temps ! Mais des zones blanches persisteront jusqu’à fin 2022.

« L’Arcep mènera dans le courant du premier semestre 2021 des enquêtes pour vérifier l’atteinte des échéances de généralisation de la 4G et de couverture des axes routiers prioritaires », nous indique le régulateur des télécoms présidé par Sébastien Soriano (photo de gauche). Mais on le sait déjà : au 31 décembre 2020, ce ne sera pas « la 4G pour tous », alors que les opérateurs mobiles nous proposent déjà la 5G et que les équipementiers télécoms préparent la 6G !

Des centres-bourgs toujours sans 4G
Ces villages de France qu’il est convenu d’appeler « les zones blanches centres-bourgs » n’auront, eux, toujours pas cette chance d’avoir du « très haut débit mobile » – au moment où l’« ultra haut débit mobile » de la cinquième génération dresse ses antennes dans les grandes villes. Le Père Noël, lui, n’a pas signé le New Deal Mobile en juin 2018… A l’époque, Orange, SFR, Bouygues Telecom et Free s’étaient engagés à couvrir en 4G 75 % de ces centres-bourgs – symboles de la fracture numérique en France. La Fédération française des télécoms (FFTélécoms) a indiqué, elle, que ce taux de « basculement » des sites situés dans ces zones blanches atteignait 68 % au 1er novembre – y compris, selon nos informations, en tenant compte de Free Mobile qui n’est pas membre de cette organisation professionnelle. Il restait donc à cette date-là 7 points de couverture à combler en deux mois et dans un contexte de crise sanitaire. Ce n’est pas gagné !
« Le New Deal Mobile est (…) une réalité sur le terrain ; les opérateurs sont tous mobilisés pour atteindre cet objectif. Il a certes été ralenti pendant la crise sanitaire mondiale mais les opérateurs et leurs techniciens ont continué, dans la mesure du possible, à déployer notamment durant le premier confinement », assure la FFTélécoms, présidée par Nicolas Guérin (photo de droite), par ailleurs secrétaire général du groupe Orange. Dans la dernière ligne droite, ce dernier joue l’apaisement après les escarmouches entre celui qui a été son prédécesseur jusqu’en juin dernier, Arthur Dreyfuss, et le président de l’Arcep, Sébastien Soriano. Ce dernier avait appelé en avril dernier les opérateurs mobiles à ne pas prendre prétexte du confinement pour ne pas être « au rendez-vous de leur responsabilité ». Une mise en garde du régulateur qui avait fait perdre son sang-froid au secrétaire général de SFR (1). En janvier 2018, l’Arcep et le gouvernement annonçaient des engagements des opérateurs pour accélérer la couverture mobile des territoires. Orange, SFR, Bouygues Telecom et Free Mobile se sont engagés à investir plus de 3milliards d’euros dans les zones rurales. En échange de quoi, l’Etat a renouvelé leurs fréquences mobiles pour dix ans dans les bandes 900 Mhz, 1800 Mhz (sauf Free Mobile) et 2,1 Ghz. En effet, leurs autorisations arrivent à échéance entre 2021 et 2024 concernant les réseaux mobiles 2G, 3G et 4G. Les « lauréats » ont dû signer à l’époque le New Deal Mobil en faveur de l’aménagement numérique du territoire – y compris dans les zones rurales, synonymes de « zones blanches », sans aucune couverture mobile et encore moins de 4G. Il s’agit notamment de « généraliser la réception en 4G, ce qui implique de l’apporter à plus de 1 million de Français sur 10.000 communes, en équipant en 4G tous les sites mobiles » et de « couvrir les principaux axes routiers et ferroviaires ». Ce fut un accord donnant donnant et présenté comme « historique » (2), même si ce New Deal Mobile leur laisse jusqu’à 2026 pour achever pleinement le déploiement de 5.000 nouveaux sites mobiles, à raison de 600 à 800 sites par an. Ces engagements sans précédents ont été dans la foulée retranscrits dans leurs licences actuelles afin de les rendre juridiquement opposables.
Autrement dit, les centres-bourgs – au nombre de près de 5.000 sur les quelque 36.000 communes de l’Hexagone – pourront potentiellement attaquer les opérateurs mobiles qui n’auraient respecté leurs engagements de leur apporter la 4G. Mais ces villages ne pourront pas engager une action avant le 31 décembre 2022, date à laquelle ces mêmes opérateurs mobiles se sont engagés à couvrir les 25 % restants de ces zones blanches dites centres-bourgs.

De la « 4G fixe » à défaut de fibre
En outre, d’ici la fin de l’année, les quatre opérateurs mobiles devront avoir aussi assuré la couverture en voix/SMS et en 4G de tous « les axes routiers prioritaires » de l’Hexagone : soit un total de 55.000 km de routes, dont 11.000 km d’autoroutes et 44.000 km d’axes routiers principaux reliant, au sein de chaque département, le chef-lieu de département (préfecture) aux chefs-lieux d’arrondissements (sous-préfectures), et les tronçons de routes sur lesquels circulent en moyenne annuelle au moins cinq mille véhicules par jour. Les opérateurs mobiles assurent qu’ils se sont engagés, pour ces axes routiers notamment, dans un « ambitieux programme de construction de nouveaux pylônes mutualisés au travers du dispositif de couverture ciblée ».
Pour l’instant, toujours au 1er novembre selon la FFTélécoms, « 462 pylônes ont d’ores-et-déjà été construits au titre de ce nouveau dispositif, qui s’étendra jusqu’en 2027 ». La route est longue… Pour jouer la transparence, la fédération a mis en place un « compteur » du déploiement de la 4G censé être remis à jour chaque trimestre, mais le dernier décompte (3) s’est arrêté au 30 juin dernier, à 8.228 sites encore à passer en 4G. A quand le prochain relevé au 30 septembre ? « D’ici fin décembre, avec trois mois de décalage habituels », nous répond la FFTélécoms.

Le confinement, pas prétexte à retards
En outre, Orange, SFR, Bouygues Telecom et Free Mobile sont tenus – depuis le 1er janvier 2019 – de proposer des offres dites « 4G fixes » au grand public dans les zones géographiques identifiées où d’autres solutions de très haut débit fixe sont inexistantes. « Le gouvernement peut demander aux opérateurs d’ouvrir, dans les zones qu’ils couvrent déjà en très haut débit mobile et dans un délai de quatre mois, une offre 4G fixe, si l’ouverture de cette offre ne dégrade pas la qualité du service de 4G mobile », prévoit l’Arcep. Ce service d’accès fixe à Internet sur leurs réseaux mobiles à très haut débit doit être fourni dans les zones que les opérateurs mobiles identifient et rendent publiques et dans les zones listées par arrêté ministériel. « Par ailleurs, précise le régulateur, Orange et SFR sont tenus de participer au dispositif d’extension de la couverture 4G fixe. A ce titre, ils seront chacun tenus de fournir un service de 4G fixe sur un maximum de 500 zones identifiées par arrêté du ministre chargé des communications électroniques, grâce à l’installation de nouveaux sites 4G » (4) (*). En l’occurrence, deux arrêtés datés du 23 décembre 2019 sont venus préciser les zones où les opérateurs mobiles sont tenus de fournir la 4G fixe depuis mai dernier (dont 236 zones pour Orange et 172 zones pour SFR) – « sauf indisponibilité dûment justifiée d’une capacité suffisante pour assurer la préservation d’une qualité de service satisfaisante pour les utilisateurs mobiles » (5).
Selon le tableau de bord « 4G pour tous » de l’Arcep mis à jour le 8 décembre avec les données au 30 septembre dernier (6), Free Mobile est l’opérateur mobile qui ne dépassait pas les 97 % de population couverte en 4G (avec 17.381 sites équipés en 4G sur 18.478 déployés), là où les trois autres atteignaient chacun 99 % de population couverte en 4G (23.822 sites équipés en 4G sur 25.537 déployés pour Orange, 20.772 sites équipés en 4G sur 22.473 déployés pour SFR et 19.834 sites équipés en 4G sur 21.257 déployés pour Bouygues Telecom). Si la finalisation laborieuse du déploiement de la 4G mobile – notamment de 75 % des centres-bourgs d’ici fin 2020, et a fortiori les 100 % d’ici fin 2022 – ne doit pas être retardée sous des prétextes de crise sanitaire, elle doit être atteinte jusque dans la moindre bourgade. Le gouvernement a même rajouté, moins de quatre mois après le premier confinement de mars à mai derniers, une liste complémentaire de zones à couvrir les opérateurs mobiles d’ici la fin de l’année. Comme les précédentes listes, celle-ci a été établie par arrêté. Il est daté du 1er octobre 2020 – paru au Journal Officiel du 8 octobre (7) – et complète « les listes des zones à couvrir par les opérateurs de radiocommuni-cations mobiles au titre du dispositif de couverture ciblée pour les années 2018 et 2019 » par « de nouvelles zones à couvrir par les opérateurs de téléphonie mobile au titre de l’année 2020 dans le cadre du dispositif de couverture ciblée ». Ces nouvelles zones identifiées correspondent à la création de nouvelles obligations pour les opérateurs mobiles (en matière de sites, de zone à couvrir ou de mutualisation).
Ces nouvelles obligations de « couverture ciblée » figurent aussi dans les autorisations d’utilisation de fréquences qui leur ont été délivrées par l’Arcep. Bouygues Telecom a affirmé qu’il avait atteint le seuil des 75 % dès le 5 novembre. Les trois autres ne sont pas encore prononcé avant la première ligne d’arrivée de fin 2020. Pour voir si un centre-bourg est couvert – ou pas – par la 4G, notamment au 31 décembre, il faut se référer en ligne au « tableau de bord du New Deal Mobile » qui n’est cependant pas en temps réel puisque le régulateur met à jour les données à un rythme trimestriel (8). Pour autant, les utilisateurs ont une voie de recours possible en se connectant à Jalerte.arcep.fr, car l’Arcep est justement chargée du contrôle de l’avancement des obligations de déploiement des opérateurs mobiles.

Pour les « sans 4G », la 5G est un comble
Pendant ce temps-là, New Deal Mobile ou pas, des « patelins » enragent de ne pas avoir le très haut débit mobile, alors que l’ultra-haut débit mobile de la 5G défraie la chronique depuis plusieurs mois et commence à être commercialisée. « La 4G, ça devrait être un acquis pour tout le monde. On paie des impôts comme les autres, on travaille, on devrait avoir accès aux mêmes services », pestait en novembre Blandine Decker (9), infirmière libérale habitant dans le village Montigny, en Meurthe-et-Moselle. @

Charles de Laubier

Autoriser les rachats d’Instagramet de WhatsApp par Facebook fut deux graves erreurs de la FTC

Instagram, le réseau social de partage de photos et vidéos, fête ses dix ans. Lancé en octobre 2010 par l’Américain Kevin Systrom et le Brésilien Michel Mike Krieger, il fut vendu dix-huit mois après à Facebook pour 1 milliard de dollars. La FTC se mort les doigts d’avoir autorisé cette acquisition.

« Nous avons fait une erreur », avait admis Joseph Simons (photo), l’actuel président de la FTC, l’autorité américaine antitrust, dans une interview à l’agence Bloomberg le 13 août 2019. Il faisait le mea culpa de la Federal Trade Commission (FTC) à propos des autorisations accordées à Facebook pour les rachats de respectivement Instagram en 2012 pour 1milliard de dollars et WhatsApp en 2014 pour – tenez-vous bien – près de 20 milliards de dollars ! Sur la centaine d’acquisitions faites par la firme de Mark Zuckerberg (1), seule celle d’Instagram fit l’objet d’une enquête approfondie – avant le feu vert.

« Zuck » rachète ses concurrents menaçants
L’ensemble Facebook-Instagram-WhatsApp pourrait devenir un cas d’école s’il venait à être le premier GAFA à être démantelé, comme ne l’exclut pas Joseph Simons, ou sinon lui interdire le brassage des données personnelles entre ses plateformes (2). Le groupe spécial antitrust de la commission des Affaires judiciaires (3) de la Chambre des représentants des Etats-Unis vient, le 6 octobre dernier, d’appeler le Congrès américain à légiférer pour recourir à « deux outils essentiels de la boîte à outils anti-monopole : séparation structurelle et restrictions sectorielles » pour mettre un terme aux abus de position dominante des géants américains du Net – Google/YouTube, Amazon/Amazon.com, Facebook/Instagram/WhatsApp, Apple/App Store – et remédier aux conflits d’intérêts sous-jacents.
Les quatre patrons respectifs de ces Big Four, respectivement Sundar Pichai, Jeff Bezos, Mark Zuckerberg et Tim Cook, avaient été convoqués pour une audition qui s’est déroulée le 29 juillet dernier. Ce jour-là, le démocrate David Cicilline, le président de la sous-commission antitrust (bipartisane), n’avait pas caché que les conclusions allaient être en faveur du démantèlement ou à défaut de fortes restrictions. Dans son rapport de 451 pages intitulé « Investigation of competition in the Digital markets » (4), la sous-commission antitrust justifie d’en arriver au spinoff pour empêcher ces mastodontes planétaires du numérique aux comportements monopolistiques d’évincer la concurrence : « Les séparations structurelles interdisent à un intermédiaire dominant d’opérer sur des marchés qui le mettent en concurrence avec les entreprises dépendantes de son infrastructure. Entre-temps, les restrictions imposées aux secteurs d’activité limitent généralement les marchés dans lesquels une entreprise dominante peut s’engager » (5). C’est plus particulièrement le cas du groupe Facebook, devenu maison mère de ses ex-concurrents Instagram et WhatsApp, qui préoccupe le plus les parlementaires américains. « Facebook voyait Instagram comme une menace, […] donc ils les ont rachetés », avait grondé après l’audition de juillet le Démocrate Jerrold (Jerry) Nadler, président de la commission des Affaires judiciaires. « Zuck » l’a même écrit dans un e-mail confidentiel daté du 9 avril 2012 au moment du rachat d’Instagram, message interne (6) porté à l’enquête judiciaire. Son homologue David Cicilline avait, lui, renvoyé dos à dos la FTC et le patron du numéro un des réseaux sociaux : « La FTC n’aurait pas dû approuver l’acquisition de WhatsApp par Facebook », tout en pointant « la façon décontractée dont le PDG de Facebook, Mark Zuckerberg, a reconnu qu’il avait acquis le service de messagerie WhatsApp en 2014 parce qu’il était un concurrent en pleine croissance » (7). Les parlementaires Républicains sont moins critiques, au point de ne pas avoir approuvé le rapport antitrust publié le 6 octobre. Dans son rapport, la sous-commission antitrust souligne que « le marché des réseaux sociaux est très concentré » : Facebook (1,8 milliard d’utilisateurs) et sa gamme de produits – WhatsApp (2 milliards), Instagram (1,4 milliard) – comptent beaucoup plus d’utilisateurs et de temps passé sur sa plateforme que ses plus proches concurrents. En effet, Snapchat (443 millions d’utilisateurs) ou Twitter (582 millions) sont loin derrière la firme de « Zuck » (8). Il relève aussi que la « monopolisation » de Facebook a aussi des effets endogènes : « Par exemple, les forts effets de réseau associés à Facebook ont fait pencher le marché vers le monopole, de sorte que Facebook fait concurrence plus vigoureusement à ses propres produits – Facebook, Instagram, WhatsApp et Messenger – qu’à ses concurrents réels » (9).

Rachat d’Instagram par Facebook : « felony »
Instagram – mot-valise créé de l’anglais « instant camera » (appareil photo instantané) et « gram » (du mot telegram) – a subi comme WhatsApp la double peine : perte d’indépendance et concurrence inter-filiales ! En juin 2019, le professeur Tim Wu de la Columbia Law School avait estimé que « le rachat d’instagram par Facebook était une infraction majeure, voire un délit » : il emploie le terme de felony (10). Il ne reste plus qu’à réformer la loi antitrust américaine. @

Charles de Laubier

Les « CSA » européens veulent plus de la Commission européenne contre les fake news

Les Google, Facebook et autres Twitter ont été contraints de se constituer en « police privée » pour chasser sur Internet les fausses informations. Liberté d’expression et liberté d’informer sont passées au crible pour supprimer les infox. Mais pour les « CSA » européens, cela ne pas assez loin.

Le groupe des régulateurs européens des médias audiovisuels, l’Erga (1), a publié le 6 mai son « rapport sur la désinformation et l’évaluation de la mise en œuvre du code de pratique » pour lutter contre les fake news. Ce rapport final intervient deux ans après l’adoption par la Commission européenne de mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 par « un groupe d’experts de haut niveau » pour lutter contre la désinformation en ligne (2).

Autorégulation des acteurs du Net
Dans la foulée, le 24 avril 2018, la Commission européenne publiait une communication intitulée « Lutter contre la désinformation en ligne : une approche européenne » (3), qui préconisait un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits dans le cadre d’une démarche d’autorégulation des acteurs du Net. Ces derniers ont été fermement invités à coopérer avec l’exécutif européen dans cette croisade contre les mensonges, les manipulations et les informations erronées. Le 16 octobre 2018, les premiers signataires de ce « code de bonne conduite » furent Facebook, Google, Twitter et Mozilla (éditeur du navigateur Firefox).
Dans le même temps, l’Edima (European Digital Media Association) – lobby basé à Bruxelles et représentant les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que Airbnb, Allegro, eBay, Expedia, Mozilla Mozilla, OLX, Snap, TripAdvisor, Twitter, Verizon Media, Yelp et Spotify – signait également ce code « anti-fake news », tout comme les associations professionnelles représentant l’industrie de la publicité et les annonceurs (EACA, IAB Europe, WFA et UBA). Microsoft a également rejoint le 22 mai 2019 les entreprises signataires. C’est lors des élections européennes de mai 2019 que les plateformes numériques participantes – Facebook, Google et Twitter en tête – ont publié des rapports mensuels sur la mise en œuvre de leurs actions dans le cadre de ce « code de pratique sur la désinformation » et dans un souci de « transparence de la publicité politique ». Cinq relevés mensuels ont été publiés sur cette période électorale, de janvier à mai 2019, dont le dernier publié il y a un an, le 14 juin (4). L’Erga en a fait la synthèse dans un rapport « monitoring » intermédiaire, en concluant que les GAFAM pouvaient mieux faire. « Google, Twitter et Facebook ont fait des progrès évidents dans la mise en œuvre des engagements du “Code of Practice on Disinformation” en créant une procédure ad hoc pour l’identification des publicités politiques et de leurs sponsors, et en rendant accessible au public les publicités en question. Il s’agissait d’un effort sérieux visant à accroître la transparence. Cependant, bien que les plateformes aient fourni des informations substantielles qui pouvaient être significatives pour les utilisateurs individuels, le suivi indique que les bases de données auraient dû être davantage développées [notamment plus détaillées, ndlr] afin de fournir les outils et les données nécessaires pour assurer la qualité électorale » (5). Les régulateurs européens de l’audiovisuel avaient en outre déjà constaté que les notions de « désinformation » et de « publicité politique » n’ont pas de définitions partagées par les Etats membres, dont certains n’ont même aucune définition des publicités politiques. A cela s’ajoutait aussi le fait que la plupart des « CSA » en Europe disposaient de compétences, de pouvoirs et de ressources juridiques très limités pour s’engager dans l’activité de surveillance des plateformes en ligne. Il y a un an, l’Erga estimait alors que l’approche de coopération en matière de régulation – appelée aussi co-régulation – adoptée par les institutions européennes ne devait pas empêcher d’aller plus loin en rendant exécutoires ou contraignantes (enforceable) les dispositions du code « anti-infox ».

Renforcer les autorités de surveillance
Cela supposait aussi, selon l’Erga, que les autorités de régulation chargées de surveiller le respect de ces dispositions par les plateformes du Net disposent également d’outils, d’accès aux informations et de l’autonomie nécessaires pour s’acquitter de cette tâche. « Il est crucial que les autorités de surveillance [« monitors », dans le texte, ndlr] aient la possibilité de créer leurs propres requêtes, filtres et outils d’analyse qui devraient être orientés vers les données brutes, non filtrées et non gérées dans les bases de données des plateformes numériques. L’information devrait être fournie de manière à leur permet également d’établir facilement le volume de publicité sur une période de temps définie, de comprendre des informations détaillées sur les pages où les publicités apparaissent, de connaître qui financent ces publicités, et d’identifier le problème pertinent pour chaque annonce en question », avait encore conclu l’Erga. Toujours dans son rapport intermédiaire de juin 2019, le groupe des régulateurs européens des médias audiovisuels avait appelé la Commission européenne à aller plus loin et au-delà de la seule publicité politique, « première étape d’un processus qui, inévitablement, rapprochera les deux parties (régulateurs et plateformes) tant au niveau européen qu’au niveau national ». L’Erga souhaitait « un niveau de coopération plus élevé ». Un an après son rapport intermédiaire, force est de constater que les premières recommandations de l’Erga n’ont toujours pas été suivis d’effet.

Mais respecter la liberté d’expression
Le groupe des régulateurs européens des médias audiovisuels en a donc remis une couche à travers son rapport final publié le 6 mai dernier (6). « Malgré des efforts notables fournis par les plateformes, l’application de ce code n’est pas encore optimale, à ce jour », insiste le groupe des « CSA » européens auprès de la Commission européenne. Il lui recommande d’agir maintenant dans trois directions pour améliorer la lutte contre la dissémination des infox en ligne : « Améliorer le code existant, étendre ses engagements et explorer de nouveaux outils pour tendre vers une régulation plus efficace, cette dernière étant assortie d’obligations claires de rendre compte selon des procédures davantage harmonisées et dans des délais appropriés », résume le communiqué du CSA en France, daté du 6 mai. Et le président de l’Erga, Tobias Schmid (photo) d’enfoncer le clou : « La lutte contre la désinformation est de la plus haute importance pour notre démocratie. Nous devons préserver la valeur du discours public sur Internet en empêchant la diffusion délibérée de fausses informations tout en respectant la liberté d’expression. (…) Mais un danger doit être combattu là où il se présente. Par conséquent, nous devons également trouver des moyens de renforcer les efforts des [plateformes numériques] signataires pour accroître l’efficacité des mesures du code et de leurs activités de reporting ». L’Allemand Tobias Schmid est par ailleurs directeur de l’autorité médiatique du plus puissant Land, la Rhénaniedu- Nord-Westphalie, ainsi que chargé des Affaires européennes de la DLM qui réunit en Allemagne les directeurs des autorités médiatiques. Au-delà des publicités politiques, l’Erga estime que la pandémie du coronavirus démontre qu’il faut aller plus loin dans la lutte contre la désinformation : « La prolifération de fausses nouvelles, guidées par des objectifs politiques et/ou axés sur le profit, qui accompagne la récente éclosion de covid-19, n’est qu’un exemple de la façon dont les stratégies de manipulation de l’information posent de graves menaces à la formation de l’opinion publique. Il est important de démystifier de telles nouvelles pour protéger les valeurs démocratiques et contrer les tentatives d’incitation à la haine et à la violence ». A nouveau, les régulateurs de l’audiovisuel recommandent que l’ensemble des plateformes numérique de contenus sur Internet opérant en Europe adhèrent à ce code contre la désinformation. Et concrètement, ils appellent à une bien plus grande transparence, y compris des données beaucoup plus détaillées (en particulier des données par pays) sur la façon dont les signataires mettent en œuvre le code « antiinfox ». De façon à uniformiser l’application de ce code de bonne conduite, l’Erga suggère que les plateformes mettent à disposition des ensembles de data, des outils de suivi des données et des informations spécifiques à chaque pays donné pour permettre au régulateur national un suivi indépendant. L’Erga propose en outre d’aider la Commission européenne (au niveau de sa DG Connect) à établir des définitions pertinentes, y compris en matière de publicité politique, ainsi que des lignes directrices pour assurer une approche plus cohérente entre les Etats membres.
Et pour que la lutte contre les fake news soit vraiment efficace, se limiter à Google, Facebook ou Twitter ne suffit plus, toujours selon les « CSA » européens : « Le nombre de signataires du code de pratique sur la désinformation est limité et ne comprend pas certaines plateformes importantes, les services d’information et de communication et les acteurs de l’industrie de la publicité qui sont actifs dans l’Union européenne. Par conséquent, tous les efforts possibles doivent être déployés pour augmenter le nombre de plateformes signataires du code, afin d’éviter les asymétries réglementaires ». Quant à l’auto-régulation flexible actuelle, si elle a pu être un premier pas important et nécessaire, elle a montré aussi ses limites et son insuffisante efficacité. Pour contrer la désinformation en ligne, il est aussi suggéré à la Commission européenne de passer à « une approche de co-régulation ». Aussi, l’Erga se propose de l’aider en 2020 à identifier les mesures spécifiques et pour les plateformes les indicateurs de performance-clés – les « KPI », disent les Anglo-saxons, pour Key Performance Indicators. Last but not the least : l’Erga veut aider Bruxelles à définir des outils nécessaires aux activités de surveillance (monitoring) et d’exécution des autorités de régulation nationales.

Vers une loi européenne « anti-infox » ?
Mais les régulateurs européens de l’audiovisuel et des médias veulent que les institutions européennes aillent encore plus loin, quitte « à envisager une régulation fixée par la loi, comme l’ont fait certains Etats membres tels que la France (7) ou l’Allemagne (8) ». Cette régulation pourrait être prévue par le futur Digital Services Act (DSA) que doit présenter (lire p. 3) la Commission européenne d’ici la fin de l’année. @

Charles de Laubier

Copyright et filtrage : la France veut peser dans les réunions « Article 17 » de la Commission européenne

Le 17 mai marquera le premier anniversaire de la publication au Journal Officiel européen de la directive « Droit d’auteur et droits voisins dans le marché unique numérique ». Son article 17, toujours controversé sur le filtrage des contenus, fait l’objet de négociations pilotées par la Commission européenne.

Après le confinement, la septième « réunion de dialogue avec les parties prenantes » – consacrée comme les six précédentes au controversé article 17 de la nouvelle directive européenne « Droit d’auteur » – va pouvoir se tenir à Bruxelles. Ces « stakeholder dialogue » (1) sont organisés par la Commission européenne depuis l’automne dernier pour parvenir à un accord sur « les meilleures pratiques », afin que cette dernière puisse émettre d’ici la fin de l’année des orientations (guidance) sur l’application cet épineux article 17.

Le blocage risque d’être un point de blocage
Alors que cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » a été publié au Journal officiel de l’Union européenne (JOUE) il y aura un an le 17 mai, et qu’elle doit être transposée par chacun des Vingt-sept d’ici au 7 juin 2021 au plus tard, son article 17 fait toujours l’objet d’un bras de fer entre les industries culturelles et les acteurs de l’Internet. Car c’est lui qui impose désormais aux YouTube, Facebook et autres Dailymotion une nouvelle responsabilité, cette fois directe, vis-à-vis de contenus soumis au droit d’auteur qui auraient été piratés. Bénéficiant jusqu’alors de la responsabilité limitée et indirecte que leur conférait la directive européenne de 2000 sur le commerce électronique (2), les hébergeurs du Web sont maintenant tenus de « fourni[r] leurs meilleurs efforts (…) pour garantir l’indisponibilité d’œuvres et autres objets protégés » et de « bloquer l’accès [à ces contenus] faisant l’objet de la notification ou [de] les retirer de leurs sites Internet ».
Autrement dit, les GAFAM américains, leurs homologues chinois BATX et tous les autres acteurs du Net réalisant un chiffre d’affaires annuel supérieur à 10 millions d’euros n’auront pas d’autres choix que de généraliser la reconnaissance de contenus en ligne, et donc le « filtrage » de l’Internet – même si cette directive « Copyright » ne mentionne pas explicitement ce mot, préférant utiliser les termes « bloquer » ou « blocage ». De l’aveu même du législateur européen exprimé dans cette directive « Droit d’auteur » et de son article 17 « border line », il y a de sérieux risques de dommages collatéraux sur « les droits fondamentaux inscrits dans la Charte des droits fondamentaux de l’Union européenne, notamment la liberté d’expression et la liberté des arts » (3). Comment dès lors définir les « meilleures pratiques » à adopter, afin de garantir la liberté d’expression des utilisateurs du Net et d’éviter la censure non justifiée au nom de la sacro-sainte propriété intellectuelle ? C’est ce sur quoi discutent les parties prenantes lors de ces « réunions de dialogue » qui se tenaient au moins tous les mois – depuis le 15 octobre 2019 jusqu’au confinement – sous la houlette de l’unité « Copyright » (4) dirigée par le juriste italien Marco Giorello (photo de gauche). Avec la crise sanitaire, aucune réunion ne s’était tenue en mars et avril. Au cours des six premières réunions à Bruxelles, les organisations d’utilisateurs – telles que le Bureau européen des unions de consommateurs (Beuc), dont sont membres en France l’UFC-Que choisir et le CLCV – ont appelé la Commission européenne à « s’assurer que le contenu utilisé légitimement n’est pas bloqué, y compris lorsque ce contenu est téléchargé sous des exceptions et des limitations au droit d’auteur » et à « élaborer des solutions pour prévenir ou réduire les demandes abusives ». Dans le dernier « Discussion paper » que Edition Multimédi@ a consulté (5), et datant de la sixième réunion du 10 février dernier, certains intervenants ont mis en garde Bruxelles sur le filtrage obligatoire car « les technologies utilisées aujourd’hui ont des limites importantes en ce qui concerne la reconnaissance des utilisations légitimes [des contenus en ligne], y compris les utilisations en vertu des exceptions et des limitations du droit d’auteur » (6). Des participants ont également estimé qu’« une plus grande transparence est nécessaire en ce qui concerne le contenu bloqué ou supprimé, ainsi que les données stockées par les fournisseurs de services de partage de contenu en ligne ».
Le blocage de l’article 17 ne risque-t-il pas de devenir le point de… blocage, justement, de ces discussions européennes ? La France, elle, reste décidée à être le premier pays à transposer la directive « Copyright » et son article controversé qu’elle a fortement contribué à élaborer au nom de « l’exception culturelle ». Alors que cette disposition de filtrage a été introduite aux articles 16 et 17 du projet de loi sur l’audiovisuel (7), dont l’examen devrait reprendre d’ici l’été, le gouvernement français entend peser au niveau européen.

CSPLA, Hadopi et CNC : mission II
Le 13 janvier dernier, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – du ministère de la Culture – a confié au conseiller d’Etat Jean-Philippe Mochon une seconde mission sur la reconnaissance des contenus. Et ce, dans la foulée de son premier rapport sur ce thème publié en début d’année (8). Cette fois, son deuxième rapport – réalisé à nouveau avec l’Hadopi et le CNC (9) et attendu « d’ici l’automne 2020 » – se focalisera notamment sur cet article 17 de la directive « Copyright » en vue d’être porté à la connaissance de la Commission européenne. @

Charles de Laubier

Brainstorming politique et législatif sur les multiples enjeux de l’intelligence artificielle

Il ne se passe pas un mois sans que l’intelligence artificielle (IA) ne fasse l’objet d’un rapport, d’un livre blanc, ou d’une déclaration politique. Il en va pour les uns de la « souveraineté », pour les autres de droit de propriété intellectuelle, ou encore de révolution numérique, c’est selon. Et après ?

La Commission européenne a publié le 19 février – dans le cadre de la présentation de sa stratégie numérique (1) – son livre blanc intitulé « Intelligence artificielle. Une approche européenne axée sur l’excellence et la confiance » (2), soumis à consultation publique jusqu’au 19 mai (3). En France, le 7 février, c’était le Conseil supérieur de la propriété littéraire et artistique (CSPLA) qui publiait son rapport sur l’IA et la culture au regard du droit d’auteur (4). En octobre 2019, l’OCDE (5) présentait son rapport « L’intelligence artificielle dans la société » (6). Le gouvernement français, lui, présentait à l’été 2019 sa stratégie économique d’IA (7), dans le prolongement du rapport Villani de 2018.

Contrôler les « systèmes d’IA à haut risque »
Quels que soient les initiatives et travaux autour de l’intelligence artificielle, les regards se tournent vers le niveau européen lorsque ce n’est pas à l’échelon international. Appréhender l’IA d’un point de vue politique et/ou réglementaire nécessite en effet une approche transfrontalière, tant les enjeux dépassent largement les préoccupations des pays pris isolément. Ainsi, la Commission européenne et l’OCDE se sont chacune emparées du sujet pour tenter d’apporter des réponses et un cadre susceptible de s’appliquer à un ensemble de plusieurs pays. La présidente de la Commission européenne, Ursula von der Leyen (photo), s’était engagé à ouvrir dans les 100 premiers jours de son mandat le débat sur « l’intelligence artificielle humaine et éthique » et sur l’utilisation des méga données (Big Data). Le livre blanc sur l’IA, un document d’une trentaine de pages, expose ses propositions pour promouvoir le développement de l’intelligence artificielle en Europe tout en garantissant le respect des droits fondamentaux. Cette initiative avait été enclenchée il y a près de deux ans par l’ancienne Commission « Juncker » et sa stratégie européenne pour l’IA (8) présentée en avril 2018. Concrètement, il s’agit maintenant pour la Commission « Leyen » de limiter au maximum les risques potentiels que l’IA peut induire, tels que « l’opacité de la prise de décisions, la discrimination fondée sur le sexe ou sur d’autres motifs, l’intrusion dans nos vies privées ou encore l’utilisation à des fins criminelles » (dixit le livre blanc). « Par exemple, des biais dans des algorithmes ou des données de formation utilisés dans des systèmes de recrutement reposant sur l’IA pourraient conduire à des résultats qui seraient injustes et discriminatoires et, partant, illégaux en vertu de la législation de l’UE en matière de non-discrimination ». La Commission européenne compte mettre en place « un écosystème d’excellence » en rationalisant la recherche, en encourageant la collaboration entre les Vingt-sept, et en accroissant les investissements dans le développement et le déploiement de l’IA. Cet écosystème « IA » devra être basé sur la confiance. Aussi, la Commission européenne envisage la création d’un « cadre juridique » qui tienne compte des risques pour les droits fondamentaux et la sécurité. La précédente Commission « Juncker » avait déjà balisé le terrain avec un groupe d’experts de haut niveau – 52 au total (9) – dédié à l’intelligence artificielle, dont les travaux ont abouti à des lignes directrices en matière d’éthique « pour une IA digne de confiance » (10) que des entreprises ont mises à l’essai à la fin de 2019 dans le cadre du forum European AI Alliance constitué à cet effet par 500 membres (11).
Mais la Commission européenne ne veut pas effrayer les entreprises sur un cadre règlementaire trop stricte au regard de cette technologie émergente. « Un cadre juridique devrait reposer sur des principes et porter avant tout sur les systèmes d’IA à haut risque afin d’éviter une charge inutile pour les entreprises qui veulent innover. (…) Les systèmes d’IA à haut risque doivent être certifiés, testés et contrôlés, au même titre que les voitures, les cosmétiques et les jouets. (…) Pour les autres systèmes d’IA, la Commission propose un système de label non obligatoire lorsque les normes définies sont respectées. Les systèmes et algorithmes d’IA pourront tous accéder au marché européen, pour autant qu’ils respectent les règles de l’UE », a prévenu la Commission européenne. Encore faut-il que savoir comment caractériser une application d’IA « à haut risque ».

Une approche internationale nécessaire
Selon le livre blanc, c’est le cas si cette dernière cumule deux critères : l’application d’IA est employée dans un secteur où, compte tenu des caractéristiques des activités normalement menées, des risques importants sont à prévoir (santé, transports, énergie, certains services publics, …) ; l’application d’IA est de surcroît utilisée de façon telle que des risques importants sont susceptibles d’apparaître (risque de blessure, de décès ou de dommage matériel ou immatériel, …). L’Europe entend jouer « un rôle moteur, au niveau mondial, dans la constitution d’alliances autour de valeurs partagées et dans la promotion d’une utilisation éthique de l’IA ». Il faut dire que la Commission européenne n’est pas la seule – loin de là – à avancer sur le terrain encore vierge de l’IA.

5 principes éthiques édictés par l’OCDE
L’OCDE, dont sont membres 37 pays répartis dans le monde (des pays riches pour la plupart), s’est aussi emparée de la question de l’IA en élaborant des principes éthiques. Cette organisation économique a elle aussi constitué son groupe d’experts sur l’intelligence artificielle (AIGO), qui, le 22 mai 2019, a amené l’OCDE à adopter des principes sur l’IA, sous la forme d’une recommandation (12) considérée comme « le premier ensemble de normes internationales convenu par les pays pour favoriser une approche responsable au service d’une IA digne de confiance ». Après en avoir donné une définition précise (voir encadré ci-dessous), l’OCDE recommande à ses Etats membres de promouvoir et de mettre en œuvre cinq grands principes pour « une IA digne de confiance », à savoir :
• 1. Croissance inclusive, développement durable et bienêtre (renforcement des capacités humaines et de la créativité humaine, inclusion des populations sous-représentées, réduction des inégalités économiques, sociales, entre les sexes et autres, et protection des milieux naturels, favorisant ainsi la croissance inclusive, le développement durable et le bien-être).
• 2. Valeurs centrées sur l’humain et équité (liberté, dignité, autonomie, protection de la vie privée et des données, non-discrimination, égalité, diversité, équité, justice sociale, droits des travailleurs, attribution de la capacité de décision finale à l’homme).
• 3. Transparence et explicabilité (transparence et divulgation des informations liées aux systèmes d’IA, favoriser une compréhension générale des systèmes d’IA, informer les parties prenantes de leurs interactions avec les systèmes d’IA, permettre aux personnes subissant les effets néfastes d’un système d’IA de contester les résultats sur la base d’informations claires et facilement compréhensibles).
• 4. Robustesse, sûreté et sécurité (veiller à la traçabilité, notamment pour ce qui est des ensembles de données, des processus et des décisions prises au cours du cycle de vie des systèmes d’IA, approche systématique de la gestion du risque, notamment ceux liés au respect de la vie privée, à la sécurité numérique, à la sûreté et aux biais).
• 5. Responsabilité (du bon fonctionnement des systèmes d’IA et du respect de ces principes).
Le G20 a ensuite approuvé ces principes dans sa déclaration ministérielle des 8-9 juin 2019 sur le commerce et l’économie numériques (13), en présence également du Chili, de l’Egypte, de l’Estonie, des Pays-Bas, du Nigéria, du Sénégal, de Singapour, de l’Espagne et du Viet Nam. « Afin de favoriser la confiance du public dans les technologies de l’IA et de réaliser pleinement leur potentiel, nous nous engageons à adopter une approche de l’IA axée sur l’être humain, guidée par les principes de l’IA du G20 tirés de la recommandation de l’OCDE sur l’IA, qui sont annexés et qui ne sont pas contraignants », ont déclarés les ministres de l’économie numérique et/ou du commerce des pays signataires.
D’autres organisations multilatérales mènent aussi des réflexions sur l’intelligence artificielle, telles que le Conseil de l’Europe, l’Unesco (14), l’OMC (15) et l’UIT (16). Au sein de l’ONU, l’UE participe au suivi du rapport du groupe de haut niveau sur la coopération numérique, et notamment de sa recommandation sur l’IA. Le 21 novembre dernier, l’Unesco a été mandatée à l’unanimité par ses 193 Etats membres pour élaborer avec l’aide d’experts des normes éthiques en matière d’IA. « Parce que l’intelligence artificielle dépasse le registre de l’innovation, c’est une rupture, une rupture anthropologique majeure qui nous place devant des choix éthiques », a lancé sa directrice générale, la Française Audrey Azoulay, lors de la 40e Conférence générale de cette agence de l’ONU.
En France, le CSPLA s’est penché sur l’IA au regard du droit d’auteur. Dans leur rapport publié en février, les deux professeures – Alexandra Bensamoun et Joëlle Farchy – suggèrent « la création d’un droit spécial du droit d’auteur (pour manifester la parenté évidente de ces créations avec les œuvres classiques), assis sur les critères classiques dans une lecture renouvelée ». Il s’agit d’un choix politique, comme ce fut le cas pour le logiciel. Une autre option avancée par les auteures serait de créer un droit spécifique, en droit d’auteur et à la lisière d’un droit voisin, en s’inspirant du régime de l’œuvre posthume.

Quel droit pour l’œuvre créée par une IA ?
Le droit privatif sur les productions créatives d’une IA pourrait ensuite consister en un droit sui generis, sur le modèle du droit accordé au producteur de bases de données, avec un objectif affiché, celui de soutenir et de protéger l’investissement. « La publication de notre rapport sur l’IA permet de contribuer utilement à la réflexion européenne et internationale sur ce sujet. Il sera d’ailleurs traduit prochainement en anglais dans ce but », indique à Edition Multimédi@ Olivier Japiot, président du CSPLA. @

Charles de Laubier