Brexit : entre l’Union européenne et le Royaume-Uni, les données personnelles sont entre deux eaux

Le RGPD sur la protection des données personnelles en Europe reste applicable à leurs transferts vers le Royaume-Uni jusqu’au 1er juillet 2021. Mais, depuis le début de l’année, la « Cnil » britannique ne peut plus être « chef de file ». En tout cas, il faut anticiper avec ce « pays tiers ».

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

A l’heure où le Brexit devient réalité, la question du transfert des données personnelles entre l’Union européenne (UE) et le Royaume-Uni (RU) mérite une attention particulière. Pas d’urgence absolue puisque le règlement européen sur la protection des données RGPD reste applicable au Royaume-Uni de manière transitoire jusqu’au 1er juillet 2021. A noter toutefois que, depuis le 1er janvier 2021, le mécanisme du « guichet unique » ne sera plus effectif par le biais de l’Information Commissioner’s Office (ICO), la « Cnil » britannique.

RGPD, applicable jusqu’au 1er juillet 2021
Ainsi, à moins qu’une décision d’adéquation ne soit accordée au Royaume-Uni par la Commission européenne d’ici mi- 2021, les transferts de données personnelles vers le Royaume-Uni devront être encadrés par les outils prévus par le RGPD. Autant s’en préoccuper dès à présent ! Concrètement, jusqu’au 1er juillet 2021, le Royaume-Uni est toujours considéré comme un Etat membre de l’UE dans le cadre des transferts de données. Si aucune modification n’est requise dans l’immédiat pour continuer à transférer des données personnelles avec le territoire britannique, l’autorité de contrôle britannique ICO recommande aux entreprises britanniques ayant des activités transfrontalières avec les Vingt-sept d’anticiper tout risque potentiel d’interruption des transferts.
L’accord de commerce et de coopération entre l’UE et le RU, conclu le 24 décembre 2020 et en vigueur depuis le 1er janvier 2021, prévoit, en matière de protection des données à caractère personnel, que le RGPD demeure applicable pour une durée maximum de six mois. Cet accord a fait suite à une période transitoire qui courait depuis un premier accord de retrait trouvé le 31 janvier 2020 à minuit. Car les textes européens étant alors encore applicables, cet accord n’ouvrant en réalité qu’une période de transition s’étalant jusqu’au 31 décembre 2020. Rappelons que c’est à la suite du référendum du 23 juin 2016 que le Royaume-Uni a actionné la procédure de retrait de l’Union européenne prévue par l’article 50 du Traité de l’UE. Cette décision en faveur du Brexit (pour « British Exit ») a donné lieu à de nombreuses discussions afin d’organiser cette sortie effective du Royaume-Uni. L’accord conclu entre le RU et l’UE a conduit à l’exclusion de l’autorité britannique du mécanisme de guichet unique. Ce mécanisme permet aux entreprises opérant des traitements transfrontaliers (entre plusieurs Etats membres) de centraliser leur communication avec une seule autorité qualifiée alors de « chef de file » (1). Cette autorité n’est pas choisie par l’entreprise mais correspond à celle du pays dans lequel se situe l’établissement principal de l’entreprise en question. En France, c’est la Commission nationale de l’informatique et des libertés (Cnil). Au Royaume- Uni, c’est l’Information Commissioner’s Office (ICO).
La fin du guichet unique pour le Royaume-Uni signifie donc que les entreprises qui effectuaient des traitements transfrontaliers et qui avaient l’ICO comme autorité chef de file ne pourront plus bénéficier de ce mécanisme. Seuls les responsables de traitement ou sous-traitants ayant un établissement principal au sein de l’Espace économique européen (EEE) pourront continuer de bénéficier du guichet unique, avec pour autorité chef de file, celle du pays dans lequel est implanté ledit établissement. Concernant les entreprises exclusivement basées au Royaume-Uni, il est important de rappeler que le caractère extraterritorial du champ d’application du RGPD rend ce dernier applicable dès lors que les activités de traitement sont liées à une offre de bien ou de service destinée à des personnes concernées de l’Union européenne ou au suivi du comportement de ces personnes. Dès lors, ces entreprises britanniques seront tenues de désigner un représentant au sein de l’Union européenne conformément à l’article 27 du RGPD. Une fois le délai de transition expiré, il faudra appréhender les transferts au Royaume-Uni comme des transferts vers un pays tiers, c’est-à-dire comme un pays situé en dehors de l’EEE.

Une « décision d’adéquation » avec le RU ?
Cependant, le Royaume-Uni, en sa qualité d’ancien Etat membre de l’UE, dispose déjà d’un important arsenal juridique en matière de protection des données avec des dispositifs tels que le « Data Protection Act » ou encore le « Privacy and Electronic Communication Regulations ». Ces textes de loi reprenant déjà la majorité des dispositions du RGPD, il apparaît possible que la Commission européenne autorise de façon générale l’ensemble des transferts de données vers le Royaume-Uni à travers une « décision d’adéquation ». Tel sera le cas si la Commission européenne considère que le Royaume-Uni offre toujours un niveau de protection au moins équivalent à celui exigé au sein de l’UE. Pour autant, il convient de rester vigilant car les dernières déclarations du Premier ministre Boris Johnson annonce une évolution de la législation interne dans le sens d’un assouplissement de cette dernière. L’hypothèse d’une décision d’adéquation semble ainsi s’éloigner notamment compte tenu de l’appartenance du Royaume-Uni au « Five Eyes », alliance des services secrets britanniques, canadiens, australiens, américains et néo-zélandais.

Sinon, explorer les « garanties appropriées »
On rappellera que cette alliance à cinq (également désignée par FVEY), qui remonte à l’époque de la Guerre froide, permet aux agences de renseignement de ces cinq pays de se demander respectivement d’intercepter des communications de leurs citoyens. Ce partage d’informations et de données alerte de plus en plus les institutions et l’opinion publique, notamment depuis les révélations d’Edward Snowden en 2013. Selon ce lanceur d’alerte, les Etats contourneraient leur propre législation nationale en demandant aux membres de l’alliance de collecter des informations pour leur compte, et ce sur le fondement de cet accord. En 2014, la Commission européenne avait publié un rapport (2) confirmant le fait que les agences de renseignement néo-zélandaises et canadiennes auraient coopéré avec la National Security Agency (NSA) dans le cadre du programme Five Eyes et potentiellement partagé activement des données personnelles de citoyens de l’UE. Si l’option « décision d’adéquation » devait être écartée, il conviendra alors d’explorer d’autres solutions, notamment les « garanties appropriées » prévues par le RGPD. Il s’agit soit des clauses contractuelles types (CCT) à insérer dans le contrat entre l’importateur et l’exportateur de données (3), soit des règles d’entreprise contraignantes (BCR) qui désignent les règles internes de protection des données applicables entre exportateur et importateur de données au sein d’un groupe d’entreprise (4), soit encore d’outils tels que : code de conduite, mécanisme de certification, instrument juridique contraignant entre autorités publiques, etc (5).
Le RGPD prévoit également certaines dérogations exceptionnelles. L’organisation souhaitant transférer des données en dehors de l’EEE pourrait ainsi faire valoir l’une de ces dérogations à condition que le transfert ait un caractère exceptionnel (ni régulier, ni structurel) et qu’aucun autre cadre juridique ne puisse être utilisé. Tel est le cas lorsque la personne concernée consent au transfert de ses données ou lorsque le transfert de données est nécessaire à la conclusion ou à l’exécution d’un contrat ou encore lorsque le transfert est nécessaire par exemple à l’exercice des droits de la défense dans le cadre de procédures judiciaires. On notera cependant que, dans tous les cas, il appartient au responsable de traitement et au destinataire des données de vérifier, préalablement à tout transfert, si le pays tiers permet en pratique d’assurer un niveau de protection essentiellement équivalent à celui garanti dans l’UE par le RGPD, et notamment que les personnes concernées disposent de droits opposables et de voies de droit effective (6). Cette règle a été rappelée par la Cour de justice de l’Union européenne (CJUE), dans son arrêt « Schrems II » (7) du 16 juillet 2020. On rappellera que, dans cette affaire, Maximillian Schrems, défenseur autrichien de la protection des données personnelles, avait sollicité l’interdiction ou la suspension du transfert de ses données personnelles par Facebook Ireland à la maison mère Facebook Inc. établie aux Etats-Unis. Ce dernier considérait que la législation américaine ne permettait pas en pratique de protéger adéquatement les données personnelles détenues sur son territoire contre l’accès des autorités publiques et qu’il n’y avait pas de recours efficace pour les personnes concernées européennes. La CJUE étant particulièrement regardante sur l’effectivité des droits des personnes concernées ainsi que sur leur exercice, c’est précisément ce qui a fondé l’invalidation du « Privacy Shield » au sein de cette décision.
De même, si la CJUE a confirmé la validité des clauses contractuelles types comme outil de transfert, il est important de préciser que ces clauses ne lient pas les autorités des pays tiers, en raison de leur caractère contractuel. Ainsi, dans les situations où la législation de ces pays compromettrait en pratique le niveau de protection adéquat que ces outils garantissent, la CJUE incite à prévoir des mesures supplémentaires. De nature technique, contractuelle ou organisationnelle selon les recommandations du Contrôleur européen de la protection des données (CEPD), ces mesures permettraient d’assurer l’effectivité des « garanties appropriées » au sein de ces systèmes juridiques (8). Toutefois, en fonction des caractéristiques du transfert de données envisagé, et de l’évaluation de la législation du pays tiers faite par l’importateur et l’exportateur des données, si aucune mesure supplémentaire efficace ne peut être mise en œuvre pour garantir le niveau de protection équivalent, il conviendra de renoncer au transfert.

Considérer le RU comme « pays tiers »
En conclusion, si le RGPD reste applicable aux transferts de données vers le Royaume-Uni jusqu’au 1er juillet 2021, il n’est certainement pas trop tôt pour anticiper la suite. En l’absence d’une décision d’adéquation avant cette date butoir, les transferts de données devront être considérés comme ayant pour destination un pays tiers. De ce fait, il est d’ores et déjà recommandé d’identifier les traitements en question pour, le jour venu, adopter l’une des solutions évoquées à l’aune de la future législation britannique. @

* Christiane Féral-Schuhl, ancienne présidente
du Conseil national des barreaux (CNB)
après avoir été bâtonnier du Barreau de Paris,
est l’auteure de « Cyberdroit » paru aux éditions Dalloz.

Comment la Cnil a contourné le RGPD pour pouvoir elle-même mettre à l’amende Amazon et Google

La Cnil a invoqué la directive « ePrivacy » et non le RGPD. Et si Amazon et Google n’avaient pas modifié en septembre 2020 leur site web (amazon.fr et google.fr) pour être en conformité – mais partiellement – avec les règles françaises sur les cookies, leurs amendes auraient été plus salées.

Europe : les plateformes numériques visées sont préoccupées par le projet de régulation du Net

Les GAFAM sont les premiers concernés par les deux textes législatifs proposés le 15 décembre 2020 par la Commission européenne. Un mois après la publication de ce « paquet numérique » (Digital Services Act et Digital Markets Act), Edition Multimédi@ revient sur les réactions des acteurs du Net.

« Le diable sera dans les détails », a lancé Siada El Ramly (photo), directrice générale de Dot Europe (ex-Edima), lobby des GAFAM et d’autres. De son côté, Christian Borggreen, directeur de la CCIA Europe, où l’on retrouve aussi les géants du Net, dit en substance : « La réglementation numérique ne doit pas empêcher l’innovation numérique ». Tandis que DigitalEurope (ex-Eicta), également porte-voix de la high-tech dirigé par Cecilia Bonefeld-Dahl, estime que tout est question d’« équilibre entre la protection des droits fondamentaux et la prévention des activités illégales et nuisibles en ligne ».

Régime de responsabilité limitée en question
La présentation des projets de loi Digital Services Act (DSA) et Digital Markets Act (DMA) par la Commission européenne le 15 décembre dernier n’a pas laissé les Big Tech indifférentes. Lors d’un séminaire en ligne organisé le 17 décembre dernier par Dot Europe, sa directrice Siada El Ramly a prévenu : « Si elle est élaborée et mise en œuvre de la bonne façon, la loi sur les services numériques – le DSA – pourrait offrir un cadre plus robuste pour la modération du contenu en ligne. Il reste cependant beaucoup de détails à régler et le processus en est encore à un stade précoce ». Et la directrice de Dot Europe basée à Bruxelles de rappeler : « Il existe déjà une législation sur le contenu en ligne au niveau national et européen et il sera crucial que le DSA travaille de manière cohérente avec toutes les règles déjà en place. Les principes de la directive (européenne) sur le commerce électronique demeurent une base solide et importante pour l’élaboration de futures règles et nous devrions nous appuyer sur ses fondements avec la loi sur les services numériques ». Entrée en vigueur il y a vingt ans maintenant, la fameuse directive dite « E-commerce » assure aux plateformes numériques et aux réseaux sociaux un statut protecteur d’hébergeur qui leur accorde une responsabilité limitée dans les contenus stockés, partagés et/ou diffusés par leurs millions d’utilisateurs. Ainsi, les GAFAM et les autres acteurs concernés ne peuvent être tenus pour responsables des informations et contenus exploités par internautes qui utilisent leurs plateformes numériques – à moins que ces dernières n’aient pris connaissance du caractère illicite de ces contenus illicites et/ou piratés mais ne les aient pas  promptement retirés ou rendus inaccessibles. « En janvier 2020, nos membres ont demandé à la Commission européenne d’introduire un nouveau cadre de responsabilité en ligne pour leur permettre de mieux lutter contre le contenu illégal en ligne et nous sommes encouragés de voir que certains des points que nous avons soulevés ont été pris en compte dans le projet de DSA », a indiqué Dot Europe dès le 15 décembre.
Une des autres préoccupations concerne la transparence exigée concernant les algorithmes utilisés par les plateformes numériques, lesquelles seront tenues de divulguer les paramètres utilisés par ces règles opératoires dont l’application permet de résoudre un problème énoncé, comme le classement de produits et ou de services dans les résultats de recherche. « Nous avons certaines préoccupations en matière de sécurité concernant la possibilité d’exiger que les plateformes fournissent un accès direct à leurs algorithmes, a expliqué Siada El Ramly. La transparence peut être obtenue par de nombreuses façons différentes et le saut pour potentiellement forcer les entreprises à exposer leurs informations exclusives peut être disproportionné ».
Les GAFAM auront l’obligation de donner aux autorités qui le demandent un accès à leurs algorithmes, comme l’avait justifié en octobre dernier Margrethe Vestager, viceprésidente exécutive de la Commission européenne, chargée de la Concurrence : « Nous ne pouvons pas laisser les décisions qui affectent l’avenir de notre démocratie être prises dans le secret de quelques conseils d’administration d’entreprises ». Intervenant lors d’un événement organisé par AlgorithmWatch (3), la Danoise a prévenu les grandes plateformes qu’elles devront fournir aux régulateurs demandeurs plus d’informations sur le fonctionnement de leurs algorithmes.

Trop de régulation tue l’innovation
L’organisation Dot Europe, qui représente les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) ainsi que TikTok, Spotify, Snap, Twitter, eBay, Verizon Media, King, Airbnb, Expedia, Mozilla, Allegro, Etsy ou encore Yelp, ne se focalise pas seulement sur le DSA (4), axé sur les contenus (lutter contre la cyberhaine, la désinformation et tout contenu illicite), mais aussi sur le DMA (5) qui veut imposer à la dizaine de grandes plateformes numériques dites « systémiques » (dont les GAFAM) des contraintes antitrust et empêchant les abus de position dominante de certains écosystèmes. L’association américaine CCIA (Computer and Communications Industry Association) a, elle aussi, réagi dès le 15 décembre avec notamment un semblant de pointe d’ironie : « Nous espérons que les futures négociations viseront à faire de l’Union européenne un leader en matière d’innovation numérique, et pas seulement en matière de réglementation numérique ».

Des amendes jusqu’à 10% du chiffre d’affaires
Basée à Washington, la CCIA – vétérane de la high-tech (créée en 1972) – dispose aussi à Bruxelles d’un bureau qui veille au grain. « Une réglementation solide et fondée sur des données probantes jouera un rôle essentiel pour encourager l’innovation, les investissements et le choix des consommateurs en Europe », prévient Christian Borggreen, directeur de la CCIA Europe basée aussi à Bruxelles, tout en se « réjouiss[ant] à la perspective de travailler avec les décideurs politiques de l’Union européenne pour veiller à ce que les propositions atteignent les objectifs énoncés, afin que les Européens continuent de récolter tous les avantages des produits et services numériques ».
La CCIA, dont sont membres les GAFA (sauf Apple) aux côtés de Twitter, Pinterest, Rakuten, eBay, Uber et d’autres, relève que le projet de loi européen sur les marchés numériques – le DMA (6) – vise à cibler les services de base des « gatekeepers » numériques en restructurant leurs relations avec les utilisateurs commerciaux et en imposant de nouvelles modalités et obligations (lesquelles pourront évoluer et être étendues). Le DMA menace aussi de sanctionner ces grandes plateformes du Net en cas d’infraction à ces nouvelles règles européennes : « Des sanctions structurelles et comportementales [seront] imposées en cas de non-respect, y compris des amendes pouvant atteindre 10 % du chiffre d’affaires annuel global d’une entreprise ». Dans le même esprit, le projet de loi européen sur les services numériques – le DSA (7) – impose des obligations de réactivité raisonnable (due diligence obligations) aux plateformes en ligne. Il introduit également un régime spécifique pour les « très grandes plateformes en ligne » (à partir de 45 millions d’utilisateurs actifs dans l’Union européenne), qui devront se conformer à des obligations supplémentaires telles qu’en matière de transparence stricte et de déclaration, de vérifications annuelles, de divulgation des principaux paramètres utilisés dans leurs systèmes de recommandation (dont les algorithmes) et la nomination d’un agent de conformité. Là aussi la CCIA retient que les amendes peuvent atteindre 6% du chiffre d’affaires annuel en cas de non-conformité. « Nous appuyons les efforts visant à encourager l’innovation et une concurrence efficace. Nous espérons que la loi finale ciblera les comportements problématiques plutôt que la taille de l’entreprise », a déclaré Kayvan Hazemi-Jebelli, un ancien du cabinet d’avocats Hogan Lovells, conseil depuis plus d’un an de la CCIA à Bruxelles en matière concurrentielle et réglementaire. « Le DMA introduirait de nouvelles règles de définition du marché régissant les services de base des plateformes. Dans ces marchés numériques en évolution dynamique, le risque de législation contre-productive est élevé. Nous espérons que le résultat final sera bon pour les consommateurs de l’Union européenne, les utilisateurs commerciaux et l’écosystème numérique dans son ensemble », a-t-il fait valoir. Concernant le DSA, cette fois, la CCIA espère ce que les Européens continueront à bénéficier de tous les avantages économiques et sociaux des services numériques. « Toute nouvelle obligation doit être réalisable et proportionnée aux risques connus. La création d’un régime spécifique axé sur les “très grandes plateformes en ligne” risque de pousser par inadvertance le contenu et les produits illégaux vers les petits fournisseurs de services numériques », met en garde Victoria de Posson, directrice des affaires publiques de la CCIA Europe.
Quant à l’association DigitalEurope, également installée à Bruxelles et représentant les GAFAM ainsi que Samsung, Huawei, Sony, Nvidia ou encore Dropbox, elle plaide pour une réglementation de l’Internet qui soit « un équilibre entre la protection des droits fondamentaux comme la liberté d’expression et la vie privée, d’un côté, et la prévention des activités illégales et nuisibles en ligne, de l’autre ». Sa directrice générale, Cecilia Bonefeld-Dahl, appelle l’Union européenne à « exploiter au maximum les outils de concurrence existants avant d’envisager l’introduction de nouveaux mécanismes susceptibles d’entraver l’innovation et l’entrée sur le marché ».

Google se sent visé ; Facebook tacle Apple
Membre de ses trois lobbies européens, Google – la filiale d’Alphabet – a fait part de ses inquiétudes vis-à-vis du DSA et du DMA. « Nous sommes préoccupés par le fait que les propositions faites par la Commission européenne semblent cibler spécifiquement une poignée d’entreprises et rendre plus difficile le développement de nouveaux produits pour soutenir les petites entreprises en Europe », a déclaré Karan Bhatia, directeur des affaires publiques et réglementaires de Google. Un porte-parole de Facebook en a profité, quant à lui, pour s’en prendre à la marque à la pomme : « Nous espérons que le DMA fixera également des limites pour Apple. Apple contrôle tout un écosystème, d’un appareil à l’autre et utilise ce pouvoir pour nuire aux développeurs et aux consommateurs, ainsi qu’aux grandes plateformes comme Facebook ». Ambiance. @

Charles de Laubier

Données de connexion et usage d’algorithmes : les lois françaises en violation des droits fondamentaux

La justice européenne a déclaré illégales les dispositions françaises sur la conservation des données de trafic et de localisation par les opérateurs télécoms, ainsi que par les hébergeurs. Elle a aussi fourni une feuille de route sur l’utilisation de « boîtes noires » dans la lutte contre le terrorisme.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

La Cour de justice de l’Union européenne (CJUE) a, le 6 octobre 2020 (1), mis fin à un débat qui existe depuis le 8 avril 2014, date à laquelle elle avait annulé la directive de 2006 sur la conservation des données de trafic (2), estimant que celle-ci était contraire à la Charte des droits fondamentaux de l’UE (3). La CJUE a jugé que cette directive créait une atteinte disproportionnée au droit à la protection des données personnelles parce qu’elle exigeait la conservation généralisée et indifférenciée des données de trafic de l’ensemble de la population.

La France n’a pas (encore) bougé
La CJUE est intervenue une deuxième fois en 2016, annulant les dispositions britanniques et suédoises sur la conservation des données de trafic, précisant de nouveau qu’une obligation de conservation généralisée et indifférenciée était incompatible avec cette même Charte des droits fondamentaux (4). Malgré ces deux décisions de la justice européenne, la France n’a pas bougé, préservant sa législation qui impose, d’une part, la conservation par les opérateurs de communications électroniques des données de connexion et de localisation, et, d’autre part, la conservation par les hébergeurs des données relatives à l’identification des utilisateurs et à leurs activités sur les plateformes numériques.
En plus, après les attentats terroristes de 2015, la France a introduit de nouvelles mesures permettant aux autorités d’utiliser des « boîtes noires » pour analyser l’ensemble des données de trafic des réseaux. Et ce, afin de détecter des signaux faibles de projets terroristes.
La Quadrature du Net (5) a contesté l’ensemble de ces mesures devant le Conseil d’Etat, et celui-ci a envoyé plusieurs questions préjudicielles à la CJUE. Devant cette dernière, le gouvernement français a d’abord défendu sa législation sur le fondement de l’article 4 du Traité sur l’UE qui précise que la protection de la sécurité nationale relève de la compétence exclusive de la France. A titre subsidiaire, le gouvernement français a soutenu que la lutte contre le terrorisme justifiait des mesures de surveillance plus intrusives qu’en matière de criminalité simple, et que les dispositions françaises devaient dès lors être validées compte tenu du risque accru du terrorisme.
Sur le premier point, la CJUE a confirmé que le droit de l’UE ne s’appliquait pas aux activités de renseignement et de protection de la sécurité nationale entreprises par l’Etat lui-même. En revanche, lorsque l’Etat impose aux entreprises privées des obligations telles que la conservation de données, le droit de l’UE s’applique, même s’il s’agit de mesures destinées à lutter contre le terrorisme. Par conséquent, la jurisprudence de la CJUE dans les affaires précitées de 2014 « Digital Rights Ireland » et de 2016 « Tele2 Sverige et Watson » s’applique pleinement à la France.
La CJUE a été d’accord avec la France sur la nécessité d’accorder une marge de manœuvre plus grande aux Etats membres en matière de protection de la sécurité nationale, car la menace est d’une toute autre nature qu’en matière de criminalité. Pour apprécier la proportionnalité de différentes mesures de surveillance, la CJUE établit trois niveaux de gravité :
• Le premier niveau est la protection de la sécurité nationale, y compris la lutte contre le terrorisme. Selon la CJUE, « la prévention et la répression d’activités de nature à déstabiliser gravement les structures constitutionnelles, politiques, économiques ou sociales fondamentales d’un pays, et en particulier à menacer directement la société, la population ou l’Etat en tant que tel », peut justifier une atteinte plus forte aux droits fondamentaux et, notamment, une obligation généralisée de conserver des données de trafic et de localisation. Mais cette obligation ne peut être justifiée que pendant une période limitée durant laquelle il existerait des « circonstances suffisamment concrètes permettant de considérer que l’Etat (…) fait face à une menace grave » pour sa sécurité nationale. Une commission indépendante ou un tribunal doit valider l’existence d’une telle menace.

Les trois niveaux de gravité
• Le deuxième niveau de gravité concerne la lutte contre la criminalité grave et les menaces graves contre la sécurité publique. Pour ce niveau, une obligation de conservation systématique et continue de données est exclue. Selon la CJUE, il faudrait qu’il existe un lien, même indirect, entre les données dont la conservation est demandée, et la détection ou la répression d’un crime grave. Ainsi, les demandes de conservation de données de trafic et de localisation doivent être ciblées, concernant un groupe particulier de personnes, ou une zone géographie à risque, par exemple les données de trafic autour d’une gare. En revanche, s’il s’agit uniquement des adresses IP, ceux-ci peuvent être stockés de manière généralisée, selon la justice européenne.
• Le troisième niveau concerne toutes les formes de criminalité. Seul le stockage des données relatives à l’identité civile des utilisateurs peut être envisagé. La conservation d’autres données est exclue.
Cette approche graduée découle naturellement de la jurisprudence de la CJUE en matière de proportionnalité – plus la menace pour l’Etat et les citoyens est élevée, plus le niveau d’ingérence avec la vie privée peut être élevé.

Algorithmes de détection en temps réel
La France devra donc réécrire ses lois pour introduire une différenciation entre les menaces graves pour la sécurité nationale (menaces de niveau 1), menaces graves pour la sécurité publique et lutte contre la criminalité grave (menaces de niveau 2), et lutte contre la criminalité ordinaire (menaces de niveau 3). A chaque niveau correspondra des règles adaptées en matière de conservation des données.
L’autre leçon de la décision de la CJUE concerne la régulation des algorithmes utilisés par l’administration française pour détecter des projets terroristes. Depuis la loi de 2015 sur les techniques de renseignement (6), les services spécialisés – désignés par décret en Conseil d’Etat – ont la possibilité de procéder à l’analyse automatique des données de trafic et de localisation en temps réel afin de détecter des signaux faibles d’activités terroristes. Cette possibilité est strictement encadrée par la Commission nationale de contrôle des techniques de renseignement (CNCTR (7)), et la période d’expérimentation doit prendre fin le 31 juillet 2021. Le gouvernement a récemment proposé d’étendre la période d’expérimentation des algorithmes jusqu’à fin décembre 2021.
L’utilisation de l’intelligence artificielle pour lutter contre le terrorisme est controversée, car les algorithmes sont faillibles et peuvent tirer des conclusions erronées et discriminatoires. Dans sa décision du 6 octobre, la CJUE fournit une feuille de route sur la possibilité de déployer ces outils.
D’abord, la justice européenne confirme que l’analyse des données de trafic et de localisation en temps réel constitue une ingérence « particulièrement grave » avec la protection de la vie privée. Le déploiement d’un tel dispositif doit être prévu par une loi claire et précise qui définit les limites et les mesures de protection accompagnant le dispositif. La CJUE indique que le dispositif ne peut se justifier qu’en présence d’une menace grave pour la sécurité nationale qui s’avère « réelle et actuelle ou prévisible ». Un tribunal ou autorité administrative indépendante doit contrôler l’existence d’une telle menace, et ses décisions doivent avoir un effet contraignant. En ce qui concerne l’algorithme lui-même, les modèles et critères préétablis doivent être « spécifiques et fiables, permettant d’aboutir à des résultats identifiant des individus à l’égard desquels pourrait peser un soupçon raisonnable de participation à des infractions terroristes et, d’autre part, non discriminatoires ». Les modèles et critères préétablis ne peuvent se fonder seulement sur des données sensibles. Les termes utilisés par la CJUE suggèrent que l’algorithme pourrait éventuellement s’appuyer – en partie – sur des données sensibles, ce qui semble en contradiction avec le règlement général sur la protection des données (RGPD) en vigueur au niveau européen. La CJUE indique ensuite que tout algorithme comporte un taux d’erreur, et que tout résultat positif doit être soumis à un réexamen individuel par un analyste humain avant la mise en œuvre d’autres mesures de surveillance. Cette exigence de la CJUE pose la question de la compréhension de la recommandation algorithmique par l’analyste humain et sa capacité de contredire l’algorithme. Pour qu’il y ait une vraie intervention humaine, l’algorithme doit être en mesure d’expliquer pourquoi il a détecté des signaux faibles d’activités terroristes, et l’analyste humain doit être en mesure d’apporter une analyse critique par rapport à l’explication donnée par l’algorithme. Lorsque l’algorithme s’appuie sur des techniques d’apprentissage-machine (machine learning), de telles explications peuvent s’avérer difficiles. La CJUE impose un réexamen régulier de l’algorithme et les données utilisées pour garantir l’absence de discrimination et le caractère strictement nécessaire du dispositif à la lumière de la menace terroriste. La fiabilité et l’actualité des modèles et critères préétablis, et les bases de données utilisées, doivent également être revues régulièrement par une autorité de contrôle, soit une forme de suivi dynamique. Enfin, si l’algorithme débouche sur la surveillance plus poussée d’un individu, celui-ci doit être informé dès le moment où cette communication n’est pas susceptible de compromettre les missions incombant aux autorités.

Renseignement : la loi française à réécrire
Réunie le 7 juillet 2020, la commission de la Défense nationale et des Forces armées de l’Assemblée nationale a estimé que le recours aux algorithmes était utile et nécessaire dans lutte contre le terrorisme et devrait être pérennisé, voire étendu pour permettre l’analyse d’autres données, telles que des URL (8) de sites web consultés (9). Au moment de sa séance, la commission parlementaire avait connaissance de l’affaire pendante devant la CJUE et a reconnu que celle-ci pourrait avoir un profond impact sur les méthodes utilisées en France. Elle ne s’y est pas trompée : la décision du 6 octobre impose une réécriture de la loi française sur les techniques de renseignement. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

Comment YouTube et Uploaded ont encore échappé à leurs responsabilités dans deux affaires de piratage

L’article 17 controversé de la directive « Droit d’auteur et les droits voisins dans le marché unique numérique » n’a pu être appliqué ni à YouTube (Google) ni à Uploaded (Cyando). Et pour cause : l’Allemagne, où deux plaintes pour piratage avaient été déposées, n’a pas encore transposé le texte européen.