Un NFT est un OJNI dissociant l’unicité d’un bien, lequel suppose une licence d’utilisation

Toute transaction de NFT confère un droit qui n’est pas un droit de propriété, contrairement à ce que laissent supposer les plateformes de commercialisation, mais seulement l’octroi d’une licence d’utilisation restreinte, temporaire, donnée par le créateur du NFT à un souscripteur. Explications.

Par Fabrice Lorvo*, avocat associé, FTPA.

La révolution numérique nous a propulsé dans l’univers de la dématérialisation. Sa première vague, par l’intermédiaire des plateformes, nous a initiés à la dissociation entre la propriété et son usage. Amazon est le plus grand magasin au monde sans posséder de magasins – même si à la marge sa stratégie brick-and-mortar point (1). De même, Airbnb semble être le plus grand hôtelier planétaire sans posséder un seul hôtel et Uber est sans doute la plus grande entreprise de transport sans posséder une seule voiture.

Non-fongible, unique et original
Avec le NFT (Non-Fungible Token, ou jeton non-fongible), nous découvrons la dissociation d’un bien avec son support. Un NFT est un actif numérique unique associé à un support électronique parfois extrêmement banal (un fichier au format jpeg, mp3 ou mp4, etc.). Un NFT peut représenter n’importe quoi. Il peut être une image, un son, une vidéo ou encore un écrit. Il peut être créé par n’importe qui, donc par chacun d’entre nous. L’unicité comme la traçabilité de cet actif unique sont certifiées par un dépôt dans la blockchain, à savoir une chaîne de blocs cryptée de bout-en-bout qui permet d’assurer la traçabilité et l’authenticité des transactions de façon décentralisée. Un tout récent rapport formule une définition : « Concrètement, l’acquisition d’un jeton non-fongible (“JNF” en français, “NFT” en anglais) correspond à l’acquisition d’un jeton inscrit sur la blockchain et associé à un “smart contract” (contrat intelligent, en français), qui renvoie à un fichier numérique (image, son, vidéo, …) » (2).
Ce nouvel outil numérique prometteur – mais aux allures d’OJNI (objet juridique non identifié) – n’est pas facilement appréhendable par le grand public du fait de sa totale dématérialisation, et cette difficulté est renforcée par la confusion entre l’objet (le NFT), le lieu d’échange (la plateforme de commercialisation) et les conditions de l’échange (l’environnement numérique). Bien que difficilement conceptualisable, le NFT connaît une très forte notoriété, probablement du fait du fantasme implicite d’une plus-value immédiate et importante. Quel est le concept ? Dans le domaine de l’art, par exemple, un NFT est une œuvre originale (c’est notre postulat mais gare aux contrefaçons), qui est soit directement créée de manière numérique, soit représentant numériquement une œuvre qui existe déjà sur un autre support matériel (comme une toile). Ce NFT peut représenter l’œuvre intégralement ou par morceau, comme une pièce de puzzle (ou «mass »). Cette « chose » (le jeton) est dite « non-fongible » car elle ne peut pas être échangée contre quelque chose de valeur égale. A l’inverse, une pièce de 1 euro est un bien fongible car elle peut être échangée avec une autre pièce de 1 euro qui aura la même valeur. Etant unique, le NFT est doublement non-fongible : un NFT n’a pas la même valeur qu’un autre NFT – le NFT « Merge » détient pour le moment le record avec une vente estimée autour de 91,8 millions de dollars (3). De plus, il peut exister plusieurs représentations d’un même NFT sur un même support (fichier au format jpeg par exemple) mais seul celle qui a été désignée comme unique par son auteur et authentifiée comme telle sur une blockchain a de la valeur. Si l’on fait abstraction de la plateforme et des conditions de commercialisation, au moins dans le domaine de l’art, le NFT n’est donc qu’une représentation virtuelle d’une œuvre dissociée de son support. Dans le monde matériel, l’unicité c’est à la fois le fait qu’il n’existe pas le même type d’œuvre sur le même type de support (approche objective) et qu’une seule personne puisse la détenir (approche subjective). En pratique, les deux se confondent. Lorsqu’on achète « une toile », on possède à la fois le support de la peinture et l’image de la peinture.
Dans le monde numérique, du fait de la dématérialisation, c’est l’image du NFT (c’est-à-dire sa représentation virtuelle) qui fait l‘objet de la transaction. Son support (c’est-à-dire le fichier numérique qui permet la représentation virtuelle) reste dans la blockchain.

Dissociation image-support : problèmes
Cette dissociation de l’image et de son support pose cependant des problèmes pratiques.
• Le premier problème est qu’il est difficile de commercialiser une image virtuelle. Le caractère dématérialisé de l’image est difficilement appréhendable par le juriste dès lors qu’en matière de chose, nos lois régissent essentiellement la possession et donc la détention matérielle : « En fait de meubles, la possession vaut titre » (4). Comment peut-on posséder une chose qui n’est qu’une image virtuelle ? La loi va devoir s’adapter à ce nouvel outil et elle commence à le faire. Jusqu’à récemment, la loi limitait la vente volontaire de meubles aux enchères publiques aux seuls biens mobiliers corporels (5), ce qui excluait en France notamment la vente aux enchères des NFT. Or, de telles ventes étaient possibles hors de France. Rappelons que Christie’s à New York avait vendu en mars 2021 le NFT « Everydays: the First 5.000 Days » pour plus de 69,3 millions de dollars (6). Depuis mars 2022, l’interdiction a été levée en France. L’article L320-1 du code du commerce a été modifié par la loi « Moderniser la régulation du marché de l’art » du 28 février 2022 (7). La preuve du dépôt dans la blockchain • Le second problème est de savoir comment accorder de la valeur à une image virtuelle et, ce faisant, comment s’approprier une image virtuelle. Pour être commercialisé, un NFT doit être exposé, et donc être visible de tous. A priori sa valeur ne résulte pas de son exposition. Même s’il est une représentation virtuelle, le NFT, pour être commercialisé, ne peut s’affranchir de tout support. Cette dissociation n’est donc pas totale dès lors que l’image virtuelle est en fait associée à un support unique. L’unicité du support – et donc sa valeur – résultera du fait qu’il sera désigné comme tel par l’auteur du NFT. Et ce, par un dépôt dans la blockchain. Même s’il peut exister plusieurs représentations d’un NFT sur un même type de support, seul sera unique le support du NFT qui aura été désigné comme tel par le créateur dudit NFT. Par exemple, un NFT peut être représenté sur un support extrêmement banal (une vidéo au format mp4 par exemple), copiable par milliers et, en même temps, être unique, parce que son créateur l’aura rendu unique en le déposant dans la blockchain. Cette unicité ne pourra pas être, en droit, remise en cause par l’acquéreur du NFT. En effet, en déposant dans la blockchain une autre copie en mp4 du NFT vidéo unique (notre exemple), ledit acquéreur n’en ferait qu’une contrefaçon
Tout le monde peut voir un NFT s’il est mis en ligne sur une plateforme dédiée, mais une seule personne peut se prétendre détentrice de la preuve du dépôt d’un support unique dans la blockchain. Le NFT permet donc de dissocier l’unicité de la détention du support de celle de la propriété matérielle. Il permet donc d’ajouter une nouvelle modalité à l‘unicité en déclarant le NFT comme tel par son dépôt dans la blockchain. Outre la difficulté du concept, le NFT s’échange en utilisant d’autres outils nouveaux. La commercialisation des NFT suppose d’utiliser un environnement numérique, lui-même source de complexité. En effet, qui veut comprendre le fonctionnement des NFT doit aussi s’initier à la création et l’usage du portefeuille électronique, ou wallet, qui permet en effet de stocker et gérer ses crypto-actifs de la même manière qu’un compte en banque. Mais aussi il doit savoir recourir aux smart contracts (8). L’utilisateur doit aussi de familiariser avec l’utilisation de la cryptomonnaie (monnaie numérique émise de pair-à-pair sur un réseau décentralisé et sans nécessiter de banque centrale), le tout déposé dans la blockchain (là encore sans intermédiaire centralisé).
Enfin, l’échange de NFT suppose le recours à des places de marché. Le NFT est actuellement commercialisé par le biais de plateformes dédiées (OpenSea, Binance, Sorare, …), lesquelles ont imposé leurs pratiques de commercialisation. La difficulté est que l’acheteur du NFT ne sait pas toujours ce qu’il achète, ni comment il l’achète. Les plateformes sont assez « pudiques » sur le sujet, n’offrant qu’un espace de commercialisation (9) et renvoyant aux deux parties le soin de définir la nature et les conditions de « l’échange ». C’est une place de marché qui, assez étrangement, ne fixe pas les conditions juridiques du marché.
Du fait de la nature même du NFT (une représentation virtuelle), toute transaction confère un droit qui n’est pas un droit de propriété contrairement à ce que laisse supposer le vocabulaire utilisé par les plateformes (« acheteur », « vendeur », etc.). Toute commercialisation n’est, en réalité, que l’octroi d’une licence d’utilisation restreinte temporaire donnée par le créateur du NFT à un souscripteur. Cette licence se transmet sur le marché primaire (cession initiale) ou sur le marché secondaire (cessions ultérieures).
S’agissant du marché primaire, la commercialisation suppose la réunion de trois conditions :
Le NFT doit être créé par un artiste ; il s’agit essentiellement d’une œuvre de l’esprit unique qui ne doit pas porter atteinte aux droits des tiers. Le support électronique utilisé pour reproduire ou représenter ce NFT peut être commun (comme un jpeg) ; Le NFT doit être déposé dans la blockchain, et faire l’objet d’un certificat de dépôt pour singulariser et authentifier le NFT. Le support de la représentation devient ainsi unique ; L’artiste doit transférer le NFT au client primaire contre une rémunération dans le cadre d’une licence d’utilisation du NFT, cette licence définissant les conditions dans lesquelles le titulaire peut utiliser le NFT.
S’agissant du marché secondaire, la commercialisation suppose la réunion de deux conditions :
Le client primaire cède son NFT à un client secondaire qui paye le prix net au client primaire et la rémunération directement de l’artiste (généralement 10 %) et le cas échéant, la rémunération technique à la plateforme ; L’artiste confère au client secondaire une nouvelle licence d’utilisation (celle du client primaire devenant caduque du fait de la nouvelle « cession »).

Lenteur d’un consentement éclairé
Par la conclusion d’un contrat de licence à chaque « cession », chacun saurait la réalité de ce qu’il achète et les transactions n’auraient pas à se faire obligatoirement en cryptomonnaie – ce qui supprimerait les risques consécutifs à ce type de moyens de paiement. Cependant, un tel processus est beaucoup plus lourd que les facilités offertes par les plateformes. Il faut donc choisir entre la lenteur d’un consentement éclairé ou la rapidité dans l’ignorance de la nature des droits acquis. @

Le marché unique du numérique et de ses données fait face à un foisonnement de textes législatifs

Les acteurs du numérique et de la data en Europe ne sont pas au bout de leur peine. Le marché est peut-être unique, mais la législation – en vigueur et à venir – est multiple. La mise en œuvre pratique des textes, souvent imbriqués, est complexe et peu intelligible. Petit aperçu de ce labyrinthe.

Si l’Union européenne (UE) a déjà pris plusieurs mesures depuis 2014 afin de faciliter le développement d’une économie des données (1), elle entend, dans le cadre de sa stratégie pour les données et des objectifs fixés pour la « décennie numérique » (2), compléter les textes existants afin de créer de nouveaux droits et obligations destinés à favoriser l’accès et le partage des données, le développement des technologies et la souveraineté numérique. D’où le foisonnement de textes législatifs qui vont bouleverser considérablement l’écosystème de l’économie numérique et des données.

Chantier de la « décennie numérique »
Les principaux acteurs concernés (notamment les fabricants d’objets connectés, les fournisseurs de services d’intermédiation de données et les prestataires de cloud) devront tenir compte de ces nouvelles obligations et anticiper leur entrée en application dans la conception de leurs solutions et de leurs produits, ainsi qu’au sein de leur documentation contractuelle. Pas si simple. Tour d’horizon de ces nouveaux textes :
• Data Governance Act (DGA). Ce règlement sur la gouvernance des données (3) a été adopté le 30 mai 2022 et entrera en application à partir du 24 septembre 2023, avec pour objectif de favoriser la disponibilité des données, de renforcer les mécanismes de partage et d’augmenter la confiance dans les intermédiaires de données. Ainsi, le DGA adresse trois grandes thématiques : conditions d’accès et de réutilisation des « données protégées » détenues par des organismes publics ; régulation des fournisseurs de services d’intermédiation de données ; régulation de l’utilisation altruiste des données. Sur le premier point, le DGA vient compléter la directive « Open Data » de 2019, mais ne crée pas d’obligation de mise à disposition pour les organismes publics (4). Il vient encadrer les réutilisations qui peuvent être faites de ces données protégées en veillant (5) à les préserver (6). Concernant les deux autres points, le DGA crée deux régimes spécifiques et dédiés pour les services d’intermédiation de données (7) et les organisations altruistes en matière de données (8). Les services d’intermédiation de données (data marketplaces ou data pool par exemple) seront soumis à une notification auprès d’une autorité compétente préalablement à tout début d’activité et auront notamment l’obligation de fournir les services selon des conditions équitables, transparentes et non-discriminatoires, de prendre des mesures pour assurer l’interopérabilité avec d’autres services d’intermédiation de données, de mettre en place des mesures de sécurité appropriées pour empêcher l’accès et le transfert illicite de données non-personnelles. Ils devront également notifier aux détenteurs de données en cas d’accès, de transfert ou d’utilisation non-autorisés aux données non-personnelles partagées. De leur côté, les organisations altruistes se verront notamment imposer la tenue d’un registre des utilisations des données, la publication d’un rapport annuel d’activité, des obligations de transparence vis-à-vis des personnes concernées ou des détenteurs de données (objectifs d’intérêt général, finalités des traitements) et de sécurisation des données non-personnelles.
Le DGA crée enfin un régime restrictif de transfert des données non-personnelles hors-UE similaire au régime prévu par le RGPD.
• Data Act (DA). Ce projet de règlement sur les données (9) a été soumis par la Commission européenne le 23 février 2022. Un objectif d’adoption ambitieux a été fixé à mi-2023, pour une entrée en application douze mois après son adoption. Il s’agit de faciliter l’accès aux données et leur utilisation, de favoriser leur portabilité, d’améliorer l’interopérabilité des solutions et infrastructures et enfin de favoriser la création de valeur autour de la donnée. Sont notamment impactés : les fabricants et distributeurs d’objets connectés et les fournisseurs de services connexes basés sur l’utilisation de données générées par ces objets, tout détenteur et destinataire de données, les prestataires et utilisateurs de services cloud (IaaS, PaaS, SaaS) ou encore les opérateurs de data spaces.

Portabilité des données et services de cloud Le DA prévoit notamment des obligations pour les fabricants ou distributeurs d’objets connectés qui viennent compléter les obligations d’information et de portabilité prévues par le RGPD, comme l’obligation d’informer leurs utilisateurs sur les données générées par l’usage des objets et les conditions d’accès et de partage de telles données, ainsi qu’une obligation de mise à disposition gratuite et prompte (le cas échéant en temps réel et continu) des données générées par des objets connectés à leurs utilisateurs ou à un tiers à la demande de l’utilisateur, et ce dans des conditions équitables, raisonnables, transparentes, non-discriminatoires et non-exclusives. Ces obligations sont complétées par des interdictions (par exemple des clauses restreignant les droits des utilisateurs d’objets ou des clauses abusives imposées aux petites et moyennes entreprises). Objets connectés, dossiers médicaux, … Le Data Act impose par ailleurs une série d’obligations aux prestataires de services cloud en matière de migration de données et d’interopérabilité (par exemple supprimer les obstacles commerciaux, techniques et contractuels empêchant le client de porter ses données, applications ou autres actifs numériques vers d‘autres prestataires ; assurer une période transitoire de migration de 30 jours avec assistance ; ou encore assurer la compatibilité de ses services avec les normes d’interopérabilité de la Commission européenne).
• European Health Data Space (EHDS). La proposition de règlement sur l’espace européen des données de santé (10) a été soumise par la Commission européenne le 3 mai 2022. L’UE entend adopter ce texte d’ici 2025, pour une entrée en application douze mois après sa publication. L’objectif est triple : établir les règles régissant l’espace européen des données de santé afin d’améliorer et garantir aux personnes physiques un accès sûr à leurs propres données de santé et un contrôle sur ces données dans le contexte des soins de santé (dite « utilisation primaire ») ; améliorer le fonctionnement du marché unique pour la mise au point et l’utilisation de produits et services de santé innovants fondés sur des données de santé, et veiller à ce que les chercheurs et les entreprises innovantes puissent tirer le meilleur parti des données de santé disponibles pour leurs travaux (dite « utilisation secondaire ») ; établir un cadre juridique uniforme pour le développement, la commercialisation et l’utilisation des systèmes de dossiers médicaux électroniques (DME). Dans le cadre de l’utilisation primaire des données, les citoyens de l’UE auront à leur disposition des droits et mécanismes supplémentaires complétant leurs droits existants au titre du RGPD sur leurs données de santé électroniques.
Concernant l’utilisation secondaire, le projet de règlement EHDS vient encadrer avec précision les pratiques des chercheurs et acteurs de l’industrie de santé (par exemple : limitation des catégories de données pouvant être utilisées, encadrement des finalités autorisées) et leur imposer des obligations (sécurité des solutions utilisées, transparence sur le calcul des redevances générées par l’utilisation secondaire).
• Artificial Intelligence Act (AIA). Cette proposition de règlement sur l’intelligence artificielle (11) a été soumise le 21 avril 2021 par la Commission européenne. L’adoption de ce texte est pressentie à horizon 2024, pour une entrée en application entre 18 et 24 mois après son adoption. Le texte vise à créer les conditions propices au développement et à l’utilisation d’une IA de pointe, éthique, sûre et digne de confiance dans l’UE. Pour se faire, l’approche est technologiquement neutre et le texte met en place des règles impératives, applicables de façon proportionnée en fonction des risques que présentent les systèmes d’IA concernés. Ainsi, les IA présentant un risque inacceptable pour les personnes sont interdites ; celles présentant un haut risque se voient imposer un certain nombre d’obligations; celles présentant un risque faible sont soumises à des obligations de transparence et d’information vis-à-vis des utilisateurs ; et enfin celles présentant un risque résiduel ne sont pas soumises au projet de règlement AIA, mais régulées par l’adoption volontaire de code de conduite et/ou de charte éthique (12).
• Digital Services Act (DSA) et Digital Markets Act (DMA). Un accord politique a été conclu sur le DMA (13) le 24 mars 2022 et sur le DSA (14) le 23 avril 2022, suivi d’un vote final au Parlement européen le 5 juillet dernier. Une fois adoptés respectivement en juillet et en septembre 2022, le DMA entrera en application six mois après l’entrée en vigueur, et le DSA quinze mois après l’entrée en vigueur ou à partir du 1er janvier 2024, la date la plus tardive étant retenue (15).
• Modifications de textes existants. Plusieurs autres textes sont également en cours de révision. La directive NIS (16) est modifiée par le projet de directive NIS2, dont le champ d’application a été considérablement élargi, puisqu’il vise désormais à réguler beaucoup plus d’organisations et entreprises et qu’il renforce les obligations à la charge des acteurs concernés en imposant notamment des obligations renforcées en termes de gestion des risques, de notification des incidents et de divulgation des vulnérabilités (17). La directive Machines (18) devient un projet de règlement Machines (19), visant principalement une numérisation de la documentation en la matière (instructions d’utilisation et déclaration) et la mise en place d’évaluations de conformité (pour certaines catégories de produits). De son côté, la directive ePrivacy (21), transformée en projet de règlement ePrivacy peine à voir le jour depuis la publication de sa première version en janvier 2017. De nombreux points restent encore et toujours en débat, notamment sur le régime applicable au dépôt de cookies et à la prospection commerciale.

Imbrication des textes parfois peu intelligible
Ces textes sont ambitieux et mêlent approche globale et sectorielle. Il en résulte une imbrication parfois peu intelligible des différents mécanismes et obligations pesant sur les acteurs qui multiplient souvent de nombreuses casquettes et entrent donc simultanément dans les champs d’application de plusieurs de ces textes. Bien qu’il soit louable de vouloir emboîter le pas au développement exponentiel de la valeur des données et du numérique, on peut s’interroger sur l’efficacité d’une telle multiplication de textes qui entraîne malheureusement la publication de textes peu aboutis, péniblement interopérables, voire difficilement transposables à la pratique des industries qu’ils visent. @

Collecte de données de géolocalisation mobile : la Cnil mène l’enquête au regard du RGPD

Le 13 juin 2022, la Commission nationale de l’informatique et des libertés (Cnil) a annoncé avoir confié à son laboratoire Linc une étude sur les données de géolocalisation collectées par des applications mobiles, la revente de données et les data brokers. Elle vérifiera la conformité avec le RGPD.

« Si cette étude n’est pas liée à une procédure de contrôle ou de sanction, elle s’inscrit néanmoins dans l’une des thématiques prioritaires de contrôles puisqu’en 2022 la Cnil vérifiera la conformité au RGPD des professionnels du secteur [en l’occurrence de la prospection commercial, dont la publicité en ligne, ndlr], en particulier de ceux qui procèdent à la revente de données, y compris, des nombreux intermédiaires de cet écosystème (aussi appelés data brokers) », précise le gendarme français des données et des fichiers informatiques.

Données anonymisées ou authentiques
Cela fait partie de ses priorités pour l’année en cours, dans le cadre sa mission de contrôle du respect du règlement général sur la protection des données (RGPD), lequel fut adopté en 2016 par le Parlement européen (1) et en vigueur depuis mai 2018 dans les Vingt-sept. Cette enquête est confiée au Laboratoire d’innovation numérique (Linc), dirigé depuis plus d’un an par Vincent Toubiana (photo). Cette mission s’achèvera dans quinze mois – en septembre 2023 – et « ce projet donnera lieu à plusieurs publications sur le site web du Linc » (2). Si la Cnil n’envisage pas – pour l’instant ? – d’actions répressives à l’encontre des exploitants de données, anonymisées et/ou personnelles, qui enfreindraient le RGPD et la protection de la vie privée des internautes, elle prévoit de « sensibiliser le public et les professionnels sur les enjeux liés à la collecte de données de géolocalisation par les applications mobiles ».
Pour étudier les pratiques aux finalités publicitaires et marketing, le Linc est en train d’analyser « un échantillon de données correspondant à la France » que la Cnil s’est procuré auprès d’un data broker de la place en se faisant passer pour un client potentiel lambda. Elle a pu ainsi obtenir du courtier de données « un jeu de données de géolocalisation » concernant des personnes. La Cnil précise que le jeu de données concerné est un fichier comportant des données de géolocalisation horodatées avec des points de localisation associés à près de 5 millions d’identifiants publicitaires de smartphones (Android et iOS) sur une période d’environ une semaine en 2021. « Les données transmises, précise le régulateur des données personnelles, sont présentées comme anonymisées par le revendeur de données. Après une rapide analyse, la Cnil considère qu’au moins une partie de ces données est authentique. Elle vérifiera si, sur la base de ce jeu de données, elle est en capacité de réidentifier les personnes et, dans l’affirmative, elle informera individuellement celles-ci ».
Dans l’éventualité où des personnes seraient réidentifiées, assure donc l’autorité indépendante de la place de Fontenoy, le traitement de leurs données sera suspendu jusqu’à ce qu’elles soient individuellement informées. « Si vous souhaitez plus d’informations sur ce traitement ou si vous souhaitez exercer vos droits, vous pouvez contacter ip@cnil.fr ou adresser un courrier à la Cnil à l’attention du service Linc », indique-t-elle. Des mesures particulières ont même été prises pour assurer la confidentialité de ces données auxquelles ne pourront accéder que l’équipe du Linc. Dans le jeu de données fourni, apparaissent des identifiants publicitaires. Ce que l’on appelle « identifiant publicitaire » consiste en une chaîne de caractères associée à un unique smartphone et permettant à des annonceurs de le reconnaître pour lui adresser de la publicité. « Comme son nom l’indique, cette donnée est identifiante : il s’agit donc d’une donnée personnelle. Un acteur disposant de deux sources de données présentant le même identifiant publicitaire est en mesure de relier les informations et de construire un profil plus complet de la personne à laquelle l’identifiant est associé », souligne la Cnil.

Deux missions : information et veille techno
Un courtier de données est à même de pouvoir relier les données d’utilisations collectées à partir de différentes applications installées sur un même smartphone. « Plus cet identifiant est stable dans le temps, fait remarquer l’autorité, plus il permet d’accumuler des informations sur les habitudes des propriétaires de smartphones. Il est donc conseillé de renouveler régulièrement cet identifiant ». Dans l’étude du Linc, l’identifiant publicitaire ne sera utilisé que pour faire le lien entre les points de localisation correspondant à un même smartphone. Un acteur de la publicité, lui, cherchera à faire le lien utiliser la valeur de l’identifiant pour l’associer à d’autres données telles que des données d’utilisation d’applications mobiles. La course à la géolocalisation mobile à des fins de publicités ciblées en temps réel – le RTB (Real Time Bidding) – serait la plus grande atteinte à la vie privée, selon l’ONG irlandaise ICCL (3), qui a publié le 16 mai dernier une étude édifiante (4) : en Europe, l’industrie du RTB expose les données des gens 376 fois par jour en moyenne ; aux Etats-Unis, c’est 747 fois ! L’industrie américaine et européenne du RTB a généré plus de 117 milliards de dollars en 2021.

Des mesures législatives ou réglementaires ?
Cette étude sur les données de géolocalisation collectées par des applications mobiles s’inscrit dans le cadre de deux missions précises de la Cnil prévues par la loi « Informatique et Liberté » : d’une mission d’information telle que définie dans l’article 8.I.1 (« Elle informe toutes les personnes concernées et tous les responsables de traitements de leurs droits et obligations et peut, à cette fin, apporter une information adaptée aux collectivités territoriales, à leurs groupements et aux petites et moyennes entreprises ») ; d’une mission de suivi de l’évolution des technologies de l’information telle que définie dans l’article 8.I.4 (« Elle se tient informée de l’évolution des technologies de l’information et rend publique le cas échéant son appréciation des conséquences qui en résultent pour l’exercice des droits et libertés mentionnés à l’article 1er »).
Dans sa mission de suivi de l’évolution des technologies de l’information, la Cnil peut même proposer au gouvernement des mesures législatives ou réglementaires pour procéder à l’« adaptation de la protection des libertés à l’évolution des procédés et techniques informatiques et numériques ». Reste à savoir s’il faudra adapter les textes en vigueur aux données de géolocalisation collectées par des applications mobiles, à la revente de données et aux pratiques des data brokers. Quoi qu’il en soit, la Cnil est tenue de contrôler la conformité des acteurs du numérique en France au RGPD, et les données de géolocalisation des données mobile – à l’ère du smartphone utilisé comme premier écran – sont particulièrement sensibles à cet égard.
D’autant que la loi « Informatique et Libertés » de 1978 n’a jamais été autant réécrite depuis l’ordonnance « Protection des données personnelles » du 12 décembre 2018 qui a mis en conformité le droit national français (5) avec le RGPD entré en vigueur au niveau européen depuis le 25 mai 2018. Cette transposition a notamment eu un impact sur le 1er article de cette loi française historique sur l’informatique, les fichiers et les libertés, qui en réfère désormais au RGPD européen notamment. Ainsi : « L’informatique doit être au service de chaque citoyen. Son développement doit s’opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l’identité humaine, ni aux droits de l’homme, ni à la vie privée, ni aux libertés individuelles ou publiques. Les droits des personnes de décider et de contrôler les usages qui sont faits des données à caractère personnel les concernant et les obligations incombant aux personnes qui traitent ces données s’exercent dans le cadre du [RGPD], de la directive [dite « Police-Justice », ndlr (6)] et de la présente loi [« Informatique et Libertés »] ».
L’on comprend pourquoi la collecte des données de géolocalisation par les éditeurs d’applications mobiles soit mise sous surveillance et fasse l’objet d’une enquête de la part du régulateur des données personnelles. La question de l’anonymisation de ces data géolocalisées et de leur identification en tant que données personnelles est cruciale, voire épineuse pour tout l’écosystème numérique et publicitaire.
Surtout que la directive européenne dite « ePrivacy » – modifiée (7) et transposée à l’article 82 de la loi « Informatique et Libertés » – interdit la collecte de données sans le consentement préalable de l’internaute (du mobinaute) concerné et sans qu’elle ait été rendues anonymes. Or cette directive « ePrivacy » prévoit en son article 5.3 que « les Etats membres garantissent que l’utilisation des réseaux de communications électroniques en vue de stocker des informations ou d’accéder à des informations stockées dans l’équipement terminal d’un abonné ou d’un utilisateur ne soit permise qu’à condition que l’abonné ou l’utilisateur, soit muni, (…) d’une information claire et complète, entre autres sur les finalités du traitement, et que l’abonné ou l’utilisateur ait le droit de refuser un tel traitement par le responsable du traitement des données. (…) ». Cette disposition, transposée dans des termes similaires en droit français dans la loi « Informatique et Libertés », concerne a priori aussi bien les cookies stockés sur tout terminal connecté que l’accès aux données de géolocalisation qui y sont stockées.

Cookies et data géolocalisées, même combat ?
D’ailleurs, comme elle l’a déjà fait pour les cookies déposés par Amazon et Google (8), la Cnil pourrait très bien recourir non pas au RGPD – lequel suppose à « l’autorité chef de file » de coordonner la prise de décision avec les autres autorités concernées par le traitement des données en question – mais à s’appuyer plutôt sur cette directive « ePrivacy ». Dans ce cas, le gendarme français des données personnelles peut se considérer comme territorialement compétente pour contrôler et sanctionner des acteurs – même étrangers – abusant de la géolocalisation de données mobiles via leurs activités en France. @

Charles de Laubier

Violation de données personnelles sur Facebook : « Zuck »paiera-t-il des dommages et intérêts ?

Depuis le 23 mai, le PDG cofondateur de Facebook – Mark Zuckerberg – est accusé d’avoir pris directement la décision qui a porté atteinte à la protection des données, provoquant le scandale « Cambridge Analytica » de 2016. Le procureur de Washington D.C. lui demande des dommages et intérêts.

Six ans après le scandale « Cambridge Analytica » qui a cloué au pilori la société britannique du même nom pour fuite massive en 2016 de données personnelles dans la campagne présidentielle de Donald Trump, voici que Mark Zuckerberg fait lui-même l’objet d’une plainte. Après le refus d’un juge en mars dernier que le PDG de Facebook soit cité comme témoin (1) dans la procédure engagée en 2018 contre le numéro un des réseaux sociaux (2), le procureur général du District de Columbia (Washington), Karl Racine (photo), remonte au créneau en poursuivant cette fois « Zuck » en l’accusant d’être directement responsable. Il demande à la justice de le condamner à verser des dommages et intérêts.

Dommages et intérêts demandés à « Zuck »
L’affaire retentissante « Cambridge Analytica », qui avait notamment porté sur l’utilisation illégale de 70 millions de comptes de Facebook aux Etats-Unis pour influencer en 2016 l’élection présidentielle américaine, a déjà valu à la firme de Menlo Park (Californie) 5 milliards de dollars d’amende infligés en juillet 2019 par la FTC (3). Cambridge Analytica a aussi manipulé des données personnelles lors de la campagne pour ou contre le Brexit au Royaume-Uni.
Cette nouvelle plainte à Washington D.C. s’attaque pour la première fois à Mark Zuckerberg en personne, en tant que PDG du groupe Meta Platforms (maison mère de Facebook depuis octobre 2021). Cette assignation en justice, déposée le 23 mai dernier par le procureur Karl Racine, démontre – preuves à l’appui – que le patron de Facebook était décisionnaire dans la tromperie des utilisateurs et la violation de loi américaine sur la protection des consommateurs. « Le District de Columbia est en possession d’éléments de preuve qui démontrent à la fois le bien-fondé de (…) la responsabilité personnelle de M. Zuckerberg et de ses violations de la CPPA [à savoir le California Consumer Privacy Act (CCPA) de 2018]», assure l’auteur de la plainte, qui demande au tribunal « réparation » en condamnant le PDG à « verser un dédommagement ou des dommages et intérêts » (4). Karl Racine, qui demande en outre de lui « infliger des sanctions civiles », explique que le groupe Facebook – « sous la direction » de Mark Zuckerberg – a modifié son business model parce qu’il a reconnu que son réseau social au « F » blanc sur fond bleu pourrait être encore plus rentable s’il pouvait exploiter et vendre – « auprès de tiers » – la capacité d’influencer de manière fiable le comportement de ses utilisateurs. Facebook a encouragé – « et, parfois, en collaboration avec (eux) » – des développeurs et des chercheurs afin de recueillir et d’analyser les données des utilisateurs de Facebook pour qu’ils puissent mieux apprendre à manipuler les humeurs de ces 2,9 milliards « d’amis » (à ce jour) et influencer leurs achats et même la manière dont ils votent. « Plus le Facebook de Zuckerberg attise la division et la polarisation, déstabilise les démocraties, amplifie les génocides et a une incidence sur la santé mentale des utilisateurs, plus Facebook et ses dirigeants gagnent de l’argent. Compte tenu des milliards de dollars en jeu, et n’ayant aucun égard envers les personnes qu’il prétend servir, Facebook – sous la direction de Zuckerberg – a décidé de cacher ces problèmes le plus longtemps possible, y compris en induisant intentionnellement en erreur les utilisateurs de Facebook ainsi que le public, la presse et les dirigeants politiques », dénonce le procureur général. A l’origine du mal : la décision prise en 2010 par Facebook – « encore une fois une idée de Zuckerberg » – d’ouvrir la plateforme Facebook à des tiers. C’est à partir de là que tout commence, Facebook ayant persuadé des développeurs externes de créer des applications accrocheuses pour le réseau social, « en dirigeant encore plus d’utilisateurs et de données d’utilisateurs vers la plateforme ». Ce détournement de user data s’est fait par des « portes latérales » (side doors) au sein des applications elles-mêmes. Et Karl Racine d’enfoncer le clou : « Etant donné que la plateforme de Facebook a été conçue pour permettre les abus, la société de Zuckerberg a fonctionné en grande partie sans mesures de protection appropriées pour protéger les utilisateurs : l’application des règles était laxiste, l’examen des violations des applications était incohérent ou subjectif, et les règles elles-mêmes étaient floues et déroutantes. Mais en 2018, le monde a appris cette imposture ».

Wylie et Kaiser : lanceurs d’alerte en 2018
La politique laxiste de « Zuck » dans la soi-disant protection des données personnelles éclate au grand jour en mars 2018 (voir encadré page suivante). « Ce qui est le plus troublant, c’est que Facebook s’est penché sur (l’activité de) Cambridge Analytica et a déterminé qu’elle présentait un risque pour les données des consommateurs, mais a choisi d’enterrer ces préoccupations plutôt que de les arrêter, car cela aurait pu nuire au résultat net de Facebook (et de Zuckerberg) », fustige encore le procureur général. Karl Racine appelle la justice à tenir pour responsable Mark Zuckerberg en personne dans la violation des lois américaines sur la protection des données des utilisateurs de Facebook. Le cofondateur de Facebook, dont il est le PDG (membre du conseil d’administration), est citoyen américain résidant à Palo Alto (en Californie). Tandis que le siège social du groupe Meta (Facebook jusqu’en octobre 2021) est situé à Menlo Park, dans le même Etat. « Depuis 2012, Zuckerberg est président du conseil d’administration de Facebook et contrôle environ 60 % des actions avec droit de vote », est-il rappelé.

La responsabilité du PDG est engagée
Selon Forbes, et au moment où nous écrivons ces lignes, « Zuck » est la 15e personne la plus riche du monde avec un patrimoine professionnel de 70,1 milliards de dollars (5). Depuis la création de « TheFacebook » le 4 février 2004 à l’université d’Harvard et le lancement de Facebook le 1er août 2005, l’encore jeune homme – 38 ans depuis le 14 mai 2022 – est le responsable en chef des opérations quotidiennes de Facebook, de sa stratégie produit et de ses pratiques – « y compris les actes et les pratiques énoncés dans la présente plainte ». Lorsqu’il sera entendu à Washington D.C. dans le cadre de cette nouvelle procédure judiciaire, ce ne sera pas la première fois qu’il répondra aux allégations de ce district, comme il a pu le faire aussi devant les agences fédérales (FTC et FCC) ou le Congrès américain.
Si l’affaire « Cambridge Analytica » porte sur l’année 2016, avant d’être révélée en 2018, elle trouve ses origines dès 2013 : en novembre de cette année-là, Aleksandr Kogan – chercheur scientist affilié à l’Université de Cambridge – et son entreprise Global Science Research (GSR) ont lancé une application-tierce sur la plateforme Facebook, appli ludique de quizz baptisée « This is Your Digital Life » et capable de collecter des données personnelles pour générer un profil de personnalité. L’année suivante, le jeune Américain d’origine moldave (36 ans aujourd’hui) a conclu un accord avec Cambridge Analytica – cabinet d’experts-conseils politiques basé à Londres, auprès de candidats américains ou d’ailleurs – pour lui vendre les données recueillies par son application : 87 millions de consommateurs Facebook, dont près de la moitié résidents du district de Washington. « Plutôt que de faire de telles divulgations significatives [sur ces agissements dont ils avaient connaissance, et en violation de leurs propres règles], Facebook et Zuckerberg ont plutôt profité de Kogan et de Cambridge Analytica – utilisant abusivement des données de consommation volées – en vendant des millions de dollars d’espaces publicitaires à Cambridge Analytica et pour les campagnes des candidats à la présidence lors des élections de 2016 », accuse le procureur général Karl Racine. Mark Zuckerberg est même allé jusqu’à prétendre que la vie privée n’est plus une « norme sociale » parce que « les gens se sont vraiment mis à l’aise non seulement (avec le fait) de partager plus d’informations et d’autres types de renseignements, mais aussi de communiquer plus ouvertement et avec plus de monde » (6). La responsabilité et la culpabilité du patron actionnaire de Facebook – maintenant de Meta – ne fait aucun doute, d’après les détails donnés par le procureur : « Au sein de Facebook, Zuckerberg a supervisé directement le développement de produits et les travaux d’ingénierie qui exposaient les données des consommateurs à des abus : Zuckerberg est responsable de la plateforme Facebook et est en mesure d’annuler toute décision prise par l’entreprise. (…) Et, contrairement à ses déclarations publiques, Zuckerberg avait l’intention de trouver un moyen de tirer parti des changements apportés à la plateforme pour amasser plus de données — et donc plus d’argent — pour Facebook ». Le raisonnement est implacable et accablant pour le geek devenu très tôt multimilliardaire. Pour illustrer la responsabilité de « Zuck », Karl Racine cite longuement un de ses e-mails internes – daté celui-là du 19 novembre 2012 – près de dix ans déjà – où le patron conclut : « Le but de la plateforme est de lier l’univers de toutes les applications sociales ensemble afin que nous puissions permettre beaucoup plus de partage et rester toujours le hub social central. Je pense que cela trouve le juste équilibre entre l’ubiquité, la réciprocité et le bénéfice ».

10 ans de mensonges et de tromperies
Cela fait au moins depuis dix ans que Mark Zuckerberg était au courant des « risques » de sa plateforme « ouverte » sur la vie privée des « amis », où les amis de mes amis sont mes amis – «mais il n’a pas agi », alors qu’« il était conscient des risques posés (mais) il a activement ignoré ces risques ». Car le partage de données est au cœur du business model et la principale source de revenus (y compris publicitaire) de Facebook. « En tant que tel, Zuckerberg a participé, dirigé, géré, ou autrement connu – et avait le pouvoir de contrôler – les actions incohérentes de Facebook concernant la vie privée, y compris les pratiques commerciales trompeuses, les fausses déclarations et les ambiguïtés qui contreviennent à la loi sur la protection des consommateurs », conclut le procureur. La parole est maintenant à la défense. @

Charles de Laubier

ZOOM

L’affaire « Facebook » éclate au grand jour en mars 2018
Le scandale «Cambridge Analytica » a été révélée le samedi 17 mars 2018 par le quotidien américain The New York Times aux Etats-Unis et par l’hebdomadaire dominicale britannique The Observer en Grande-Bretagne – ce dernier ayant le même propriétaire que le quotidien The Guardian, lui aussi contributeur (7). Ces trois journaux se sont appuyés sur les informations d’un Canadien, Christopher Wylie, qui s’est présenté alors comme le lanceur d’alerte de cette affaire (8). Mais il n’est pas le seul ancien collaborateur de Cambridge Analytica à avoir parlé puisque l’Américaine Brittany Kaiser a elle aussi fait des révélations (9) qui ont aussi fait l’effet d’une bombe (10). @

Pourquoi le fantôme de Snap fait trembler Internet

En fait. Le 23 mai, la société Snap – dirigée par son cofondateur Evan Spiegel – a émis un avertissement sur ses prévisions de résultats pour le second trimestre 2022. Depuis, le cours de Bourse du réseau social au fantôme a chuté de près de 45 % (1). C’est un vrai coup de semonce pour tout l’écosystème publicitaire.

En clair. « Depuis que nous avons publié nos objectifs le 21 avril 2022, l’environnement macroéconomique s’est détérioré davantage et plus rapidement que prévu. Par conséquent, nous pensons qu’il est probable que nous fassions état d’un chiffre d’affaires et d’un EBITDA ajusté inférieurs à l’extrémité inférieure de notre fourchette de prévisions pour le deuxième trimestre 2022 ».
Par cet avertissement enregistré par le gendarme de la Bourse américain, la SEC, et publié le 23 mai (2), l’éditeur de la plateforme Snapchat a jeté un froid et entraîné avec lui à la baisse d’autres entreprises cotées de réseaux sociaux et/ou leur maison mère (Twitter, Pinterest, Meta/Facebook, Alphabet/ YouTube, …), mais aussi des entreprises de publicité également cotées (Publicis, WPP, Omnicom, Interpublic Group, …).
Cette alerte laconique porte sur le chiffre d’affaires et la marge brute d’exploitation du deuxième trimestre en cours, dont les résultats seront publiés courant juillet. Comme l’essentiel des revenus de la société Snap provient pour l’essentiel de la publicité, ces quelques lignes ont sonnées comme coup de semonce pour toutes les plateformes numériques vivant de la publicité sur Internet et pour tous les acteurs de ce marché publicitaire très sensible aux conjonctures économiques. Snap est l’archétype de cette dépendance à la publicité en ligne : rien que sur son premier trimestre 2022, son chiffre d’affaires – essentiellement publicitaire – a franchi pour la première fois la barre du 1 milliard de dollars, soit un bond de 38 % sur un an (contre 769,6 millions de dollars au premier trimestre de l’année précédente).
Deux offres publicitaires principales sont proposées par le réseau social au fantôme, qui revendique 332 millions d’utilisateurs en moyenne par jour dans le monde, dont 75 % de Millennials et de GenZ : Snap Ads (3) et AR Ads (4). La publicité dite AR (Augmented Reality) propose aux annonceurs et partenaires des « filtres » sponsorisés (sponsored filters) et des « lentilles » sponsorisées (sponsored lenses). Mais l’inflation, la hausse des taux d’intérêt et la guerre en Ukraine a fait revenir tout l’écosystème de la virtualité à la réalité. Aux difficultés économiques, s’ajoutent la fin des cookies pour le ciblage chez Apple et Google, d’une part, et le fléau persistant de la fraude publicitaire (5), d’autre part. @