Fraude à la pub : bientôt 100 milliards de dollars de pertes par an, malgré des garde-fous comme IAS

C’est un véritable fléau pour la publicité en ligne, notamment programmatique : la fraude publicitaire – lorsque des annonces sont diffusées à des robots ou sur-affichées, ou lorsqu’elles ont des problèmes de visibilité – gangrène le marché. Integral Ad Science (IAS) voit sa cote monter.

« Juniper Research estime que les annonceurs perdront environ 100 milliards de dollars en dépenses publicitaires annuelles au profit de la seule fraude publicitaire d’ici 2024, soit une augmentation par rapport à environ 42 milliards de dollars en 2019 », prévient la société newyorkaise Integral Ad Science (IAS), qui se définit comme « un leader mondial de la qualité média digitale ». Cotée en Bourse au Nasdaq depuis huit mois et dirigée par Lisa Utzschneider (photo), IAS veille à ce que les annonces publicitaires ne fassent pas l’objet de fraudes, d’atteintes à l’image de marque ou d’une visibilité contextuelle inappropriée.

Bots ad-fraud, ad-stacking, pixel-stuffing, …
De nombreux géants d’Internet font appelle à cette adtech, connue sous ce nom IAS depuis dix ans maintenant, après avoir été créée en tant que AdSafe Media en 2009. Amazon, Facebook, Google, Instagram, LinkedIn, Microsoft, Pinterest, Snap, Spotify, TikTok, Twitter, Yahoo et YouTube sont parmi ses clients, où l’on retrouve aussi des acteurs comme la place de marché publicitaire Xandr du groupe AT&T ou le spécialiste de la publicité programmatique The Trade Desk, ainsi que de nombreux annonceurs, agences ou éditeurs. La force de frappe d’IAS réside dans ses outils d’intelligence artificielle et d’apprentissage automatique lui permettant de traiter en temps réel plus de 100 milliards de transactions web chaque jour dans plus d’une centaine de pays. Si la société IAS n’est pas encore rentable, elle voit ses revenus croître d’année en année sur un marché (malheureusement) porteur. Son dernier rapport annuel, publié le 3 mars, fait état d’un chiffre d’affaires de plus de 323,5 millions de dollars sur l’année 2021 (contre 240,6 millions en 2020). Mais ses pertes annuelles demeurent élevées, à -52,4 millions l’an dernier (contre -32,4 millions en 2020). Tandis que son endettement total s’élève à 245 millions de dollars au 31 décembre dernier.
Pour autant, le marché sur lequel la adtech s’est positionnée depuis treize ans prend de l’ampleur au fur et à mesure que la publicité en ligne automatisée pose problèmes. L’écosystème publicitaire digital – annonceurs, agences, éditeurs et plateformes numériques – est plus que jamais demandeur de solutions de mesure et de vérification publicitaires qui assurent la visibilité, la sécurité et la pertinence de la marque, du ciblage contextuel, ainsi que la prévention de la fraude publicitaire. Selon le cabinet de conseil Frost & Sullivan, le marché mondial des solutions et outils de vérification publicitaire a presque atteint les 10 milliards de dollars de chiffre d’affaires l’an dernier. La fraude publicitaire en ligne est un fléau qui gagne du terrain malgré les garde-fous proposés par des prestataires de veille et de confiance comme IAS, mais aussi DoubleVerify (DV), Moat (acquis par Oracle en 2017) ou encore Human Inc.
L’accélération de la publicité programmatique – par l’automatisation de l’achat et de la vente aux enchères d’espaces afin de permettre aux annonceurs de « cibler l’inventaire de valeur la plus élevée en temps réel » – s’accompagne d’une hausse de l’ad-fraud. Dans ce processus de transaction, la rapidité se le dispute à l’opacité. « La fraude publicitaire est une pratique qui consiste à facturer intentionnellement un annonceur pour une diffusion qui n’est pas conforme à celle prévue, par exemple la diffusion de publicités auprès de robots au lieu de personnes réelles. Il existe de multiples types de fraude. Les plus rencontrées sont le trafic robotique, puis l’adstacking (empilage de plusieurs publicités les unes sur les autres au sein d’un même emplacement), et le pixel-stuffing (diffusion de plusieurs publicités dans un cadre publicitaire minuscule, d’une taille de 1×1 pixel) », détaille IAS dans la nouvelle édition de son « Baromètre de la qualité média » publié fin mars (1).
Pour y remédier, les acteurs de l’écosystème publicitaire font du« filtrage préventif des impressions frauduleuses » grâce à des technologies anti-fraudes alliant algorithmes et machine learning. Dans le monde, plus de 700 marques, agences, éditeurs et fournisseurs de technologies publicitaires sont certifiés « TAG » par la Trustworthy Accountability Group (2). C’est le cas d’IAS.

Plus de 700 acteurs certifiés « TAG »
Créé en 2014 aux Etats-Unis par différentes associations de publicitaires dont l’Interactive Advertising Bureau (IAB), le TAG est le principal organisme mondial de certification pour lutter contre « les activités criminelles » et accroître la confiance dans l’industrie de la publicité numérique mise à mal. En outre, depuis 2017, l’IAB déploie l’outil Ads.txt (Authorized Digital Sellers). En France, depuis 2016, un label de qualité baptisé « Digital Ad Trust » (3) existe à l’initiative du SRI (4), de l’Udecam (5) et de IAB France. @

Charles de Laubier

Le groupe Meta Platforms peut-il vraiment retirer Facebook et Instagram de l’Union européenne ?

Dans son rapport annuel, Meta n’exclut pas de supprimer d’Europe ses réseaux sociaux – Facebook, Instagram ou WhatsApp – s’il ne peut pas transférer les données personnelles européennes aux Etats-Unis. Retour sur cette menace qui soulève des questions économiques et juridiques.

Par Arnaud Touati, avocat associé, Hashtag Avocats

La société américaine Meta Platforms a-t-elle le droit et le pouvoir de retirer Facebook et Instagram du marché européen ? Techniquement, elle pourrait retirer Facebook et Instagram du marché européen, notamment des Vingt-sept Etats membres de l’UE. En effet, une société est libre de déterminer son marché et de proposer ou de retirer librement ses services sur le territoire d’un Etat. Cependant, économiquement parlant, le marché européen est considérable pour la firme de Mark Zuckerberg qui en est le PDG et fondateur.

Europe : 25 % des revenus de Meta
Le groupe a annoncé que l’Europe représentait, pour le dernier trimestre 2021, plus de 8,3 milliards de dollars de chiffre d’affaires, soit près du quart du total réalisé par Meta à l’échelle mondiale. De même, le revenu moyen par utilisateur sur Facebook en Europe (Messenger, Instagram et WhatsApp compris) se situe en moyenne à 19,68 dollars sur ce quatrième trimestre 2021, en deuxième position derrière la région « Etats-Unis & Canada » (1). Au total, l’Europe a généré 25% du chiffre d’affaires trimestriel.
De même, si la maison mère Meta Platforms décidait de mettre fin à ses services en Europe, il lui appartiendrait de résoudre la délicate question du sort des données des utilisateurs européens – au nombre de 427 millions à la fin de l’année dernière (2). En effet, Facebook, Messenger, Instagram ou encore WhatsApp ont obtenu de nombreuses données des utilisateurs. Cela impliquerait donc nécessairement de restituer aux utilisateurs toutes leurs données. Dans quelles conditions ? Comment ? La question est ouverte.
Au-delà des questions économiques que soulèverait pour Meta la mise à exécution de sa menace de retirer ses réseaux sociaux, cela poserait également des questions juridiques. Le règlement général sur la protection des données (RGPD), adopté en 2016 par le Parlement européen (3) et en vigueur depuis mai 2018, prévoit l’encadrement des transferts des données à caractère personnel vers des pays tiers. Les dispositions du règlement doivent donc être appliquées, afin que le niveau de protection des personnes physiques garanti par ledit règlement ne soit pas compromis. Peut-il y avoir des passe-droits en matière de RGPD ? (4) Plutôt que de « passe-droit », parlons plutôt de « tempérament », c’est-à-dire de l’assouplissement de certaines dispositions réglementaires dans des hypothèses bien déterminées. Il conviendrait ainsi de dire qu’il n’existe pas a priori de tempérament en matière de RGPD, au vu de l’importance du respect de la protection des données et de l’obligation d’encadrement des transferts de données. Néanmoins, il convient de relativiser cet état de fait. En effet, en France, la Commission nationale de l’informatique et des libertés (Cnil) prévoit une procédure de mise en demeure, dans l’hypothèse où un organisme ne respecterait pas les obligations relatives à l’encadrement des transferts de données. Elle précise qu’une « mise en demeure est une procédure qui intervient après une plainte ou un contrôle et ne constitue pas une sanction » (5). Dans pareille situation, deux issues sont possibles. Si l’organisme se conforme aux dispositions pendant le délai imparti, le transfert des données sera considéré comme légal et conforme. Dans le cas contraire, l’organisme peut se voir attribuer des sanctions, lesquelles sont, pour la majeure partie d’entre elles, pécuniaires. Cependant, cette sanction ne garantit pas le respect postérieur du RGPD, ce qui pourrait donc in fine valoir tempérament implicite, pour peu que ledit organisme ait des capacités financières significatives.
Par ailleurs, les transferts de données vers des pays tiers à l’Union européenne (UE) doivent respecter les principes du RGPD (6). Ainsi, la Commission européenne peut prévoir des décisions d’adéquation avec certains pays lorsqu’elle estime qu’ils assurent « un niveau de protection adéquat » (7). Les transferts de données vers ces pays-là ne nécessitent alors pas d’autorisation spécifique.

Dérogations pour cas particuliers
A l’inverse, lorsqu’un pays n’est pas reconnu comme garantissant une protection adéquate, l’article 46 du RGPD permet au responsable de traitement d’assurer lui-même que les transferts envisagés sont assortis de garanties appropriées, grâce à des clauses contractuelles types, des règles d’entreprise contraignantes, un code de conduite ou un mécanisme de certification. Dans les situations dans lesquelles un pays tiers n’est pas reconnu comme offrant un niveau de protection adéquat et en l’absence de garanties appropriées encadrant ce transfert, le transfert peut néanmoins, par exception, être opéré en vertu des dérogations listées à l’article 49 du RGPD. Tempérament du tempérament : ces dérogations – telles que le consentement explicite, l’exécution d’un contrat ou les motifs d’intérêt public – ne peuvent néanmoins être utilisées que dans des situations particulières et les responsables de traitement doivent, selon la Cnil, « s’efforcer de mettre en place des garanties appropriées et ne doivent recourir à ces exceptions qu’en l’absence de telles garanties » (8).

Marge de manœuvre des « Cnil »
A l’instar de son confrère irlandais, la Data Protection Commission (DPC), la Cnil pourrait-elle décider de modifier ses accords en matière de transfert des données vers les Etats-Unis ? Pour rappel, la DPC a refusé que les données des Européens soient collectées pour être stockées sur des serveurs américains, malgré la possibilité accordée par le RGPD, sous réserve des conditions (9). En effet, l’autorité de contrôle irlandaise considère que la loi américaine FISA (Foreign Intelligence Surveillance Act) est problématique, puisqu’elle autorise expressément la NSA (National Security Agency) à collecter les données de personnes étrangères si elles sont stockées sur des serveurs américains.
A l’origine, le RGPD pose des règles relatives aux autorités de contrôle tenant notamment à leurs indépendance, compétences, missions et pouvoirs (10). Ces autorités ont une large marge de manœuvre. En effet, en France par exemple, la loi « Informatique et Libertés » modifiée dispose que « la [Cnil] est une autorité administrative indépendante » (11), et le règlement européen permet, lui, de réduire la protection des personnes dans des cas particuliers afin de tenir compte des exigences nationales. Ce n’est donc pas parce que l’autorité irlandaise a pris cette décision que la Cnil doit nécessairement suivre la même analyse. Pour autant, dans une affaire concernant Google, la Cnil a conclu, prenant une inflexion similaire à son homologue irlandaise, que, à l’heure actuelle, les transferts de données vers les Etats-Unis ne sont pas suffisamment encadrés : dans une décision du 10 février 2022, elle a en effet mis en demeure un gestionnaire de site de mettre en conformité avec le RGPD ses traitements de données, en retirant Google Analytics si besoin (12). Pour rendre pareille décision, la Cnil se fonde sur l’arrêt « Schrems II » (13) de la Cour de justice de l’Union européenne (CJUE) ayant invalidé en 2020 le « Privacy Shield » (voir encadré ci-dessous).
Toutefois, même si les autorités de contrôle protègent les données personnelles en refusant le transfert des données sur les serveurs américains, une loi américaine datant de 2018 – le Cloud Act (14) – pose problème. En effet, le « Clarifying Lawful Overseas Use of Data Act » est une loi fédérale des Etats-Unis sur l’accès aux données personnelles, notamment opérées dans le nuage informatique. Elle permet aux instances judiciaires américaines d’émettre un mandat de perquisition contraignant les fournisseurs de cloud américains – même si les données sont stockées à l’étranger –, de fournir toutes les données d’un individu, sans qu’aucune autorisation ne soit demandée à la justice du pays dans lequel se situent l’individu ou les données.
Cette loi a été largement critiquée, étant entendu qu’elle se soustrait ainsi au contrôle des autorités réglementaires au sein du territoire de l’UE. Pour limiter, voire éviter une telle situation, la Commission européenne pourrait, à l’avenir, tenter de trouver un accord avec les Etats-Unis, et ainsi assurer la conformité avec le RGPD du transfert des données personnelles outre-Atlantique. En attendant, même si l’entreprise Meta a assuré le 8 février 2022, « n’avoir absolument aucune envie de se retirer de l’Europe, bien sûr que non » (15), la Commission européenne ne contournera pas l’arrêt « Schrems II » ayant annulé le « Privacy Shield », pas plus qu’elle ne l’avait fait pour l’arrêt « Schrems I » de 2015 annulant l’accord antérieur, le « Safe Harbour ». @

FOCUS

« Privacy Shield » : la CJUE peut-elle annuler… son annulation de 2020 ?
La Cour de justice de l’Union européenne (CJUE) pourrait-elle faire machine arrière et revenir sur sa décision d’annuler l’accord entre l’Union européenne (UE) et les Etats-Unis sur la gestion des données personnelles des Européens par les entreprises américaines et certaines autorités américaines ? Cet accord dit « Privacy Shield » était une décision d’adéquation adoptée en 2016 et encadrant les transferts de données vers les Etats- Unis. Ce qui permettait aux entreprises de transférer les données personnelles de citoyens européens aux Etats-Unis sans garanties complémentaires. Il a été annulé par l’arrêt « Schrems II » (16) de la CJUE daté du 16 juillet 2020. La CJUE avait mis en avant le risque que les services de renseignement américains accèdent aux données personnelles transférées aux Etats-Unis, si les transferts n’étaient pas correctement encadrés.
Cet arrêt a donc impliqué le réexamen des transferts de données personnelles à destination des Etats-Unis et la nécessité d’apporter des garanties complémentaires.
La portée de cet arrêt a des conséquences sévères et démontre que, si les Etats-Unis ne respectent pas la protection des données, la CJUE n’acceptera pas d’accords sur ces mêmes termes. Dorénavant, il sera à nouveau possible de négocier un accord entre les Etats-Unis et l’UE si, et seulement si, les Etats-Unis acceptent de se soumettre aux dispositions du RGPD et de modifier leurs lois de surveillance des données risquées. Ce qui permettrait ainsi aux entreprises américaines d’évoluer sur le marché européen. Lors d’une conférence de presse le 23 février, à l’occasion de la présentation du Data Act (lire p. 6 et 7), la commissaire européenne à la Concurrence, Margrethe Vestager, s’est prononcée à ce propos : « Il est hautement prioritaire de conclure un tel accord avec les Américains (…), afin de permettre au milieu des affaires de tirer le meilleur parti des données (…) mais (….) dans des conditions transparentes et sûres » (17). Ainsi, les Etats-Unis et l’UE devront-ils trouver un accord alliant protection des données personnelles des utilisateurs européens et impératifs sécuritaires invoqués par l’administration américaine. @

Le sud-coréen Naver s’impose comme le numéro un mondial du webtoon, en révolutionnant la BD

Le phénomène « webtoon » se propage bien au-delà de la Corée du Sud, où le groupe Naver est devenu la major mondiale dans ce domaine. Le Festival international de la bande dessinée à Angoulême n’y échappe pas, ni le prochain Salon du livre de Paris.

Le Festival international de la bande dessinée (FIBD), qui se tient du 17 au 20 mars à Angoulême, résiste encore avec des tonnes de papier à la dématérialisation de la BD. Or le début de la numérisation des bulles ne date pas d’hier, mais cette année la tendance s’accélère plus que jamais avec l’engouement pour le webtoon. « Cela nous vient de Corée. C’est une bande déroulante, par chapitres, à raison d’un par semaine, comme un feuilleton, qu’on peut lire en faisant défiler avec le pouce sur l’écran du téléphone portable », définit Marc-Antoine Boidin, vice-président du Syndicat national des auteurs et des compositeurs (Snac) et représentant de son groupement BD (1).

« L’avenir de la BD se joue là » (Boidin)
« Il est possible que ce soit l’avenir de la bande dessinée qui se joue là. Les jeunes générations sont plus attirées par une lecture numérique que sur le papier », estime même Marc- Antoine Boidin, qui est auteur de bandes dessinées (2), diplômé de l’école de BD d’Angoulême. C’est justement dans la capitale de la Charente que la 49e édition du FIBD sera aussi impactée par ce phénomène des webtoons. Une table ronde d’éditeurs et d’auteur(e)s de webtoons est organisé le 17 mars par le Snac-BD lors du festival d’Angoulême, où sera présente Emilie Coudrat, directrice marketing de Naver France, filiale française du groupe sud-coréen Naver, présidé et dirigé par Seong-sook Han (photo). Ce géant du numérique et de l’Internet, basé à Seongnam au sud de Séoul, déploie depuis 2004 sa filiale Naver Webtoon devenue le numéro un mondial dans cette catégorie de bandes dessinées numériques adaptées aux smartphones. Le webtoon se lit en faisant défiler verticalement avec son doigt les cases illustrées, procédé éditorial que les manwhas coréens et les mangas japonais ont rapidement adopté.
En France, les mangas sont déjà largement en tête des ventes de BD imprimées. Les webtoons, eux, caracolent en ligne. « Un événement est prévu le 18 mars à Angoulême autour des créateurs », indique Emilie Coudrat à Edition Multimédi@. Pour faire face à la forte demande, l’idée est d’aller à la rencontre d’auteurs pour leur présenter la plateforme Webtoons.com, éditée par la filiale Webtoon Entertainment (3), et leur expliquer « comment devenir créateur de webtoon ». La rencontre, prévue au sein du Marché international des droits (Mid) organisé au sein du FIBD pour les professionnels du 9e Art, devrait se terminer par un speed dating des candidats avec des éditeurs dans ce domaine. Car si les premiers épisodes des webtoons sont le plus souvent gratuits, les suivants sont payants ou sur abonnement. Ces feuilletons – des « scrolltons » devrait-on dire (4) – peuvent être des freemiums très rentables. Rien qu’en Corée du Sud, le marché des webtoons pèse presque autant à lui seul (750 millions d’euros, selon Kocca) que tout le marché français de la BD (890 millions d’euros, selon GfK). « En France, les éditeurs qui diffusent sur (la plateforme) Webtoon proposent aux auteurs des contrats numériques, et si la bande dessinée marche bien, elle peut être imprimée », a indiqué Marc-Antoine Boidin aux membres du Snac. Pour autant, relève-t-il, « les contrats proposés aux auteurs de webtoons semblent quelque peu être en roue libre. Ils sont souvent soumis à une clause de confidentialité, ce qui ne facilite pas le rôle de notre syndicat face à cette nouvelle pratique, qu’il faut cadrer d’urgence afin qu’elle puisse être favorable aux auteurs ».
Car la production de webtoons se fait presque à marche forcée : le rythme, pour les dessinateurs, est soutenu et cela peut aller jusqu’à 80 cases à fournir à l’éditeur en une semaine – souvent la périodicité pour les séries. Celles-ci peuvent compter de quarante à quatre-vingts épisodes. Si des initiatives françaises de plateformes de webtoons ont été lancées – comme Verytoon.com du groupe indépendant Delcourt (deuxième plus grand éditeur de BD francophones après Média-Participations, dont la plateforme Izneo.com diffuse aussi des webtoons), Webtoonfactory.com des éditions Dupuis, Delitoon.com ou encore Toomics.com –, le sudcoréen Naver domine ce marché en pleine (5) effervescence.

Introduire Naver Webtoon au Nasdaq ?
« En janvier 2021, nous avons finalisé l’acquisition de Wattpad, la plus grande plateforme de webfiction au monde [d’origine américaine, ndlr], dans le but de devenir la plus grande plateforme mondiale de narration basée sur les synergies entre Naver Webtoon et Wattpad », s’était félicitée l’an dernier Seong-sook Han. En janvier 2022, le groupe Naver revendique un cumul d’audience mondial record sur ses webtoons de 82 millions de lecteurs actifs par mois, avec un volume de transactions mensuel d’environ 75 millions d’euros (6). Wattpad lui apporte 90 millions d’utilisateurs par mois supplémentaires. Le sud-coréen a le projet depuis un an d’introduire Naver Webtoon au Nasdaq à New-York. @

Charles de Laubier

Questions autour des plateformes d’intermédiation des « NFT », tickets d’entrée de l’économie 3.0

Après l’« ubérisation » de l’économie, voici la « tokenisation » des marchés, où les jetons nonfongibles – dits NFT – vont devenir monnaie courante : art, jeux vidéo, musique, livre, cinéma, … Mais cette « monétisation 3.0 » via des plateformes d’intermédiation soulève bien des questions.

Par Sandra Tubert et Laura Ziegler, avocates associées, Algo Avocats

Depuis plusieurs mois maintenant, les applications pratiques des « NFT » (Non- Fungible Tokens) se multiplient et différentes typologies d’acteurs s’y intéressent : des éditeurs de jeux vidéo aux plateformes d’échange de crypto-art, en passant par les marques de luxe, les start-up proposant de monétiser des données (1) ou de créer de la valeur autour de leurs services. Cela se propage aussi aux autres industries culturelles souhaitant utiliser ces jetons non-fongibles, donc non-interchangeables et authentifiés sur une chaîne de blocs (blockchain), pour monétiser leurs œuvres (musiques, films, livres, etc.).

Tokenisation : vers l’économie Web 3.0
Employés pour une multitude d’usages et à même de « disrupter » de nombreux marchés, notamment en raison de leur nature spéculative (inhérente aux opérations de revente successives qu’ils facilitent), ces NFT suscitent à ce jour un engouement tout particulier dans le domaine de l’art, et plus largement des objets de collection, des jeux vidéo ou du sport. Ce recours grandissant à la blockchain pour gérer des actifs numériques en leur associant une unité de donnée non modifiable – tendance innovante appelée aussi « tokenisation » – participe de l’avis de certains à l’essor d’une nouvelle « économie numérique » apportant son lot de nouvelles opportunités et, inévitablement, de questionnements.
En France, selon le code monétaire et financier (CMF), un « token » (jeton) est un bien incorporel représentant sous forme numérique un ou plusieurs droits pouvant être émis, inscrits, conservés ou transférés sur une blockchain permettant d’identifier, directement ou indirectement, le propriétaire du bien (2).
Au cœur des dispositifs décentralisés co-existent plusieurs typologies de jetons cryptographiques, qui peuvent donner lieu à de nombreuses applications. Parmi celles-ci, les NFT – concept inventé en septembre 2017 par Dieter Shirley (3) – occupent le devant de la scène depuis plusieurs mois. Ils ont pour particularité, à la différence de la cryptomonnaie (4) comme le bitcoin ou d’autres actifs numériques émis dans le cadre de levées de fonds de type ICO (5), d’être par nature non-fongibles, donc uniques et non interchangeables par un actif du même type. Identifié par le « contrat intelligent » ou smart-contract qui le génère, chaque NFT dispose d’un numéro unique d’identification et ne peut être reproduit. Cette particularité en fait son plus grand atout puisqu’elle permet ainsi d’apporter, en particulier aux biens numériques, la rareté et l’unicité qui leur faisaient défaut. D’un point de vue juridique, la qualification des NFT est débattue. En effet, les définitions d’« actifs numériques » proposées en France par le CMF (6) – renvoyant, pour l’une, à la définition de « jetons » précitée (mise en place dans le cadre de la réglementation des ICO), et, pour l’autre, à la définition des cryptomonnaies (7) – ne sont pas totalement satisfaisantes en ce qu’elles ne sont pas adaptées au caractère non fongible du NFT. Il sera donc plus prudent de rechercher la qualification juridique des NFT en fonction des actifs qu’ils représentent et des droits qu’ils confèrent (8).
Le domaine de l’art reste l’un des principaux terrains de jeux des NFT (9), en témoignent notamment la vente record de l’œuvre numérique « Everydays: the First 5 000 Days » du crypto-artiste Beeple pour 69,3 millions de dollars en mars 2021 (10) et la levée de fond de 300 millions de dollars d’Opensea, l’une des principales plateformes de marché du domaine. Mais l’utilisation de ces NFT soulève des questions, à la fois sur la qualification du NFT lui-même et des droits qu’il confère, ainsi que sur le cadre contractuel offert par les plateformes d’échanges. Lorsqu’il est utilisé dans le domaine de l’art, le NFT ne doit pas être confondu avec l’œuvre numérique à laquelle il est attaché. Il est un actif distinct de l’œuvre elle-même.

NFT acheté et droits sur l’œuvre
D’ailleurs, le NFT en tant que tel ne remplit pas les conditions pour être lui-même une œuvre de l’esprit au sens du code de la propriété intellectuelle (CPI). C’est en réalité un token standard, sous licence open source, qui ne constitue pas une œuvre de l’esprit (11). Ce jeton non fongible permet plutôt d’identifier l’œuvre concernée, d’attester de son intégrité et de son auteur, ainsi que de rattacher l’œuvre unique – identifiée par ce moyen – à ses propriétaires successifs. De sorte que le NFT s’apparente à un titre de propriété et à un certificat d’authenticité. Le NFT ne doit pas non plus être assimilé au support de l’œuvre qu’il désigne. En effet, le droit d’auteur distingue depuis toujours l’œuvre en tant que telle, sur laquelle s’appliquent les droits de propriété intellectuelle (droits patrimoniaux et moraux), et son support matériel, lequel peut être cédé indépendamment des droits de propriété intellectuelle sur l’œuvre. Le NFT ne fait ainsi qu’identifier l’œuvre par des pratiques qui peuvent varier (adresse URL vers sa représentation, simple référence, etc.). En réalité, l’œuvre numérique liée au NFT est la plupart du temps stockée et hébergée sur un serveur distinct en dehors de la blockchain sur laquelle le NFT est créé – à savoir sur un cloud, sur l’espace de stockage d’une galerie virtuelle, etc.

Encadrement possible et nécessaire
Sur les plateformes d’intermédiation, l’acquéreur de NFT achète en réalité un titre de propriété sur une œuvre numérique telle qu’identifiée dans le smart contract attaché au NFT. Il n’acquiert en aucun cas, automatiquement, l’ensemble des droits de propriété intellectuelle attachés à cette œuvre numérique, à l’exception du droit d’en jouir et de l’exposer dans son cercle privé (notion relativement peu adaptée dans le monde numérique dans lequel le NFT a vocation à circuler). En effet, en droit français (12), toute cession de droits de propriété intellectuelle sur une œuvre doit être écrite et respecter les formes exigées par le CPI pour être valable. Or, les plateformes d’échange de NFT, telles qu’Opensea et Rarible par exemple, ne permettent pas techniquement et facilement à ce jour aux créateurs et aux acheteurs de formaliser les conditions d’une telle cession via ces plateformes. L’enjeu en pratique pour les créateurs et les acheteurs de NFT est donc de pouvoir, via ces plateformes d’intermédiation, encadrer contractuellement, et dans les formes exigées par la loi, les autorisations accordées pour l’exploitation des œuvres : supports sur lesquelles elles peuvent être diffusées, reproduction, merchandising, etc. Cela est d’autant plus important que les NFT évoluent par nature dans un environnement numérique complexe (diversité des supports de diffusion, métavers, …) et qu’il sera essentiel dans ce contexte pour les acheteurs de connaître les droits d’exploitation dont ils disposent sur l’œuvre numérique. A défaut, les acheteurs s’exposent à des risques en matière de contrefaçon en faisant une utilisation non autorisée par l’auteur de l’œuvre identifiée par le NFT. Il est donc dans l’intérêt de chacun des acteurs d’encadrer un tel sujet. Cette cession de droits d’auteur qui précisera de manière détaillée les droits consentis à l’acheteur pourrait être matérialisée de différentes manières. On pourrait imaginer que le smart contract à l’origine de la création du NFT programme une transmission de la titularité des droits d’auteur sur l’œuvre accompagnant la création et la transmission du jeton, ce qui sera possible uniquement si le langage de programmation du smart contract le permet. A l’heure actuelle, ce n’est pas le cas de la majorité des plateformes. La mise en place d’un document autonome (rédigé par un avocat), vers lequel le smart contract pourrait renvoyer, serait également une solution. Par ailleurs, il serait envisageable, en pratique, de résumer les droits cédés dans les attributes du NFT, qui sont une sorte d’encart permettant d’intégrer une description succincte du bien et de ses caractéristiques. Dans ce dernier cas, les formes exigées par le CPI ne serait toutefois pas tout à fait respectées, de sorte que cette solution ne sera pas pleinement satisfaisante. Il n’est pas impossible par ailleurs que les plateformes d’intermédiation, à l’image de ce qu’ont pu faire les places de marché (marketplaces), mettent à disposition des créateurs de NFT une section ou un outil sur la plateforme leur permettant de préciser les conditions de cession attachées à leurs NFT.
Les utilisateurs de ces plateformes doivent par ailleurs avoir conscience des risques inhérents à l’utilisation de celles-ci, notamment l’acquisition d’œuvres contrefaisantes. Depuis quelques jours, la plateforme Opensea a mis elle-même en lumière ces problématiques en dévoilant sur Twitter que « plus de 80 % des articles créés avec cet outil [gratuit] étaient des œuvres plagiées, de fausses collections et du spam » (13). Rien d’étonnant puisque, en qualité d’intermédiaires, ces plateformes n’effectuent aucune vérification quant à l’identité à la fois des créateurs de NFT, au fait qu’ils aient ou pas la qualité d’auteur à l’origine de la création de l’œuvre ou de titulaire des droits de propriété intellectuelle sur l’œuvre, ou encore quant à l’authenticité ou la licéité ou non des contenus que les utilisateurs se proposent d’y échanger. D’une manière générale, les plateformes d’échange de NFT, telles que Opensea et Rarible, ne fournissent aucune garantie sur les transactions facilitées par le biais de leurs plateformes. Elles mettent toutefois en place un mécanisme de notification des contenus contrefaisants et illicites conformément aux exigences des lois locales qui leurs sont applicables, à savoir majoritairement à ce jour la loi américaine.

Eviter la « contrefaçon 3.0 »
Conscientes de l’importance d’instaurer une confiance nécessaire pour pérenniser leurs développements et d’éviter une explosion de la « contrefaçon 3.0 », les plateformes d’intermédiation semblent se saisir du sujet mais elles peinent toutefois à trouver des solutions concrètes pour endiguer l’échange d’œuvres contrefaisantes. Par exemple, récemment, Opensea avait annoncé limiter la création de nouveaux jetons à cinq collections NFT et 50 tokens pour chaque utilisateur, afin d’endiguer les dérives, mais la plateforme d’intermédiation a finalement fait machine arrière quelques jours plus tard (14) face au mécontentement de sa communauté. @

Règles éco-énergétiques : les data centers doivent passer des salles blanches aux « salles vertes »

Les gestionnaires de centres informatiques (data centers), qui n’apprécient déjà pas le dispositif « Eco Energie Tertiaire » de 2019, sont maintenant vent debout contre le durcissement règlementaire du « verdissement » du numérique. Cela risque de « plomber » leur compétitivité face aux GAFAM.

Par Déborah Boussemart, avocate en droit de l’immobilier

Tandis que la mise en œuvre du dispositif « Eco Energie Tertiaire » – anciennement « décret Tertiaire » (1) de 2019 – par les gestionnaires de centres de données informatiques s’avère inadaptée et paralysée, de nouvelles mesures de « verdissement » des data centers entrent en vigueur : d’une part, avec l’introduction d’un principe de « promotion de centres de données et des réseaux moins énergivores » inscrit dans la loi du 15 novembre 2021 visant à réduire l’empreinte environnementale du numérique en France, loi dite « Reen » (2), et, d’autre part, l’attribution à l’Arcep d’un nouveau pouvoir de régulation environnementale dans le secteur numérique par la loi du 23 décembre 2021 visant à renforcer la régulation environnementale du numérique.

Une équation à deux inconnues
Si les grands axes du dispositif « Eco Energie Tertiaire » sont connus et le compte-à-rebours lancé, les gestionnaires de data centers sont encore dans l’expectative des arrêtés dits « Valeur absolue II et III » annoncés par le gouvernement. Dans cette attente, la mise en œuvre du dispositif est paralysée et pose un problème de prévisibilité du droit dans ce secteur immobilier qui a besoin d’une stabilité juridique dès lors qu’il mobilise d’importants capitaux et nécessite de longues durées de retour sur investissements.
Soumis au dispositif « Eco Energie Tertiaire » modifié et recodifié (3) par la loi « Climat résilience » (4), les gestionnaires (propriétaires et le cas échéant les locataires) de data centers sont appelés à plus de sobriété énergétique. Ils sont tenus, pour tout bâtiment (ou tout ensemble de bâtiments situés sur un même site ou unité foncière) hébergeant – exclusivement ou non – des activités tertiaires sur une surface de plancher supérieure ou égale à 1.000 m2, d’atteindre pour chacune des années 2030, 2040 et 2050 les objectifs suivants :
• soit un niveau de consommation d’énergie finale réduit, respectivement, de 40 %, 50 % et 60 % par rapport à une consommation énergétique de référence qui ne peut être antérieure à 2010 ;
• soit un niveau de consommation d’énergie finale fixé en valeur absolue, en fonction de la consommation énergétique des bâtiments nouveaux de leur catégorie. Le gouvernement a rappelé son attachement à ces objectifs dans sa feuille de route « Numérique & Environnement » (5) de février 2021.
Pourtant, dans la mesure où les data centers fonctionnent en permanence, avec leurs « salles blanches » (aux particules et températures maîtrisées), nous verrons plus loin que les professionnels consultés dénoncent le caractère inadapté du dispositif de « verdissement ». Les actions destinées à atteindre ces objectifs portent notamment sur la performance énergétique des bâtiments, l’installation d’équipements performants et de dispositifs de contrôle et de gestion active de ces équipements, les modalités d’exploitation des équipements, et l’adaptation des locaux à un usage économe en énergie et le comportement des occupants. Le comportement de l’utilisateur est pris en compte (6). Conscient que ces actions peuvent se révéler coûteuses et/ou se confronter à des obstacles techniques, le législateur a prévu des modulations – sous réserve d’établir un dossier technique et une étude énergétique – et des déductions.
A titre d’exemple, une modulation est possible lorsque les coûts des actions apparaissent manifestement disproportionnés par rapport aux avantages attendus en termes de consommation d’énergie finale. Une autre modulation est également possible en cas de contraintes techniques, architecturales ou patrimoniales.

Plateforme Operat : saisir avant le 30 septembre
En outre, deux hypothèses de déduction sont acceptées afin de suivre au plus juste la consommation d’énergie réelle du bâtiment. D’une part, lorsque la chaleur fatale (7) est autoconsommée par le bâtiment tertiaire, cette chaleur peut être déduite de la consommation. D’autre part, en présence de véhicules électriques et hybrides rechargeables dans le bâtiment tertiaire, la consommation d’énergie liée à la recharge est déduite (8). Les données relatives à l’année 2020 doivent être saisies par les assujettis au plus tard le 30 septembre 2022 sur la plateforme « Operat » (9), laquelle est gérée par l’Agence de la transition écologique (Ademe). Puis, chaque année à partir de 2022 seront transmises, au plus tard le 30 septembre, les données relatives à l’année précédente (10). La première vérification par l’Ademe est fixée au 31 décembre 2031 (11). Les responsabilités sont partagées entre les propriétaires et les locataires, le législateur leur laissant le soin de s’organiser contractuellement. Dans la perspective de développer un immobilier plus vert, l’attestation annuelle générée par la plateforme Operat est annexée aux documents de vente et de location (12). Enfin, une notation « Eco Energie Tertiaire » annuelle est mise en place. Quant au préfet, il demande de justifier d’un plan d’actions. A défaut, il peut sévir en recourant au « Name & Shame » ou à des amendes administratives (13).

Arrêtés « Valeur absolue » en vue
S’agissant des valeurs à retenir pour les data centers, le dispositif est incomplet (14). Le 17 juin 2021, le gouvernement a indiqué travailler sur deux arrêtés :
• un arrêté « Valeur absolue II » devant présenter la totalité de la segmentation des activités tertiaires et préciser les objectifs en valeur absolue pour un grand nombre d’activités en métropole (15) ;
• un arrêté « Valeur absolue III », dont la publication est prévue en mai 2022, devant préciser les objectifs exprimés en valeur absolue pour les dernières activités pour lesquels les travaux sont en cours et intégrer les valeurs spécifiques pour les départements d’outremer (16).

Des voix se sont élevées pour dénoncer le caractère inadapté et imprévisible de ce cadre réglementaire. Une association professionnelle rassemblant les principaux acteurs de cette filière, France Data Center, a rappelé l’importance pour la France de conserver en permanence la maîtrise opérationnelle du numérique. Afin de gagner en compétitivité, son président Olivier Micheli (17) a souligné qu’il est essentiel de réfléchir à la création de champions du numérique européens pour faire face aux champions américains (GAFAM) et asiatiques (BATX).
Enfin, il a ajouté que « le décret “Tertiaire” n’est pas du tout adapté aux data centers puisqu’il vise à réduire le nombre de kilowattheures consommés dans les data centers, ce qui est impossible. Il n’est pas possible de supprimer des serveurs du jour au lendemain pour atteindre un objectif en valeur absolue défini par décret » (18). Dans le même sens, le Groupement des industries de l’équipement électrique (Gimelec), syndicat des entreprises de la filière électro-numérique française, a souligné que la régulation de la performance énergétique des data centers pourrait « plomber » la compétitivité des acteurs et les « mettre en irrégularité » sans garantie de gain énergétique (19). Espérons que les arrêtés à paraître prendront acte de ces critiques et fixeront un cadre adapté au secteur. Il est toutefois permis d’en douter car, dans cette attente, le législateur entend désormais faire converger transition numérique et écologie, et a adopté en urgence de nouvelles mesures tendant à promouvoir des data centers plus vertueux. Sans nous livrer à une exégèse exhaustive de ses dispositions, soulignerons que la loi « Reen », qui vise à réduire l’impact du numérique sur l’environnement, se fait le relai de la Convention citoyenne pour le climat de 2020 (20).
Longtemps qualifié d’angle mort des politiques environnementales, le numérique – dont son parc immobilier matérialisé par les data centers – est aujourd’hui dans le viseur du législateur qui ambitionne de « faire du numérique un accélérateur de la transition écologique à l’empreinte environnementale soutenable » (21). Une étude réalisée à la demande du Sénat en juin 2020 (22) a confirmé ce qui était déjà pressenti depuis longtemps. Le numérique est susceptible de représenter près de 7 % de l’empreinte carbone des Français en 2040, tandis que les data centers consommeraient déjà à eux seuls 10 % de l’électricité mondiale (23).

Dans ce contexte, la loi « Reen » entend désormais « promouvoir des centres de données et des réseaux moins énergivores ». Le texte renforce les conditionnalités environnementales qui s’appliqueront, dès 2022, au tarif réduit de la taxe intérieure de consommation finale d’électricité (TICFE) applicable aux data centers. Les opérateurs de communications électroniques devront, quant à eux, publier des indicateurs clés récapitulant leurs engagements en faveur de la transition écologique (24). L’Arcep, elle, désormais régulateur environnemental de tout l’écosystème numérique, a désormais le pouvoir de collecter des données en vue de dresser le bilan de l’empreinte environnementale.

Verdissement aux forceps et à risques
Pour conclure, rappelons que derrière les échanges, les partages et les stockages dématérialisés des services de cloud, il existe un univers bien matériel fait de câbles, de serveurs, de bâtiments climatisés énergivores que le législateur entend verdir en urgence, eu égard aux enjeux climatiques et au calendrier législatif. Gageons que le verdissement aux forceps des data centers ne se fasse pas au détriment de la compétitivité et de la souveraineté numérique. @