La censure de TikTok en Nouvelle-Calédonie par son Haut-commissaire de la République semble illégale

Annoncée par le Premier ministre le 15 mai 2024, la décision sans précédent de bloquer TikTok en Nouvelle-Calédonie est attaquée en justice par deux organisations et des Néo-Calédoniens. Le 21 mai, la haute juridiction administrative a donné 24h au gouvernement pour se justifier.

Louis Le Franc (photo de gauche) est le haut-commissaire de la République en Nouvelle-Calédonie. En tant que représentant de l’Etat français de cette collectivité sui generis (ni département d’outre-mer ni territoire d’outre-mer) située en Océanie, et à ce titre délégué du gouvernement représentant le Premier ministre Gabriel Attal (photo de droite)et chacun des ministres français, ce « préfet hors-classe » (le grade le plus élevé) a la charge des intérêts nationaux et assure la direction des services de l’Etat sur le territoire. Il est en outre préfet de la zone de défense de Nouvelle-Calédonie et Wallis-et-Futuna (1).

La liberté d’expression, victime collatérale
C’est à lui qu’est revenue la responsabilité de mettre à exécution l’interdiction de TikTok dans l’archipel secoué quelques jours à partir du 13 mai par des émeutes et des violences, lesquelles sont en lien avec une réforme constitutionnelle visant à élargir le corps électoral, projet contesté par les indépendantistes. Le censure du réseau social du chinois ByteDance (2) a été annoncée le 15 mai par le Premier ministre Gabriel Attal, le haut-commissaire Louis Le Franc ayant de son côté « instauré un couvre-feu et interdit TikTok ». Ce blocage, bien que la décision concernant le réseau social n’avait pas encore été formalisée par un texte – est effectif uniquement sur les smartphones (dixit le cabinet du Premier ministre), mis en œuvre par l’Office des postes et télécommunications de Nouvelle-Calédonie (OPT-NC). C’est d’autant plus facile que cet établissement public gère lui-même l’unique opérateur mobile de l’archipel, Mobilis.

Acteurs de l’IA, la Cnil vous adresse ses premières recommandations : à vous de jouer !

La Commission nationale de l’informatique et des libertés (Cnil) a publié le 8 avril 2024 sept premières fiches « pour un usage de l’IA respectueux des données personnelles ». D’autres sont à venir. Ces règles du jeu, complexes, sont les bienvenues pour être en phase avec le RGPD et l’AI Act.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’intelligence artificielle (IA) conduit à questionner de manière plus exigeante et approfondie la protection des données personnelles. Les principes fondateurs du RGPD (1) doivent non seulement être pleinement rappelés et appliqués, mais ils doivent même l’être de manière plus dynamique et exigeante. Un exemple : des données qui auraient précédemment pu être considérées pseudonymisées ou même anonymisées, pourront faire l’objet de calculs et de recoupements massifs, qui pourraient aboutir à identifier à nouveau les personnes, grâce à l’utilisation de l’IA.

Sept premières fiches pratiques
L’entraînement des IA appelle des données personnelles comme l’image et la voix des personnes, d’une quantité sidérale sans précédent. Il appartient aux entreprises et organisations nationales et internationales de procéder à la mise en conformité avec l’AI Act, lequel a été adopté 13 mars 2024 par le Parlement européen (2). Parallèlement et le même jour en France, la commission de l’IA – installée depuis septembre 2023 auprès du Premier ministre – a remis au président de la République son rapport (3) qui recommande notamment un assouplissement des contraintes liées à l’utilisation, par l’IA, de données personnelles. Cette commission IA appelle à « transformer notre approche de la donnée personnelle pour protéger tout en facilitant l’innovation au service de nos besoins ».

IA génératives, contrefaçons, exceptions au droit d’auteur et opt out : où se situent les limites ?

Adopté par les eurodéputés le 13 mars 2024, l’AI Act – approuvé par les Etats membres en décembre 2023 – va être définitivement voté en plénière par le Parlement européen. Mais des questions demeurent, notamment sur les limites du droit d’auteur face aux intelligences artificielles génératives.

Par Vanessa Bouchara, avocate associée, et Claire Benassar, avocate collaboratrice, Bouchara & Avocats.

Si l’utilisation des intelligences artificielles (1) est désormais largement répandue, ces techniques et technologies capables de simuler l’intelligence humaine restent au cœur de nombreux questionnements – tant éthiques que juridiques. Alors même que le projet de règlement européen visant à encadrer l’usage et la commercialisation des intelligences artificielles au sein de l’Union européenne, dit AI Act (2), a été adopté en première lecture le 13 mars 2024 par le Parlement européen (3), c’est l’intelligence artificielle générative – IAg, AIG ou GenAI – qui est aujourd’hui sujette à controverse.

Droit d’auteur et procès en contrefaçon
A l’origine du débat les concernant, il importe de rappeler que les systèmes d’IAg ont pour particularité de générer du contenu (textes, images, vidéos, musiques, graphiques, etc.) sur la base, d’une part, des informations directement renseignées dans l’outil par son utilisateur, et, d’autre part et surtout, des données absorbées en amont par l’outil pour enrichir et entraîner son système. Les systèmes d’intelligence artificielle générative sont ainsi accusés d’être à l’origine d’actes de contrefaçon, et pour cause : l’ensemble des données entrantes dont ils se nourrissent peuvent potentiellement être protégées par des droits de propriété intellectuelle. Où se situe donc la limite entre l’utilisation licite de ces données et la caractérisation d’un acte de contrefaçon ? Si, par principe, la reproduction de telles données est interdite, le droit européen semble désormais entrouvrir la possibilité d’utiliser celles-ci dans le seul cadre de l’apprentissage de l’IAg.

Le smart contract est déjà là : osons la vitesse sans la précipitation, tant en France qu’en Europe

Le Data Act, en vigueur depuis le 11 janvier 2024, est le premier texte européen à prendre en compte les « smart contracts ». C’est l’occasion de revenir sur ces « contrats à exécution automatique conditionnelle » qui avaient fait l’objet l’an dernier d’un livre blanc paru en France (1).

Par Fabrice Lorvo*, avocat associé, FTPA

La révolution numérique poursuit son œuvre de digitalisation, notamment de l’économie. Son développement ultime va probablement aboutir d’abord à la dématérialisation des actifs (à savoir les produits, les services et la monnaie permettant de les échanger), puis à l’automatisation de leurs échanges. Pour ce faire, l’outil idoine est connu sous l’appellation anglo-saxonne de « smart contract » (2) Il s’agit d’un protocole informatique organisant l’échange automatique d’actifs dématérialisés enregistré sur une blockchain.

Les smart contrats devancent la loi
Nous partons du postulat que cet outil – qui peut être traduit en français par « contrat à exécution automatique conditionnelle » (3) – a un très bel avenir et qu’il rencontrera la faveur des consommateurs, en raison de son apparence de facilité et de rapidité. Le smart contract est donc une nouvelle page blanche de notre histoire économique.
Les enjeux. Il appartient aux professionnels français et européens de contribuer à la détermination des standards du smart contract et/ou des sujets sur lesquels une vigilance particulière sera nécessaire. A ce jour, le smart contract constitue ce que l’on peut appeler un « OJNI » : un objet juridique non-identifié. Pourtant, il est aujourd’hui omniprésent, comme en attestent les millions de transactions – permettant la conversion entre la monnaie dite « fiat » (relevant de la politique monétaire des banques centrales des Etat) et la cryptomonnaie – opérées quotidiennement sur les différentes blockchains. Le fait précède donc la règle de droit.
Même si le smart contract semble actuellement s’affranchir significativement des lois existantes, c’est uniquement parce que lesdites lois ne sont pas (encore) adaptées aux situations nouvelles créées par ce type de contrat à exécution automatique conditionnelle. Le smart contract ne pourra pas durablement se développer, sur le territoire français, dans l’ignorance des règles juridiques européennes, qui sont le fruit de la lente recherche d’un équilibre entre les deux parties au contrat. C’est cet équilibre ancien qui va devoir être adapté à la situation nouvelle du smart contract.

La régulation veille à ce que les opérateurs télécoms intègrent des principes RSE/ESG

Alors que vient tout juste d’être publié le 3e volet de l’étude menée par l’Arcep et l’Ademe sur l’impact environnemental du numérique en France, les opérateurs télécoms intègrent de plus en plus des principes « RSE » et « ESG » pour notamment être éco-responsables.

Par Marta Lahuerta Escolano, avocate of counsel, Jones Day

L’empreinte environnementale des réseaux de télécommunications suscite un intérêt croissant dans le paysage numérique, compte tenu de la pénétration croissante des technologies de l’information et des communications dans notre société. Alors que ces réseaux sont vitaux pour assurer les besoins en connectivité de nos différentes activités, leur déploiement et leur utilisation génèrent des répercussions significatives sur l’environnement.

Emission CO2 du numérique en hausse
Les centres de données, les câbles sous-marins et les pylônes requièrent une alimentation électrique constante pour assurer la transmission des données. Ce qui a des conséquences en termes d’émissions de gaz à effet de serre (GES). Selon une étude de l’Agence de la transition écologique (Ademe) et l’Autorité de régulation des communications électroniques et des postes (Arcep), publiée en 2023 (1), l’empreinte carbone du numérique pourrait tripler entre 2020 et 2050 si aucune action n’était prise pour limiter la croissance de l’impact environnemental du numérique (2). Face aux enjeux environnementaux et sociaux croissants et l’essor de la régulation européenne en matière de durabilité, l’intégration des principes dits de « responsabilité sociale des entreprises » (RSE) est devenue une priorité pour les opérateurs télécoms qui sont désormais tenus de répondre à des normes plus strictes pour réduire leur impact environnemental. Le secteur numérique représente de 3 % à 4 % des émissions mondiales de GES, soit environ deux fois plus que l’aviation civile, selon le « Telco Sustainability Index » du cabinet de conseil américain BCG (3), et, selon cette fois l’Ademe, il contribue à hauteur de 2,5 % à l’empreinte carbone en France (4).