A propos Charles de Laubier

Rédacteur en chef de Edition Multimédi@, directeur de la publication.

L’Europe veut encadrer les algorithmes pour retirer les contenus illicites et éviter les « faux positifs »

Le futur règlement européen Digital Services Act (DSA) veut encadrer l’utilisation d’algorithmes dans la gestion des contenus sur les réseaux sociaux et d’en retirer ceux « jugés » illicites. Mais le risque de « faux positifs » (bloqués à tort) va poser des problèmes aux régulateurs et aux juges.

Par Winston Maxwell*, Telecom Paris, Institut polytechnique de Paris

Bloquer la publication d’un contenu est une décision grave, portant potentiellement atteinte à l’un des droits fondamentaux les plus importants pour la démocratie : la liberté d’expression. Pour la préserver, le droit constitutionnel américain et français exigent généralement qu’une décision interdisant la diffusion de contenus soit prise par une autorité judiciaire, et qu’elle le soit prise après la publication du contenu, non avant (1).

Blocage automatique : quelle légitimité ?
Les plateformes ne s’embarrassent pas de ces principes, filtrant des contenus avant leur publication par l’utilisation de robots. Faut-il s’en inquiéter ? S’agit-il d’une violation des droits fondamentaux des utilisateurs ? Le recours aux algorithmes pour identifier des contenus illégaux est devenu incontournable en raison de la quantité des informations publiées par les utilisateurs des réseaux sociaux. Même si la loi n’impose pas aux plateformes une obligation générale de surveillance des contenus, laquelle reste interdite (2), celles-ci ont mis en place des systèmes automatisés de détection de contenus illicites. Le champ d’application de ces outils s’est élargi grâce à l’émergence de modèles d’apprentissage automatique (machine learning), capables d’identifier des images et textes plus complexes, de comprendre le contexte d’une phrase ou d’une image, voire de juger de la véracité d’une affirmation.
Le futur règlement européen Digital Services Act (DSA) met en lumière les multiples rôles d’algorithmes dans la gestion de contenus sur les réseaux sociaux. Ces algorithmes identifient des contenus illicites et procèdent à leur retrait avec ou sans intervention humaine ; ils signalent l’existence d’utilisateurs potentiellement abusifs du service ; ils organisent la présentation de contenus et de publicités aux utilisateurs en fonction de leurs profils. Le règlement DSA propose d’encadrer l’utilisation d’algorithmes, surtout ceux utilisés pour retirer des contenus illicites. Les outils sont calibrés pour bloquer automatiquement, et sans intervention humaine, des contenus les plus manifestement illégaux. En cas de doute, la machine enverra le cas à des décisionnaires humains. Une grande partie des décisions de retrait de contenus sont aujourd’hui prises sans intervention humaine (3), ce qui soulève la question de leur légitimité et des garanties qui les entourent. Le DSA prévoit des garanties procédurales et de transparence similaires à celles qui existent pour les décisions prises par l’Etat. Le droit constitutionnel impose à l’Etat des règles contraignantes en matière de blocage de contenus illicites, alors que les plateformes, elles, ne sont pas directement concernées par ces contraintes constitutionnelles. Cependant, les plateformes dites « structurantes » ont un pouvoir quasi-étatique en matière de liberté d’expression. Il est donc logique d’étendre à ces plateformes les règles de transparence et de procédure qui s’appliquent aux décisions de l’Etat.
En 2018, les organisations de défense des droits civiques aux Etats-Unis ont élaboré des principes minimaux de transparence et de procédure équitable qui doivent s’appliquer aux décisions de retrait de contenus ou de suspension de comptes sur les réseaux sociaux. Appelés « Santa Clara Principles » (4), ces principes non-contraignants recommandent la publication par chaque plateforme numérique de données détaillées sur les alertes, les décisions de retrait et de suspension. Ils prévoient la notification aux utilisateurs affectés par les décisions de retrait, la publication de règles claires sur les types de contenus interdits sur la plateforme, la mention de raisons du retrait, la fourniture d’informations sur l’utilisation ou non d’un outil automatique, et une procédure efficace de contestation devant un décisionnaire humain différent de la personne qui a pris la décision initiale. Les Santa Clara Principles (SCP) reprennent, pour les adapter aux plateformes, une partie des règles constitutionnelles de « due process » aux Etats-Unis qui s’appliquent aux décisions, notamment algorithmiques, de l’Etat.

Le DSA va plus loin que les « SCP »
Le projet de règlement DSA rendrait contraignant un certain nombre des SCP, et notamment l’obligation d’informer l’utilisateur que son contenu a été retiré et de lui fournir une explication sur les raisons du retrait. La notification doit également mentionner l’utilisation éventuelle d’un outil automatique, et fournir des informations claires sur la possibilité de contester la décision. Le DSA exige une procédure efficace pour gérer les contestations d’utilisateurs, une procédure qui ne peut pas s’appuyer uniquement sur des moyens automatisés. Les utilisateurs peuvent donc contester un retrait devant un décisionnaire humain. Le DSA va au-delà des SCP en matière de transparence algorithmique, en exigeant la publication par les plateformes structurantes d’information sur les objectifs poursuivis par l’algorithme, les indices de performance, et les garanties entourant son utilisation.
Le projet de loi français sur le « respect des principes de la République », adopté par l’Assemblée nationale le 16 février dernier et actuellement examiné au Sénat (5), va plus loin encore en prévoyant la communication au Conseil supérieur de l’audiovisuel (CSA) des paramètres utilisés par les outils automatisés, des méthodes et des données utilisées pour l’évaluation et l’amélioration de leur performance.

Algorithmes, « faux positifs » et censure
La performance des algorithmes sera un sujet-clé pour le régulateur. Quel est le niveau acceptable de « faux positifs », à savoir des contenus bloqués à tort ? On sait que les tribunaux n’apprécient guère les faux positifs en matière de liberté d’expression (lire encadré ci-dessous) et qu’un algorithme d’apprentissage automatique va forcément générer des faux positifs. Le niveau de faux positifs dépendra notamment du niveau de sensibilité de l’algorithme dans la détection de « vrais » positifs, par exemple une vraie vidéo terroriste. Si l’on réduit le nombre de faux positifs, on va nécessairement réduire la sensibilité de l’algorithme dans la détection de vrais cas de contenus illégaux. Le bon équilibre entre les faux positifs et les faux négatifs sera un sujet délicat, et le niveau d’équilibre sera différent selon le type de contenus. Laisser passer la vidéo d’un acte terroriste du type Christchurch aura un coût très élevé pour la société, alors que laisser passer un morceau de musique protégé par le droit d’auteur sera a priori moins dommageable.
Les taux d’erreurs algorithmiques peuvent varier en fonction de la langue utilisée – un algorithme d’analyse de textes sera généralement plus performant en anglais – et peuvent également refléter les biais présents dans les données d’entraînement. Les algorithmes apprennent à partir des exemples de contenus retirés précédemment par les analystes humains. Ces analystes humains sont faillibles. Ils ont leur propre biais – biais culturels, linguistiques, ethniques, de genre – et commettent eux-aussi des erreurs d’appréciation qui seront reproduits ensuite par les algorithmes (6). Ainsi, il faut veiller non seulement au « bon » niveau de faux positifs et de faux négatifs selon le type de contenu, mais également vérifier que le niveau de perfor-mances de l’algorithme ne varie pas selon la couleur de la peau ou le sexe des personnes impliquées, selon la langue utilisée, ou selon le type de discours haineux (7). Ces multiples équilibres devraient être abordés dans un premier temps dans les études de risques systémiques conduites par les plateformes structurantes, en application de l’article 26 du futur règlement DSA en Europe. Ces études devront analyser l’impact des algorithmes d’identification et de retrait de contenus sur les droits fondamentaux. Ainsi, les plateformes devront proposer des solutions techniques et humaines pour concilier des objectifs – souvent contradictoires – liés à la mise en place d’un système de détection performant qui respecte en même temps la liberté d’expression, la protection des données personnelles et la protection contre les discriminations. Actuellement, le projet de règlement DSA prévoit que la Commission européenne sera le régulateur principal pour les plateformes structurantes. Celle-ci pourra émettre des recommandations relatives aux systèmes algorithmiques. Mais la manière de gérer les tensions entre la liberté d’expression et d’autres droits est avant tout une affaire nationale, dépendant du contexte, de l’histoire et de la culture de chaque pays (8).
En France, le CSA serait mieux placé que la Commission européenne pour évaluer les systèmes algorithmiques mis en place par les grandes plateformes pour analyser des contenus destinés au public français. Le paramétrage des algorithmes devra nécessairement refléter ces circonstances locales, et le contrôle de ces paramètres relèverait plus naturellement de la compétence du régulateur national. Un contrôle national de ces outils renforcerait en revanche le morcèlement des approches réglementaires entre Etats membres, et nécessiterait donc un système de coordination au niveau européen similaire à ce qui existe pour la régulation des télécoms et le RGPD. @

* Winston Maxwell, ancien avocat, est depuis juin 2019
directeur d’études Droit et Numérique à Telecom Paris.

Les discussions secrètes et le lobbying autour de l’article 17 controversé de la directive « Copyright »

La culture du secret qui caractérise les négociations et le lobbying autour de l’article 17 controversé de la directive « Copyright » n’est pas digne du fonctionnement démocratique de l’Europe. Alors que tous les internautes européens sont concernés par le filtrage et les risques de censures sur le Net.

La dernière réunion de négociation en date autour de l’article 17 controversé s’est tenue dans le plus grand secret – à huis clos – le 12 février dernier entre la DG Connect de la Commission européenne, des membres du Parlement européen et des représentants des Etats membres. Cette direction « Communications Networks, Content and Technology » (1), pilotée par Roberto Viola (photo) sous la houlette de Margrethe Vestager, vice-présidente de la Commission européenne, et de Thierry Breton, commissaire européen en charge du Marché intérieur, ne fait pas vraiment dans la clareté.

Futures lignes directrices, sujet sensible
Alors que jusqu’à il y a un an, la DG Connect faisait preuve d’un peu de transparence sur le « dialogue des parties prenantes sur l’application de l’article 17 de la directive sur le droit d’auteur dans le marché unique numérique » (2), force est de constater que depuis février 2020, c’est le blackout quasi-total sur ce qui se dit et s’échange lors des réunions au tour de cet article 17 controversé. C’est d’autant plus regrettable que les futures lignes directrices sur son application porteront sur des dispositions concernant au premier chef les internautes européens eux-mêmes. Les lignes directrices qui découleront de ces tractations auront un impact sur le filtrage, le blocage et le risque de censure sur Internet.
Pour les ayants droit des industries culturelles, il s’agit de lutter contre le piratage en ligne en exigeant des plateformes numériques qu’elles prévoient des dispositifs techniques pour supprimer les contenus enfreignant le droit d’auteur. Pour éviter un filtrage automatique et généralisé des contenus sur Internet, la Commission européenne avait – dans son projet de lignes directrices (3) sur l’article 17 publié en septembre 2020 – instauré un distinguo entre contenus « vraisemblablement contrefaisants » et ceux « vraisemblablement légitimes ». C’est cette dernière notion – de « téléchargement susceptible d’être légitime » – que les discussions achoppent à Bruxelles. C’est aussi sur ce point (de blocage) que des eurodéputés, de tous bords – mais principalement des deux plus grands groupes politiques – le Parti populaire européen (PPE) de droite et les Socialistes et démocrates (S&D) de gauche – ont fait part dans une lettre (4), juste avant la réunion technique du 12 février, de leur insatisfaction sur l’interprétation de l’article 17 par la Commission européenne. « L’approche actuelle des lignes directrice ne reflète pas correctement l’accord obtenu après de longues négociations sur l’article 17 de la directive sur le droit d’auteur », écrivent ces parlementaires, dont les Français Geoffroy Didier (PPE), Sylvie Guillaume (S&D) ou encore Laurence Farreng (Renew Europe). Et les eurodéputés de s’inquiéter : « La dernière réponse de la Commission européenne aux questions du Parlement européen sur cette question et les récentes déclarations publiques des membres des services de la DG Connect n’ont pas contribué à apaiser ces préoccupations ».
Roberto Viola, le patron de la DG Connect, et Giuseppe Abbamonte, directeur de la politique des médias à cette même DG Connect, ont tenté d’apaiser les craintes des parlementaires européens. En revanche, d’après Election Libre, le cabinet de Thierry Breton était convié à cette réunion tendue mais n’y a pas participé. L’eurodéputé Axel Voss (PPE), qui fut rapporteur de la directive « Copyright » (5) adoptée le 17 avril 2019 et publiée le 17 mai suivant, est bien sûr intervenu dans cette réunion électrique. « Aucune réunion de suite n’est prévue », a indiqué la Cnect (DG Connect) à Edition Multimédi@. Le temps presse car cette directive européenne « sur le droit d’auteur et les droits voisins dans le marché unique numérique » doit être transposée par les Vingt-sept « au plus tard le 7 juin 2021 », dans trois mois maintenant.

Paris et Berlin, pas dans le même axe
La France, qui veut être aux avant-postes de la transposition justement de ce texte qu’elle a largement contribué à élaborer, fait partie des pays européens – avec l’Italie, le Portugal, l’Espagne, la Croatie, le Danemark, ou encore la Grèce – qui estiment que les orientations (notamment des lignes directrices ou guidance sur l’article 17) n’atteindraient pas les objectifs initialement fixés par la Commission européenne en matière de protection de la propriété intellectuelle des détenteurs de droits en Europe. Paris n’est d’ailleurs pas sur la même longueur d’onde que Berlin : le projet de transposition de la France donne un rôle prépondérant à l’intervention préventive pour bloquer des contenus, mais avec des risques de sur-blocages et d’atteintes à la liberté d’expression sur Internet, alors que l’Allemagne a une approche qui est celle de la Commission européenne où le contenu présumé licite ne peut pas être bloqué automatiquement (voir schéma ci-dessous).

Ne pas sacrifier la liberté d’expression
A trois mois de la deadline pour la transposition de la directive « Copyright », cet article 17 continue de cristalliser les oppositions. Ce n’est pas faute, pour la Commission européenne, d’avoir mené une série de consultations depuis le second semestre 2019 et au début de l’année 2020, afin de clarifier la mise en œuvre de cet article controversé. Le projet de lignes directrices (guidance) issu de ces concertations et lobbying des parties en présence – plateformes numériques, d’un côté, industries culturelles, de l’autre – n’a pas permis de parvenir à un consensus, les ayants droit estimant que le compte n’y est pas (6).
En cause, selon eux, un nouveau principe dit de « téléchargement susceptible d’être légitime », prévoyant un modus operandi pour l’application de l’article 17 où les instructions des détenteurs de droits seraient simplement écartées dans le cadre des mesures préventives. La Commission européenne, elle, cherche à préserver un équilibre entre le respect des œuvres protégée par le droit de propriété intellectuelle et les exceptions au droit d’auteur. Objectif : ne pas sacrifier la liberté d’expression, de création et d’information, dont font partie la citation, la critique, la revue, la caricature, la parodie ou le pastiche (dixit l’article 17). En France, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) – dépendant du ministère de la Culture – avait regretté l’an dernier que la Commission européenne « esquiss[e] des lignes directrices qui réserveraient les blocages aux seuls cas de certitude de contrefaçon, et en donnant à la protection des exceptions […] une place centrale au détriment de l’effectivité des droits » (7).
L’article 17 incite en tout cas les plateformes de partage numériques (YouTube, Facebook, Twitter, …) à obtenir une autorisation – « par exemple en concluant un accord de licence » – qui « couvre également les actes accomplis par les utilisateurs (…) lorsqu’ils n’agissent pas à titre commerciale ou lorsque leur activité ne génère pas de revenus significatifs ». A défaut d’accord d’autorisation, ces plateformes – que la directive « Copyright » appelle « fournisseurs de services de partage de contenus en ligne » – sont alors responsables du piratage des œuvres protégées. A moins qu’ils ne montrent pattes blanches : « meilleurs efforts » pour obtenir une autorisation ou pour garantir l’indisponibilité les contenus signalés comme piratés ; « agi[r] promptement », dès réception d’une notification des titulaires de droits, pour bloquer l’accès aux contenus protégés. @

Charles de Laubier

Le discret marché des Smart TV étoffe ses bouquets de services à l’ombre des chaînes de télévision

Les téléviseurs connectés continuent de faire recette sur l’Hexagone. L’an dernier, selon l’institut GfK, il s’en est vendu plus de 3,2 millions d’unités. Samsung continue de se tailler la part du lion, suivi de loin par LG et TCL. Leurs bouquets de services s’étoffent discrètement à l’ombre des chaînes.

Le fabricant sud-coréen Samsung a conservé et même renforcé en 2020 sa position de numéro un des Smart TV en France, avec une part de marché de 30,4 % en volume et 37,3 % en valeur, selon l’institut GfK. La firme de Séoul garde à distance son compatriote LG, lequel réussit à tirer son épingle du jeu sur l’Hexagone avec 14,7 % de part de marché en volume et 18,3 % en valeur. Le chinois TCL arrive en troisième position avec 8,6 % en volume (devançant Philips et Sony) mais 6,2 % en valeur (devancé par Sony et Philips).

De TikTok à Salto, les nouveaux de la télé
Selon les chiffres de GfK que nous nous sommes procurés (voir schémas ci-dessous), il s’est vendu en France au cours de l’année 2020 plus de 3,2 millions de téléviseurs connectés. Cela correspond à une forte de hausse en volume de 28,5% sur un an. En valeur, le marché français des Smart TV a généré plus de 1,8 milliard d’euros de chiffre d’affaires : soit une progression de 21,8 % sur un an. D’après le Conseil supérieur de l’audiovisuel (CSA), plus de 80 % des foyers français équipés d’un téléviseur disposent d’une Smart TV connectée à Internet. Soit le téléviseur connecté l’est directement en tant que Smart TV pour plus d’un tiers d’entre eux, soit il l’est indirectement via la « box » du fournisseur d’accès à Internet (FAI) pour 78 % d’entre eux, lorsque ce n’est pas par la console de jeux ou un boitier dit OTT (1).
En tête de ce marché français de la télévision intelligente, la filiale Samsung Electronics France, basée à Saint-Ouen (région parisienne), a écoulé près de 1 million de ses téléviseurs intelligents sur le marché français pour un total de 700 millions d’euros de chiffre d’affaires. « Alors que 95% des possesseurs de nos Smart TV utilisent des applications qui y sont installées (2), nous enrichissons continuellement notre offre afin de proposer la meilleure expérience Smart TV possible », a assuré Jérôme Peyrot des Gachons (photo), directeur marketing contenus chez Samsung Electronics France, à l’occasion de l’annonce le 11 février dernier de l’application Salto sur les Smart TV du fabricant sud-coréen. La plateforme commune de télévision en streaming et de SVOD, créée par France Télévisions, M6 et TF1 pour favoriser « la création audiovisuelle françaises et européenne » (3) à partir de 6,99 par mois, devient ainsi accessible « sur le plus grand parc de téléviseurs connectés en France » (dixit Thomas Follin, DG de Salto). Six jours plus tôt, c’était l’application TikTok – éditée par le chinois ByteDance et gratuite celle-ci – qui faisait son entrée dans le magasin d’application de la gamme Smart TV de Samsung (4), dont les téléviseurs 4K et 8K (ultra-haute définition), mais aussi les vidéoprojecteurs. Les vidéos au format court très prisées de la jeune génération se substitueront ainsi à l’écran, dans une taille adaptée, aux traditionnels flux de télévision de chaînes classiques. « Les utilisateurs auront la possibilité de visualiser et aimer (like) les commentaires affichés sous les vidéos directement depuis l’écran de leur TV », expliquent TikTok, dont le patron pour l’Europe est Rich Waterworth. En décembre dernier, les Smart TV de Samsung accueillaient Benshi, une plateforme de SVOD pour enfants créée en janvier 2016 par les frères Desanges et opérée par VOD Factory. Samsung enrichie ainsi son bouquet de services (5), y compris via son propre « Samsung TV Plus » comprenant films, séries, sports, divertissements et une trentaine de chaînes thématiques, dont Qwest TV, Euronews ou encore Luxe.tv. LG, qui a ouvert son écosystème (webOS) à d’autres fabricants de Smart TV, n’est pas en reste dans cette course aux contenus télévisés face aux chaînes de plus en plus concurrencées (6) (*) (**) sur le petit écran. @

Charles de Laubier

Les « Spac », ces entreprises dites « chèques en blanc », attirent de plus en plus de grands patrons

Xavier Niel, Matthieu Pigasse et Pierre-Antoine Capton en ont constitué une fin 2015 pour lever des fonds à la Bourse de Paris, avec Mediawan ; Craig McCaw, fondateur de McCaw Cellular dans les années 1990 puis de Clearwire, est le dernier en date à se lancer au Nasdaq à New York, avec Colicity.

Les « Spac » – Special Purpose Acquisition Company – ont le vent en poupe. Ces « sociétés d’acquisition à vocation spécifique » est un statut particulier qui permet à une coquille vide au départ – et sans activité commerciale – de levers des fonds en Bourse, sans vraiment savoir si ses ambitions de fusions et d’acquisitions aboutiront. Mais les gendarmes de la Bourse, comme la SEC aux Etats-Unis ou l’AMF en France, n’en ont cure. Seuls importent les fondateurs.

Colicity à la conquête des TMT
C’est en réalité un « chèque en blanc », d’où leur surnom anglo-saxon de « blank check company », que l’on fait à des hommes d’affaires dont la signature vaut en elle-même son pesant d’or. Comme celle de Craig McCaw (photo), qui a fait fortune au début des années 1990 avec McCaw Cellular, pionnier des opérateurs mobiles nationaux aux Etats-Unis. Il a fait fortune en revendant son entreprise à AT&T en 1994 pour la coquette somme de 11,5 milliards de dollars (1). Le nouveau milliardaire rachètera ensuite en 2004 Clearwire, un opérateur américain de réseaux fixes et mobiles pour petites et moyennes entreprises, pionnier là aussi de l’accès à Internet sans fil (dont le Wimax et la VoIP). Il en fut le président jusqu’en 2010, Sprint Nextel rachetant deux ans après Clearwire.
Plus de dix ans après, l’entrepreneur dans l’âme Craig McCaw continue d’investir. Cette fois, il a lancé le 24 février dernier l’introduction en Bourse à New York de sa nouvelle société Colicity. Il s’agit d’une Spac qu’il préside, dont l’ambition affichée est de conquérir « les secteurs des technologies, des médias et des télécommunications » – ce que les investisseurs appellent les TMT – à coup de fusions, d’acquisitions, de rachats ou d’échanges d’actions, de réorganisations ou encore de regroupements.
Le vétéran des télécoms Craig McCaw (71 ans) comptait, avec son IPO (2), lever en deux jours 300 millions de dollars au Nasdaq, soit 30.000.000 unités au prix de 10 dollars (souvent le montant de l’action fixé dans le cadre d’une Spac). Cet appel aux investisseurs était valable jusqu’au 26 février mais « la société a accordé aux preneurs fermes une option d’achat de jusqu’à 4.500.000 unités supplémentaires [l’équivalent de 45 millions de dollars de plus] de 45 jours au prix de l’appel public à l’épargne initial pour couvrir les surallocations, le cas échéant » – soit jusqu’au 12 avril prochain. Pour autant, difficile d’en savoir plus sur les réelles intentions de la Spac de Craig McCaw. C’est d’ailleurs le propre d’une Spac : le prospectus est censé être disponible auprès de Goldman Sachs qui, avec PJT Partners (spin off de Blackstone), participe à l’opérateur de « chèque en blanc ». Colicity, c’est comme une lampe-torche allumée dans le noir complet, comme le suggère la vidéo d’accueil du site web de l’entreprise (3). Le directeur de l’investissement de Colicity est le financier « Media & Telecom» Randy Russel (4), qui travaille pour une autre société d’investissement contrôlée par Craig McCaw : Pendrell. Celle-ci avait repris l’opérateur satellitaire ICO Global Communications après sa faillite en 1999. Colicity est en fait la deuxième Spac parrainée par Pendrell. La première Spac était Holicity, laquelle société – présidée aussi par le magnat américain des télécoms – vient d’annoncer la reprise et la mise en Bourse au Nasdaq de l’opérateur par satellite Astra (5) pour plus de 2 milliards de dollars (6). La Spac Colicity investira-t-elle aussi dans des réseaux mobiles et satellitaires ? L’avantage d’une Spac est en tout cas de permettre de lever des fonds dès sa création ex nihilo sur les marchés financiers sans avoir à procéder à une introduction en Bourse classique, donc la complexité et la rigidité habituelles. Les démarches auprès des gendarmes boursiers sont simplifiées et le coût de l’IPO minime. L’on comprend que le trio français Niel- Pigasse-Capton ait opté pour cette formule attractive pour constituer en décembre 2015 Mediawan, une Spac qui a levé 250 millions d’euros sur l’Euronext à Paris. Sept acquisitions plus tard, ce groupe est devenu « l’un des principaux studios indépendants de contenus audiovisuels en Europe » (production audiovisuelle, distribution de contenus, édition de chaînes et services digitaux). Fin 2020, Mediawan a bouclé l’acquisition de Lagardère Studios. A terme, la nouvelle Mediawan Alliance créée par le trio absorbera Mediawan qui sera retiré de la cote.

Les Spac ont levé 78 Mds de $ en 2020
D’autres personnalités ont joué sur cet effet de levier de la Spac : le rappeur et producteur Jay-Z, également cofondateur et premier actionnaire du service de streaming musical Tidal (que le fondateur de Twitter, Jack Dorsey, veut racheter), s’en sert pour investir dans le cannabis légal aux Etats-Unis. Selon Refinitiv, 2020 a été l’année des Spac avec plus de 78 milliards de dollars (7) levés par l’ensemble des Spac dans tous les domaines. @

Charles de Laubier

Réseaux sociaux : Macron les prend très au sérieux

En fait. Le 19 février, le duo influenceur « Mcfly et Carlito » aux plus de 6,4 millions d’abonnés sur YouTube ont dévoilé une vidéo que le président de la République, Emmanuel Macron, a prise pour leur lancer un défi : faire un clip sur le respect des gestes barrières anti-covid, en les invitant à l’Elysée si…