Responsabilités sur le Web : ce qui change vraiment avec le règlement sur les services numériques

Même si le DSA a maintenu la « non-responsabilité » des hébergeurs et autres intermédiaires numériques, ce règlement européen sur les services numériques ouvre la voie à une auto-régulation a priori de la part des très grandes plateformes en ligne pour éviter les « risques systémiques ».

Par Anne Cousin, avocate associée, Derriennic Associés

Le règlement sur les services numériques – Digital Services Act (DSA) – du 19 octobre 2022 (1) est applicable à l’ensemble des intermédiaires du numérique depuis février 2024 : fournisseurs d’accès aux contenus, services de cache, moteurs de recherche, hébergeurs, plateformes en ligne. Que faut-il en attendre sur le terrain de la responsabilité de tous ces « fournisseurs de services intermédiaires » en cas de désinformation, cyber harcèlement, diffamation et contenus haineux ? Et ce, « quel que soit leur lieu d’établissement ou leur situation géographique, dans la mesure où ils proposent des services dans l’Union [européenne] ».

Des principes inchangés, parfois chahutés
A l’origine du Web, la question fondamentale fut de distinguer deux acteurs principaux : les éditeurs d’une part, responsables de plein droit des contenus qu’ils créent, et les hébergeurs d’autre part, qui à l’inverse ne doivent, ni même ne peuvent, en répondre. A la veille des années 2000, la bataille en France fut en effet acharnée sur le terrain judiciaire (2) et finalement remportée au Parlement en quelques années – loi « Liberté de communication » et loi « LCEN » (3) – par les tenants de la non-responsabilité des hébergeurs, considérée comme la condition sine qua non du développement des échanges sur Internet. Depuis, le principe a été repris par les lois françaises successives et – bien que la jurisprudence soit parfois hésitante dans son application pratique – la distinction de l’éditeur et de l’hébergeur, et les conséquences qui en découlent, sont fermement maintenue depuis. La régie publicitaire Google Adwords (4), le moteur de recherche Google (5), ou encore la plateforme de partage de vidéos Dailymotion (6) ont ainsi été jugés hébergeurs. Au contraire, ont été considérés comme éditeurs la plateforme Airbnb (7) ou encore le site web de billetterie de manifestations sportives Ticket Bis (8). Le DSA ne revient pas en arrière.

Ce règlement européen sur le marché des services numériques maintient aussi la règle indissociable de la précédente et qui en est le pendant : l’hébergeur à qui est notifié un contenu manifestement illicite doit le supprimer « dans les meilleurs délais ». Le DSA précise qu’un tel retrait doit intervenir « sans examen juridique détaillé » (9). L’illicéité doit donc « sauter aux yeux » de l’hébergeur, ce qui devrait conduire, comme aujourd’hui, à une quasi-absence de suppression des contenus « simplement » diffamatoires ou injurieux, tant leur analyse est complexe et suppose un examen approfondi. Il est en effet exclu que l’hébergeur se prononce sur la vérité du propos diffamatoire (qui écarte l’infraction) ou la bonne foi de son auteur, qui détient les mêmes effets, puisqu’il ne dispose ni du recul ni du dossier nécessaire. Le juge des référés du Tribunal judiciaire de Paris l’a par exemple retenu en ces termes : « Une appréciation du caractère éventuellement diffamatoire des vidéos, photographies et écrits litigieux suppose une analyse des circonstances ayant présidé à leur diffusion, laquelle échappe par principe à celui qui n’est qu’un intermédiaire technique. Cela a pour conséquence que cet intermédiaire ne peut, par le seul fait de cette diffusion ou du maintien en ligne, être considéré comme ayant eu un comportement fautif, étant précisé en outre que la diffamation, à la supposer constituée, n’égale pas forcément trouble manifestement illicite » (10).
Ce n’est finalement que dans des cas exceptionnels – en raison des thèmes abordés, de la violence particulière du propos considéré – que l’hébergeur pourra trancher en faveur du caractère manifestement diffamatoire ou injurieux du contenu et le supprimer. Le maintien de ce principe par le DSA montre donc que la question de la non-responsabilité des hébergeurs et autres intermédiaires fait aujourd’hui consensus. A ce stade, il pourrait donc être justifié de soutenir que, malgré les déclarations tonitruantes de certains politiques, le DSA ne révolutionnera pas le paysage juridique. Il ne mettra donc pas fin à l’irresponsabilité des plateformes puisque la tâche a déjà été accomplie, et ce, depuis longtemps… Mais cette approche, elle aussi à tort radicale, ne tient pas compte des véritables apports du DSA.

Responsabilité et responsabilisation
En réalité, le règlement sur le marché des services numérique fait le constat que sur le terrain de la « responsabilité » des intermédiaires, c’est-à-dire « après » la diffusion du contenu illicite, tout a été fait : les droits nationaux et le droit de l’Union européenne (UE) ne peuvent aller beaucoup plus loin que la construction légale et jurisprudentielle actuelle. Une définition uniforme dans l’UE de ce qu’il faut entendre par contenu dit « illicite » était peut-être envisageable, tout comme la fixation uniforme de délais de retrait par l’hébergeur en fonction de la gravité du contenu. Mais guère plus. En revanche, sur le terrain cette fois des « obligations » et de la « responsabilisation », beaucoup restait à bâtir. Et c’est ce à quoi s’emploie le DSA. On peut ainsi se demander si la distinction fondamentale de l’éditeur et de l’hébergeur, qui a commandé toute la réflexion depuis l’origine, conserve aujourd’hui effectivement toute sa force.

Nouveaux enjeux, nouvelles obligations
L’idée s’est peu à peu faite jour que les graves dérives actuelles telles que la manipulation de l’information, le cyberharcèlement ou la haine en ligne ne pourraient recevoir une réponse adaptée si le droit persistait à s’en tenir à la seule distinction de l’éditeur qui répond de tout, et de l’hébergeur qui en principe ne répond de rien. Sur ce point, le DSA innove à plusieurs égards, faisant de la modération des contenus, l’élément central du nouveau rôle attribué aux intermédiaires techniques du Web. Il leur impose tout d’abord une obligation renforcée de transparence sur le fonctionnement de la modération a posteriori, laquelle est en effet souvent dénoncée comme opaque et peu compréhensible, conduisant à d’inévitables contentieux. Twitter – devenu X – a ainsi été contraint judiciairement (11), parce qu’il s’y refusait, de fournir des données sur sa procédure de modération (moyens mis en œuvre, nombre de signalements reçus, …). Les conditions générales des hébergeurs doivent désormais détailler les politiques, process, mesures et outils utilisés à cette fin, y compris en ce qui concerne la prise de décision fondée sur des algorithmes et le réexamen par un être humain. Les informations devront être énoncées « dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté » et mises « à la disposition du public dans un format facilement accessible et lisible ».
Les intermédiaires devront aussi établir un rapport annuel détaillant le type de réclamations reçues des particuliers comme des administrations, et les décisions prises pour y donner suite (12). Instagram, Facebook et d’autres très grandes plateformes ont publié leur premier rapport de transparence fin 2023 (13). On y apprend que les Etats membres sont très peu interventionnistes, notamment la France, et que les injonctions de suppression émanant des autorités sont peu nombreuses. Les intermédiaires devront également être plus transparents sur leur système de recommandation, qui, très souvent, permet de favoriser les contenus les plus violents et donc les plus dangereux pour la paix civile.
Mais là où le DSA innove véritablement, c’est à l’égard des « très grandes plateformes » et des « très grands moteurs de recherche » – ceux qui comptabilisent au moins 45 millions d’utilisateurs actifs dans l’UE. Globalement, les obligations qu’il prévoit vont en effet croissant : tous les intermédiaires techniques sont soumis à une série de règles ; ensuite l’ensemble des hébergeurs sont concernés par plusieurs dispositions complémentaires ; puis parmi les hébergeurs, la catégorie particulière des plateformes devra satisfaire à des engagements encore plus contraignants ; et enfin, les « très grandes plateformes en ligne » et les « très grands moteurs de recherche en ligne » seront tenus d’obligations plus sévères encore (14). A leur égard, compte tenu de leur rôle primordial dans la diffusion de l’information au sens large, on considère que la modération a posteriori ne suffit plus à traiter efficacement les dérives les plus graves et c’est pourquoi le DSA leur fait désormais obligation d’intervenir également a priori. Ces « VLOP » (Very Large Online Platforms) et ces VLOSE (Very Large Online Search Engines), dont la liste peut évoluer (15), doivent en effet désormais procéder une fois par an à une auto-analyse de leur fonctionnement et se soumettre à un audit indépendant afin d’en identifier les « risques systémiques » – notamment « lorsque l’accès à des contenus illicites peut se propager rapidement ». Ils doivent ensuite, lorsque ces risques systémiques sont identifiés, mettre « en place des mesures d’atténuation raisonnables, proportionnées et efficaces » (16). On peut voir dans cette évolution, une obligation de modération a priori cette fois, mais de portée générale et non dirigée vers un contenu particulier.
La distinction essentielle entre l’éditeur qui produit le contenu et le contrôle, et l’hébergeur qui reste extérieur au contenu et qui intervient seulement une fois l’illicéité portée à sa connaissance, a donc fait long feu. Mais de nouvelles questions surgissent. En effet, l’irresponsabilité des intermédiaires les plus puissants du marché est-elle toujours un principe intangible ? Peuvent-ils désormais se trouver mis en cause si, malgré les audits qui leur sont imposés, ils n’ont pas correctement identifié les risques et ne sont pas intervenus en amont comme ils l’auraient dû pour en atténuer les conséquences ? Une réponse positive à cette question est parfaitement envisageable. Il ne s’agirait plus alors de déterminer seulement s’ils devaient retirer tel ou tel contenu illicite mais, concrètement, si tel ou tel crime – par exemple un acte terroriste – aurait pu être évité s’ils avaient correctement identifié, analysé le risque et pris les mesures nécessaires pour le limiter ou même l’écarter.

Liberté d’expression : qui est l’« arbitre » ?
Au-delà, l’accroissement de la responsabilisation des très grandes plateformes et très grands moteurs de recherche pose aussi directement la question du rôle du juge dans la sanction des abus de la liberté d’expression. Le DSA ne conduit-il pas à faire de chacune des plus puissantes plateformes mondiales « l’arbitre unique » de celle-ci et de ses dérives ? L’évolution contemporaine de X (ex-Twitter) qui se prévaut d’une liberté totale (dont il y aurait beaucoup à dire au demeurant) ne sonne-t-elle pas déjà comme un sinistre avertissement ? Le débat est en tout cas lancé. @

En plus des télécoms, l’Arcep se prépare à une régulation des « réseaux informatisés »

« Trois tendances structurantes appellent potentiellement à des actions de régulation », prévient la première note de synthèse « Réseaux du futur » de l’Arcep, en faisant référence à l’informatisation des réseaux, à l’ouverture des API du réseau, et à la cloudification/virtualisation des entreprises.

L’Autorité de régulation des communications électroniques et des postes (Arcep) va-t-elle en plus devenir le régulateur de la connectivité Internet ? La question posée par Edition Multimédi@ peut surprendre, mais cette perspective pourrait devenir réalité avec l’informatisation des réseaux, l’ouverture des interfaces de programmation applicative des réseaux, et la cloudification/virtualisation des entreprises. Une nouvelle ère se dessine pour la régulation des télécoms, lesquelles voient l’informatique s’immiscer partout et jusqu’à leurs extrémités.

« Trois tendances structurantes »
L’Arcep, actuellement présidée par Laure de La Raudière (photo), mène depuis 2018 des réflexions sur ce qu’elle appelle « les réseaux du futur ». Objectif : se préparer aux « futurs défis de la régulation des réseaux » et orienter son action en conséquence. Un an après avoir relancé ses travaux menés avec un nouveau « comité scientifique », composé aujourd’hui de onze personnalités qualifiées du monde académique, entrepreneurial et industriel, une première « note de synthèse » a été publiée le 4 octobre 2024 et intitulée « L’informatique au cœur des télécoms ». Dans sa conclusion, le document de travail d’une vingtaine de pages (1) fait état de « trois tendances structurantes qui appellent potentiellement à des actions de régulation ».

Cette future régulation étendue aux « réseaux informatisés » porterait aussi bien sur le marché grand public que sur celui des entreprises. Le comité scientifique de l’Arcep décrit ces trois tendances de la façon suivante :
L’informatisation des réseaux semble se réaliser par étape, avec déjà quelques enjeux majeurs liés à ces transformations, notamment en ce qui concerne l’utilisation de solutions de cloud public pour l’exploitation des réseaux et la fourniture de services de connectivité au grand public. Certains de ces enjeux pourraient soulever des questions de régulation, notamment le marché de l’intégration des fonctionnalités des réseaux.
L’identification des services de demain pour le grand public reste incertaine : les cas d’usage ne semblent pas clairement se dessiner à ce stade. Néanmoins, l’ouverture des API (2) du réseau pourrait permettre l’éclosion de nouveaux usages et de nouveaux services. Une vigilance sur le fonctionnement des futurs marchés d’accès aux API pourrait alors s’avérer nécessaire.
Les offres de solutions de connectivité à destination des entreprises pourraient en revanche bénéficier plus directement des retombées de l’informatisation des réseaux. Ce marché pourrait connaître des évolutions profondes. D’une part, certains services IT [comprenez Information Technology, pour informatique, ndlr] vont remplacer des services télécoms historiques, conduisant à une combinaison des offres de solutions logicielles et de connectivité (facilitée par le cloud et la virtualisation). D’autre part, des offres de solutions de connectivité sans fil « sur mesure » devraient émerger en réponse aux besoins des verticaux. L’informatisation des réseaux pourrait générer de l’innovation avec beaucoup d’acteurs, aux atouts divers, sans évidence à ce stade sur les structures de marché qui pourraient en résulter.
A ces « trois tendances structurantes » qui pourraient nécessiter de faire évoluer la régulation des communications électroniques au-delà du périmètre historique de l’Arcep, le comité scientifique ajoute « les innovations qui seront permises par l’IA et les synergies qui pourraient exister avec les réseaux du futur seraient donc de nature à bouleverser assez radicalement le secteur de la connectivité ».
L’intelligence artificielle va en effet non seulement permettre aux personnels des opérateurs télécoms d’intégrer plus efficacement les gains à attendre de l’informatisation de leur réseau, mais aussi d’améliorer le fonctionnement des réseaux et l’optimisation de leur architecture, ainsi que de permettre l’essor plus rapide de nouveaux services, tout « en sollicitant beaucoup plus la connectivité pour accéder à différents types d’IA positionnées plus ou moins profondément dans les réseaux ou au-delà ». Cela suggère que la régulation des télécoms pourrait avoir un droit de regard et de contrôle sur cette informatisation des réseaux et les IA génératives associées.

Cœur du réseau dans le nuage
Si la mise « en nuage » des réseaux des opérateurs télécoms est encore progressive, la « virtualisation » de plusieurs fonctions telles que celles touchant au « cœur du réseau » comme cela se fait dans le déploiement de la 5G dite standalone (ou 5G autonome) – à savoir des infrastructures mobiles conçues de bout-en-bout pour la 5G et ne s’appuyant pas sur des réseaux 4G préexistants (3). Dans ce cas, le cœur du réseau mobile étant largement virtualisé, la tendance est à la mise en nuage et cette solution est privilégiée par de nouveaux entrants. « Les fonctions du cœur de réseau, qui assurent la gestion des réseaux d’accès fixes et mobiles, sont de plus en plus virtualisées et cloudifiées par les différents opérateurs [télécoms], notamment pour permettre le déploiement de la 5G standalone. Toutefois, […] le cloud public n’est pas encore considéré comme une solution pour porter le cœur de réseau national », constate le comité scientifique, dont fait partie Yves Gassot (photo ci-dessous), consultant indépendant et ancien directeur général de l’Idate (4).

Le backbone n’est pas virtualisable
Autre partie du réseau sujette à la dématérialisation du réseau : les fonctions supports, considérées comme « plus proches de l’informatique » et « faciles à faire évoluer vers le cloud ». C’est ce que les opérateurs télécoms appellent les OSS et BSS (« Operation Support System » et « Business Support System »), qui permettent notamment la supervision du réseau, la gestion et la facturation des clients. « Les fonctions supports constituent les premières briques qui ont été portées sur le cloud, que ce soit du cloud public ou du cloud privé. Ces fonctions, moins critiques pour le fonctionnement des réseaux, sont plus faciles à faire évoluer vers du cloud », souligne la note de synthèse. En revanche, le réseau d’accès mobile – appelé aussi réseau d’accès radio ou RAN (5) – est pour l’instant peu virtualisé (bien que les déploiements commencent en Europe, notamment chez Deutsche Telekom en Allemagne, ou Vodafone et Orange en Roumanie), et encore moins cloudifié (car cela suppose d’importants investissements et de l’hébergement à proximité des antennes).
Quant à la fonction backbone, qui assure le transport des flux de données à travers l’infrastructure déployée dans le pays et qui se compose d’équipements physiques pour l’essentiel, elle est très peu virtualisable et cloudifiable. A ceci près que la fonction backbone peut être configurée à l’aide d’un Software Defined Networks (SDN) pour les différents niveaux de qualité de service comme la priorisation de flux et les différentes manières d’opérer le réseau. Cependant, relève la note de synthèse, « les évolutions liées au SDN ne sont pas nécessairement de l’ordre de la virtualisation ou cloudification des équipements, qui, pour des raisons de performance, restent des équipements dédiés ». Dernier segment du réseau à échapper à la dématérialisation : le réseau d’accès fixe et les réseaux internes des entreprises (parties wifi et filaire). Là encore, les équipements d’accès restent des équipements dédiés et physiques, même si l’on peut aussi opérer un réseau étendu à l’aide d’un SDN – appelé dans ce cas SD-WAN (6). Sans parler de la « box » des fournisseurs d’accès à Internet (FAI) qui, dans les foyers, commence à prendre elle aussi le chemin de la dématérialisation (7). Reste qu’à l’avenir, l’« intelligence » des réseaux va progressivement être délocalisée par les opérateurs télécoms vers des locaux physiques hébergeant des serveurs informatiques capables de gérer – au plus près de leurs abonnés – les services de connectivité et les performances du réseau. Cette perspective au edge computing n’est pas encore répandue, mais cela commence à être mis en place « dans un premier temps à une échelle seulement régionale pour évoluer par la suite vers une granularité plus capillaire ». La clé de cette décentralisation des réseaux s’appelle notamment MEC, pour Multi-Access Edge Computing, un standard ouvert défini par l’ETSI (8) pour « unir les mondes des télécommunications et du cloud informatique » – voire réconcilier les opérateurs et les GAFAM qui se regardent en chiens de faïence.
Mais, comme le relève le comité scientifique « Réseaux du futur » de l’Arcep, les « telcos » sont « prudents », même si de grands opérateurs télécoms font partie d’associations internationales destinées à accélérer l’informatisation des réseaux telles que O-Ran Alliance (fondée en 2018 par AT&T, China Mobile, Deutsche Telekom, NTT Docomo et Orange) et Sylva (un projet open source de la Linux Foundation Europe auquel participent Telecom Italia, Telefonica, Deutsche Telekom, Vodafone ou encore Orange). « Quelques grands opérateurs bien établis comme AT&T aux EtatsUnis, Telus au Canada ou encore NTT Docomo au Japon, déploient déjà des solutions virtualisées et mises en nuage à grande échelle dans leur réseau commercial. A l’inverse, certains opérateurs nouveaux entrants (« greenfields ») comme Dish aux Etats-Unis, 1&1 en Allemagne ou Rakuten au Japon ont fait le choix de déployer directement un réseau entièrement virtualisé », est-il indiqué dans la note synthèse.

La « prudence » reste de mise
La « prudence » de la plupart des opérateurs télécoms déjà en place envers l’informatisation de leurs réseaux réside dans le fait qu’ils disposent d’une infrastructure matérielle préexistant qui ne peut être virtualisée et qui n’est pas obsolète. Surtout que la partie de leur « patrimoine » qui pourrait être dématérialisée représente une faible part de leur vaste infrastructure.
De plus, relève l’Arcep, « le retour sur investissement est encore incertain face à des coûts d’intégration aujourd’hui assez élevés, notamment en comparaison de solutions déjà intégrées et disponibles ». Sans parler de la maturité et de l’efficacité de ces solutions qui soulèvent des interrogations de la part de certains opérateurs télécoms, lesquels ne maîtrisent pas tous les nouveaux concepts de virtualisation et de cloudification. @

Charles de Laubier

 

Audience cross-média en vue : Médiamétrie veut une « communication claire et transparente »

Le 28 octobre, Marie Liutkus prend ses fonctions de directrice de la communication de Médiamétrie au moment où la mesure d’audience télé et vidéo devient un complexe Big Data. Un « comité crossmédia » – réunissant chaînes, plateformes et publicitaires – devrait se mettre en place début 2025.

Ça se complexifie pour l’institut de mesure d’audience Médiamétrie, qui fêtera ses 40 ans en 2025. C’est aussi l’an prochain que sera mis en place un « comité cross-média » pour tenter de trouver un consensus décisif entre les chaînes de télévision, les plateformes vidéo et les publicitaires qui y participeront. Il s’agira pour tous ces acteurs de se mettre d’accord autour d’outils de mesure d’audience télé (linéaire) et vidéo (délinéarisée), pour peu qu’il y ait convergence des méthodologies et définition commune du « contact », afin de pouvoir comparer des résultats acceptables et acceptés par tous.

Pub : faire converger télé et vidéo
D’ici là, Médiamétrie lancera dans quelques semaines la première mesure automatisée de la publicité télé linéaire et vidéo non linéaire sur les téléviseurs connectés. Près de 25 ans après avoir pris en compte la diffusion numérique et près de 40 ans après l’invention de l’Audimat, auquel a succédé Médiamat en 1989 (1), le système de mesure d’audience TV de Médiamétrie se « plateformise ». Le fameux Médiamat est en train d’intégrer la mesure de la publicité délinéarisée, celle qui apparaît en télévision de rattrapage (replay) ou en prévisualisation en ligne avant diffusion à l’antenne (preview). En plus des Smart TV (via Internet ou via les box), tous les écrans seront à terme concernés – à domicile ou en mobilité (2). C’est dans ce contexte que Marie Liutkus (photo de gauche) entre en fonction le 28 octobre en tant que directrice de la communication de Médiamétrie, dont elle intègre le comité exécutif.

Jusqu’alors directrice de la communication de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), elle est depuis ce lundi rattachée à Yannick Carriou (photo de droite), PDG de l’institut de mesure d’audience. « Notre rôle de tiers de confiance dans l’écosystème média nous impose d’avoir une communication claire et transparente, tant sur nos résultats d’études que sur l’évolution des mesures, avait-il dit en septembre lors de la nomination de la nouvelle recrue. Alors que les usages média évoluent de plus en plus rapidement et que nous adaptons nos dispositifs et nos offres en conséquence pour répondre aux besoins du marché, l’enjeu d’une communication pertinente, ciblée, pédagogique et efficace n’en est que plus essentiel » (3). La communication interne et externe sera d’autant plus cruciale que Médiamétrie entre plus que jamais dans l’ère du Big Data avec la nouvelle mesure de la publicité « cross-média ». L’institut de la rue Riva (à Levallois-Perret) mène depuis l’été dernier des expérimentations sur écran TV avec cinq régies publicitaires de chaînes de télévision, membres du Syndicat national de la publicité télévisée (SNPTV). Pour ce faire, il leur a fallu mettre un tatouage numérique (watermarking) sur toutes leurs publicités digitales. Objectif : aboutir à la standardisation de cette mesure publicitaire cross-média et, à terme, sur tous les écrans, que la publicité soit linéaire via la TNT ou en live streaming, d’une part, soit non linéaire en mode VOD, d’autre part. Après l’actuelle phase bêta menée avec cinq chaînes, cette mesure cross-média sera proposée à d’autres chaînes et plateformes avant la fin de cette année 2024.
Faire converger la mesure de la publicité linéaire et non linéaire répond à la demande des annonceurs d’avoir une vision unifiée de leurs campagnes publicitaires diffusées aussi bien à la télévision que sur Internet. Une campagne publicitaire dite cross-média mise sur la complémentarité entre les différents médias utilisés pour tenir compte de l’évolution rapide des usages des téléspectateurs et des internautes, lesquels sont souvent les mêmes. En harmonisant la mesure publicitaire du linéaire et du délinéarisé, le but est in fine de mieux monétiser le « contact », à savoir un individu ayant vu ou visionné une publicité télé ou vidéo. Autrement dit, il s’agit pour les régies publicitaires de capter et d’analyser chaque seconde d’attention envers les publicités télé et vidéo, sur tous les terminaux. Car comptabiliser un contact est le nerf de la guerre pour facturer la publicité. Encore faut-il que les acteurs de l’audiovisuel se mettent d’accord.

De la TV à la SVOD en passant par l’AVOD
La mesure du « contact TV » et celle du « contact VOD » diffèrent : la première compte l’exposition – pondérée par la durée – d’un individu à une publicité télé ; la seconde considère comme une « impression »une publicité vidéo visionnée plus de 2 secondes (4). Autre différence de taille : le contact télé est mesuré par individu, alors que l’impression vidéo peut concerner plusieurs personnes. Médiamétrie discute depuis plus de deux ans avec les plateformes de streaming vidéo pure players telles que Netflix, Amazon ou YouTube (5), le défi de son futur comité cross-média sera d’amener les acteurs de la SVOD (6) et de l’AVOD (7) à cette table de négociations pour arriver à des règles communes avec le monde de la télévision habitué à la pondération. @

Charles de Laubier

Dailymotion rejoint myCanal dans Canal+ : fusion ?

En fait. Le 22 octobre, Vivendi a publié ses résultats trimestriels qui sont les derniers avant sa scission en trois entités – Canal+, Havas et Louis Hachette – qui, si l’opération était approuvée à l’AG du 9 décembre, seront cotées le 16 décembre et indépendantes du groupe de Vincent Bolloré. Et Dailymotion ?

En clair. Avec les résultats trimestriels de Vivendi, qui ont été les tout derniers à être publiés avant la scission historique du groupe de Vincent Bolloré prévue en décembre, c’est la première fois que sa filiale Canal+ – qui ne le sera plus à partir du 16 décembre – intègre désormais les activités de Dailymotion. La plateforme de partage vidéo – créée il y aura 20 ans en mars prochain – rejoint ainsi la chaîne Canal+ lancée, elle, il y a 40 ans (le 4 novembre) ainsi que sa plateforme de streaming myCanal. Annoncée en septembre, ce transfert de la maison mère à la filiale audiovisuelle (avant éclatement de Vivendi), a eu lieu au troisième trimestre, en même temps que les activités GVA (Group Vivendi Africa) dédiées, elles, au très haut débit en Afrique.
Ces deux activités étaient jusqu’alors fondues dans la ligne comptable « Nouvelles Initiatives » des résultats financiers du groupe Vivendi.

Sur l’exercice 2023, cet agrégat composé « essentiellement » (1) de Dailymotion et de GVA a généré 152 millions d’euros de chiffre d’affaires, en hausse de 22,4 % sur un an, mais pour une perte opérationnelle de 43 millions d’euros. Près de deux décennies après sa création, Dailymotion est toujours déficitaire, malgré une audience mondiale revendiquée de « 400 millions d’utilisateurs actifs mensuels », dont 17,2 millions de visiteurs uniques en France où il est en baisse (2). Le groupe de Vincent Bolloré a même dû déprécier l’an dernier la valeur de Dailymotion de 80,7 millions d’euros, alors que la plateforme vidéo cofondée par Benjamin Bejbaum et Olivier Poitrey – acquise en 2013 par Orange qui la cédée en 2017 à Vivendi (3) – lui coûte très cher.
Pour ses deux plateformes myCanal et Dailymotion, Vivendi a englouti « ces dernières années environ 1 milliard d’euros par an ». Edition Multimédi@ n’a pas obtenu de réponse ni de Canal+ ni de Vivendi à la question de savoir si le groupe de Vincent Bolloré envisagerait à terme de fusionner les deux plateformes de streaming ? Car les deux attirent à elles des créateurs de contenus premium (5.000 éditeurs professionnels pour Dailymotion, 2.000 chaînes live chez myCanal) et se développent à l’international. N’ont-elles pas les mêmes publics ? En tout cas, malgré l’intégration de Dailymotion (avec GVA) dans le groupe Canal+, le chiffre d’affaires de celui-ci au troisième trimestre 2024 a tout de même baissé de – 4,6 %, à 1,5 milliard d’euros. @

Streaming musical : Tidal a 10 ans le 28 octobre

En fait. Les 28 octobre, la plateforme de musique Tidal fête ses 10 ans. Misant sur la qualité hi-fi, elle a été lancée en 2014 par la société norvégienne et suédoise Aspiro à partir de son premier service de streaming musical pour mobiles, WiMP. Depuis 2021, Jack Dorsey la détient via Block (ex-Square).

En clair. La plateforme de streaming musical hi-fi Tidal a été lancée le 28 octobre 2014 par la société scandinave Aspiro en Grande-Bretagne, aux Etats-Unis et au Canada, en plus de la Norvège, Suède, du Danemark, de l’Allemagne et de la Pologne où préexistait depuis quatre ans le service de musique pour mobile WiMP (intégré ensuite dans Tidal). Misant sur la qualité « haute-fidélité sans perte » (1) pour se différencier du suédois Spotify, du français Deezer et de l’américain iTunes (Apple Music), Tidal s’étend en janvier 2015 à l’Irlande, aux Pays-Bas, à la Belgique et au Luxembourg.
C’est durant ce même mois que le rappeur et homme d’affaires américain Jay-Z (alias Shawn Carter) a acquis Aspiro. Jay-Z y voir un double avantage. D’abord, il croit au son hi-fi avec les formats Flac (2), la qualité CD (44,1 Khz), ainsi qu’en la norme japonaise Hi-Res (24 bits/192 Khz) que le français Qobuz (3) a été le premier à adopter.
Ensuite, il voit en Tidal le moyen pour les artistes de s’émanciper de Spotify et de Deezer – contrôlés par les trois majors –, afin de reprendre la main sur leurs titres et le contact avec leurs fans. D’ailleurs, sa femme Beyoncé ainsi que Madonna, Daft Punk, Rihanna, Jack White ou encore Kanye West ont été parmi une quinzaine de stars de la musique – ceux-là même qui se plaignaient d’être exploités et mal payés par les grandes plateformes de streaming – à devenir actionnaires de la plateforme aux Etats-Unis. Tidal va passer de 350.000 abonnés en septembre 2015 à 850.000 abonnés en mars 2016, d’après Dagens Næringsliv (4), bien que Jay-Z prétendait avoir 3 millions d’abonnés. La controverse à l’époque n’empêchera pas le business man-rapper, en mars 2021, de vendre à bon prix – 302 millions de dollars – 80 % de ses parts à son ami Jack Dorsey, PDG de Square – devenu Block – et cofondateur de Twitter. Car Tidal a alors franchi le million d’abonnés et vu sa valorisation multipliée par six.
Cette plus-value, tout en restant actionnaire minoritaire et membre du conseil d’administration de Block, conforte Shawn Carter (Jay-Z) comme premier milliardaire de la hip-hop, ayant aussi fait fortune dans l’alcool (5). Mais au premier semestre 2024, selon les constatations de Edition Multimédi@, Block a dû déprécier la valeur de Tidal de 15 millions de dollars, auxquels s’est ajoutée une charge de 32,2 millions de dollars (6). Tidal a rapporté à Jay-Z mais pas à Jack Dorsey. @