A propos Charles de Laubier

Rédacteur en chef de Edition Multimédi@, directeur de la publication.

« Plurimédia », M6 place le digital en première ligne

En fait. Le 2 juillet, Régis Ravanas (ex-TF1) a pris officiellement ses nouvelles fonctions de directeur général des activités audio du groupe M6 après avoir été nommé le 24 mai dernier en remplacement de Christopher Baldelli. Son patron Nicolas de Tavernost a justifié ce choix devant l’AJM le 27 juin.

Un « Euroflix » avec TF1, ProSiebenSat et… Canal+ ?

En fait. Le 3 juillet, le fils de Silvio Berlusconi – Pier Silvio, administrateur délégué du groupe de médias italien Mediaset – a mentionné TF1 comme partenaire potentiel de MediaForEurope (MFE), sa nouvelle holding néerlandaise, pour créer un « Netflix » européen. Vivendi étant actionnaire de Mediaset, avec Canal+ aussi ?

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.

Appliquer en 2020 une taxe « copie privée » sur les ordinateurs personnels est-il politiquement correct ?

La Cour des comptes a publié le 9 juin le rapport 2019 sur le contrôle des sociétés de gestion des droits d’auteur, qui suggère d’étendre la taxe « copie privée » aux disques durs internes d’ordinateurs. La commission « Musitelli » prépare le terrain avec Copie France. Mais il faudra l’aval du gouvernement.

La commission « copie privée », chargée par le code de la propriété intellectuelle (article L.311-5) de fixer les redevances perçues au titre de « la rémunération pour copie privée » lors de la vente au grand public de supports de stockage numérique, souhaite maintenant taxer les disques durs internes des ordinateurs personnels. Cette commission, présidée par Jean Musitelli (photo de gauche), vient d’engager les discussions avec ses membres – ayants droit de la culture et industriels de la high-tech.

Réunion le 25 juin et études en vue
« Afin de définir avec précision le périmètre auquel pourrait s’appliquer une décision d’assujettissement de ce type de support, il a été décidé de procéder à l’audition le 19 avril de la société GFK. Les discussions se sont poursuivies en groupe de travail les 10 et 28 mai », indique Jean Musitelli à Edition Multimédi@. Prochaine réunion : le 25 juin. GFK a présenté la segmentation des supports concernés, qu’il s’agisse des ordinateurs personnels que des disques durs vendus nus pour y être intégrés. « Les éléments apportés par GFK devront certainement être complétés par des analyses relatives à l’état du marché de ces différents produits. La commission devra alors définir sur quels segments devront porter les études d’usage afin notamment d’exclure de l’enquête les produits à usage strictement professionnel. Le souci de la commission est d’avancer rapidement avec l’objectif de lancer les études d’usage à l’horizon de la rentrée 2019. », poursuit son président.
Copie France, seul organisme en France chargé de collecter les redevances pour la rémunération de la copie privée (1), estime pour sa part qu’il est grand temps de se pencher sur les disques durs internes des ordinateurs. « Il existe aujourd’hui une urgence au regard des ordinateurs. En effet, cette famille de supports avait été laissée de côté, car la priorité était de réactualiser les autres familles de supports. La commission doit, tout d’abord, mener une réflexion sur la définition de la famille des ordinateurs (y compris les disques durs d’ordinateurs vendus nus) avant d’envisager
de lancer une étude. La meilleure façon d’amorcer le débat et d’avoir un panorama complet de ce que recouvrent les disques durs d’ordinateurs est d’inviter un institut comme GFK à venir faire une présentation sur les caractéristiques techniques », avait justifié le 22 février dernier Idzard Van der Puyl, représentant de Copie France et par ailleurs directeur général de la Société civile des producteurs de cinéma et de télévision (Procirep) et l’Agence nationale de gestion des œuvres audiovisuelles (Angoa). Maintenant que la commission « Musitelli » dispose de ce panorama complet sur les disques durs internes d’ordinateurs et les disques durs vendus nus pour être intégrés dans l’ordinateur – par opposition aux disques durs externes qui, eux, sont déjà taxés –, les discussions entre les ayants droits des industries culturelles et les représentants des fabricants et importateurs de produits high-tech peuvent commencer. Mais avant d’aller plus loin dans les négociations en vue de fixer les barèmes de rémunération, la loi exige que la commission « copie privée » fasse réaliser – auprès de TNS-Sofres ou de l’institut CSA, par exemple – une étude sur les usages que font les utilisateurs de ces ordinateurs et disques durs internes. Car il s’agit d’avoir un aperçu des impacts potentiels sur le marché, ce que la commission « copie privée » est censée prendre en compte avant de fixer ses tarifs. Quoi qu’il en soit, les échanges entre les deux mondes – culture et numérique – risquent d’être tendus comme ce fut le cas il y a une dizaine d’années pour les disques durs externes (2007), les smartphones (2008) et les tablettes (2010).
Politiquement, d’abord, la question de la taxation des ordinateurs au nom de la rémunération de la copie privée est délicate. Jusqu’à maintenant, aucun gouvernement ne s’était risqué à étendre cette redevance « copie privée » aux ordinateurs des Français. D’une part, cela n’aurait pas été populaire au regard des échéances électorales. D’autre part, cela aurait été malvenu au moment où l’on incite la population à s’équiper d’un ordinateur pour faire ses démarches administratives et pour éviter la fracture numérique.

Déjà en Allemagne, en Italie et aux Pays-Bas
De plus, un troisième risque est apparu au cours de ces dernières années : la pression fiscale sur les foyers est devenue intenable pour les Français les plus modestes, comme le rappellent les Gilets jaunes depuis trente et un samedis. Idzard Van der Puyl (Copie France) a beau affirmer que « la rémunération pour copie privée (RCP) n’est pas une taxe », en prenant appui sur la jurisprudence du Conseil d’Etat certifiant « la nature non fiscale de la RCP », le prélèvement d’un montant non négligeable sur le prix de vente lors de l’achat par les consommateurs s’apparente pour ces derniers à une taxe qui entame leur pouvoir d’achat. Et encore, contrairement à l’écotaxe par exemple, cette « copietaxe » n’apparaît pas sur les étiquettes des produits de stockage concernés par ce prélèvement. La commission « Musitelli » et Copie France font
valoir que la France ne sera pas la première à prendre en compte les disques durs d’ordinateurs, puisque, comme l’a encore affirmé Idzard Van der Puyl le 22 février,
« les ordinateurs sont assujettis à la RCP en Allemagne, en Italie et aux Pays-Bas ».

France : 4,5 milliards d’euros depuis 1986 !
Autant dire que le marché unique numérique ne brille pas par son harmonisation
dans ce domaine, alors que la Commission européenne avait promis de réformer les systèmes de redevances pour copie privée (private copy levy/levies) sur le Vieux Continent. Edition Multimédi@ a tenté de contacter Mariya Gabriel, commissaire en charge de l’Economie et de la Société numériques, sur ce point, mais n’a pas eu de réponse. La Fédération française des télécoms (FFTélécoms) reste réservée, car elle subit déjà la taxation des « box » répercutée par les FAI (2) sur leurs abonnés depuis 2012 et dont le barème est plus élevé sur l’entrée de gamme depuis le 1er juin dernier (3). Sa représentante, Alexandra Laffitte, chargée des affaires réglementaires et européennes, a demandé que GfK puisse fournir « des éléments de droit comparé
afin d’apprécier l’impact de l’assujettissement des ordinateurs à la RCP dans d’autres états », tout en soulignant que le dernier rapport de l’organisme néerlandais Stichting Thuiskopie (4) sur la redevance pour la copie privée remontre à 2014. Mais l’organisation la plus directement concernée par ces taxes est l’Alliance française des industries du numérique (Afnum), qui est issue du rapprochement en 2015 du Gitep Tics (télécoms), du Simavelec (audiovisuel) et de l’Uspii- Siped-SNSII (photographie).
Mathieu Gasquy, qui est directeur des ventes en Europe pour le numéro un mondial des fabricants de disques durs Western Digital, représente justement l’Afnum au sein de la commission « copie privée » aux côtés de la nouvelle déléguée générale de l’Afnum (depuis avril dernier), Stella Morabito que nous avons pu contacter. Ensemble, ils ne voient pas d’un très bon oeil la perspective de cette taxe sur les ventes d’ordinateurs. Avec, selon nos informations, plus de 300 millions d’euros en 2018 grâce au versement d’impayés (Canal+, Apple, …), contre 268 millions en 2017, la France
est le pays qui contribue le plus aux recettes de la copie privée en Europe et dans le monde. En dix ans (2009-2018), cette taxe lui a rapporté plus de 2 milliards d’euros et même, selon les calculs de Edition Multimédi@, plus de 4,5 milliards d’euros depuis 1986 que cette taxe « copie privée » existe ! Placée sous tutelles des ministères de la Culture, de l’Industrie et de la Consommation, la commission « copie privée » fixe les barèmes de tarifs que Copie France collectera sur le prix de vente des appareils ou supports permettant d’enregistrer des contenus numériques (DVD, clés USB, disques durs externes, smartphones, tablettes, box, magnétoscopes numériques dits nPVR, services de Cloud TV de type Molotov (5), etc.). Et cela ne va donc pas s’arrêter là, si la volonté politique décidait d’assujettir les ordinateurs à la taxe.
En publiant le 9 juin dernier le rapport 2019 de sa commission de contrôle des sociétés de gestion collective des droits d’auteur et droits voisins (6), la Cour des comptes indique que la commission de la copie privée a inscrit à son programme de travail 2019-2021 quatre création ou révision de barèmes : révision des barèmes applicables aux clés USB et cartes mémoires amovibles ; révision des barèmes applicable aux supports « historiques » (CD data, DVD data, Baladeurs MP3 et MP4 ; extension de l’assiette par l’assujettissement des disques durs internes des ordinateurs personnels (PC). Copie France, dont le gérant et secrétaire général est Charles-Henri Lonjon (photo de droite) depuis 22 ans (7) (*) (**), a estimé auprès de la commission de la Cour des comptes que cette dernière mesure « serait la seule mesure qui pourrait avoir un impact significatif sur les collectes (près de 20-25 millions d’euros si l’on applique au parc français actuel les barèmes pratiqués en Allemagne), étant entendu toutefois que les flottes de PC utilisées en entreprise ou dans un cadre professionnel feront l’objet d’une exonération de RCP assez large ». Copie France avance même un calendrier possible de mise en oeuvre : pas avant le 1er trimestre 2020, « au plus tôt », le temps que la commission « Musitelli » en débatte, fasse faire des études d’usage et d’impact, vote un barème.

La RCP dépend trop des smartphones
La commission de la Cour des comptes fait en outre état d’un problème : « La rémunération pour copie privée connaît une extrême dépendance au marché des téléphones, qui représente fin 2018 presque les deux tiers des collectes, ce mouvement ne faisant que se renforcer au fil du temps ». Les ayants droit et les magistrats de la rue Cambon s’en inquiètent d’autant plus que 25 % du produit des perceptions de la copie privée audiovisuelle et sonore vont, selon l’article L. 321-9 du CPI, subventionner les actions artistiques et culturelles du pays – dont la RCP est censée être la principale source de financement. @

Charles de Laubier

Le CSA n’est pas compétent pour mettre d’accord Radio France (Sibyle Veil) et Majelan (Mathieu Gallet)

C’est une polémique dont se serait bien passé l’ancien président de Radio France, Mathieu Gallet, pour le lancement le 4 juin de sa plateforme de podcasts Majelan. Surtout qu’il s’oppose à sa successeure à Radio France, Sibyle Veil,
vent debout contre la reprise des podcasts gratuits du groupe public.

« Contrairement aux services de VOD, les podcasts ne sont pas aujourd’hui dans le champ de la régulation audiovisuelle. Donc pas de possibilité de saisine du CSA en règlement des différends », indique Nicolas Curien, membre du CSA à Edition Multimédi@. A Mathieu Gallet (photo de gauche) qui estime pouvoir reprendre les podcasts gratuits de Radio France – déjà disponibles librement sur Internet via des flux de syndication publics dits RSS (1) – et les proposer à son tour gratuitement sur sa plateforme Majelan, Sibyle Veil (photo de droite) a fait savoir le 6 juin sur France Inter qu’elle s’y opposait.

Question d’« équité » ou de must offer ?
C’est un bras de fer engagé par la présidente de Radio France contre son prédécesseur devenu président fondateur de Majelan. « Les contenus gratuits du service public ne sont pas destinés à attirer des futurs clients sur des offres payantes,
a expliqué la présidente de la Maison Ronde. Donc, ceux qui aiment les contenus de Radio France peuvent les écouter sur l’application Radio France, sur nos sites. (…)
Ces plateformes sont en train d’utiliser nos contenus pour se faire connaître du public, c’est ça le vrai sujet ». Les hostilités, faute d’accord, se sont retrouvées sur la place publique le jour même du lancement de Majelan, le 4 juin. Le lendemain, Mathieu
Gallet lui répondait sur France Info : « Il faut regarder tout ce qui se passe sur toutes
les plateformes américaines. Il n’y en a pas beaucoup qui ont demandé une autorisation à une radio privée ou publique parce que c’est une technologie gratuite.
Ce sont des flux publics, et ce qui est gratuit partout doit être gratuit sur Majelan. C’est une histoire d’équité ». Mais le groupe de radio publique ne l’entend pas de cette oreille – c’est le cas de le dire ! Par la voix de son directeur du numérique et de la production, Laurent Frisch, la présidente de Radio France a opposé à son prédécesseur les
« conditions générales d’utilisation des sites (2) de Radio France », en mettant en garde sur Twitter le 5 juin : « Les RSS de podcasts sont une techno qui rend les contenus accessibles à tous. (…) Les pages web sont une techno qui rend les contenus accessibles à tous. Exact. Mais ça ne donne pas le droit de les reproduire librement. Cf les conditions générales d’utilisation [ndlr : https://lc.cx/CGU-RF]». Sur le respect des droits de propriété intellectuelle, il y est stipulé : « Tous les contenus présents sur les sites sont protégés par les législations françaises et internationales sur le droit de la propriété intellectuelle et/ou le droit de la presse, ainsi que les droits de la personnalité (droit à l’image). Par conséquent, l’utilisateur des sites s’engage à ce qu’aucun de ces contenus ne soit reproduit, modifié, rediffusé, traduit, exploité ou réutilisé à titre promotionnel ou commercial, de quelque manière que ce soit sans l’accord écrit préalable de Radio France et/ou des titulaires de droits concernés ». Et Laurent
Frisch d’ajouter dans un second tweet : « Google Podcasts avait pris les podcasts @radiofrance sans autorisation ; ils sont revenus en arrière. Amazon/Audible et Spotify ne l’ont pas fait. Nous choisissons, nous, ce que nous publions sur Apple Podcast,
et ce dans un cadre établi. Apple ne vient pas se servir ». Dans Les Echos du 4 juin,
le « Monsieur numérique » de Radio France se faisait un peu plus menaçant : « Nous leur avons demandé le retrait immédiat de nos podcasts et attendons leur réponse, nous aviserons en fonction ». Mais la Maison Ronde est-elle disposée à négocier et
à donner son autorisation à la reprise gratuite par des plateformes de podcasts telles que Majelan, Tootak ou encore Sybel (3) ? D’après ces trois start-up de l’audio, les négociations sont soit au point mort, soit dans l’impasse, soit sans lendemain. Reste
à savoir si le groupe public de radios financé par les Français via la redevance audiovisuelle peut s’opposer à toute reprise de ces contenus gratuits par des plateformes numériques qui les proposent gratuitement à leur tour. C’est la question
du must offer qui s’impose à l’audiovisuel public, jusque sur la TNT par exemple.

« Média ouvert » : manifeste du 10 juin 2019
« Le CSA a exprimé le vœu (4) que cette asymétrie réglementaire entre le non-linéaire visio et le non-linéaire audio soit corrigée dans la future loi audiovisuelle. S’agissant
du must offer, il ne peut s’appliquer à ma connaissance qu’entre un éditeur et un distributeur », nous précise Nicolas Curien. Pour l’heure, aucune plateforme à qui
Radio France a demandé le retrait de ses podcasts n’a obtempéré. Par ailleurs, des producteurs indépendants de podcasts ont mis en ligne le 10 juin un manifeste (5)
pour « un écosystème ouvert du média podcast » mais opposé « à toute intégration automatique, sans accord préalable, de nos contenus sur une plateforme ». C’est la bataille des oreilles… @

Charles de Laubier