Couverture des zones blanches (non-rentables) : faut-il aller vers un deuxième « New Deal Mobile » ?

Le « New Deal Mobile » était la promesse des opérateurs mobiles – faite il y a quatre ans au gouvernement – d’une « 4G pour tous » au 31 décembre… 2020. Mais des zones blanches ont persisté au-delà de cette échéance. A fin 2021, « 98 % des sites mobiles sont en 4G ». Et les 2 % restants ?

Y aura-t-il un deuxième « New Deal Mobile » pour ne pas laisser les 2 % des sites mobiles dépourvus de 4G et des milliers de centres-bourgs toujours en zone blanche ? Lorsqu’elle était encore députée, Laure de La Raudière (photo) avait suggéré « un deuxième New Deal Mobile ». Certes, c’était treize mois avant de devenir présidente de l’Arcep. La députée d’Eure-et-Loir avait à l’époque – mais il n’y a pas si longtemps que cela – émis cette éventualité au regard du désaccord qu’elle avait avec le président fondateur de Free (Iliad), Xavier Niel, qu’elle auditionnait le 17 novembre 2020 à l’Assemblée nationale en commission (1) – sur la couverture mobile des territoires jusque dans les zones blanches non-rentables.

Du donnant-donnant à 3 milliards d’euros
En janvier 2018, il y a quatre ans maintenant, l’Arcep et le gouvernement annonçaient des engagements des opérateurs télécoms pour accélérer la couverture mobile des territoires qui à l’époque laissait à désirer. Bouygues Telecom, Free, Orange et SFR s’étaient ainsi engagés à investir plus de 3 milliards d’euros dans les « zones rurales ». En échange de quoi, l’Etat a renoncé à leur faire payer pas moins de 3 milliards d’euros de redevance pour leurs fréquences 4G – dans les bandes 900 Mhz, 1800 Mhz (sauf Free) et 2,1 Ghz – dont les autorisations d’exploitation leur ont été renouvelées pour dix ans supplémentaires. En effet, les autorisations de leurs réseaux mobiles 2G, 3G et 4G arrivaient à échéance, dès 2021 pour certaines et d’ici à 2024 pour d’autres. Globalement, les opérateurs mobiles ont obtenu « visibilité et stabilité jusqu’en 2030 » sur leurs fréquences.
Les engagements de couverture mobile sans précédents avaient, eux, été dans la foulée retranscrits dans leurs licences actuelles afin de les rendre juridiquement opposables – autrement dit pour permettre à des élus ou à des utilisateurs d’attaquer en justice les opérateurs mobiles en cas de non-connexion 4G. De plus, ces engagements sont contraignants et peuvent donner lieu à des sanctions de la part de l’Arcep (2). Ce fameux New Deal Mobil en faveur de l’aménagement numérique des territoires consiste à apporter la 4G tant attendue dans les zones rurales, synonymes de « zones blanches », qui n’ont aucune couverture mobile et encore moins de 4G. Il y a quatre ans, cela concernait tout de même plus de 1 million de Français sur 10.000 communes privés de mobile haut débit. A cette fracture numérique s’ajoutaient les principaux axes routiers et ferroviaires, sur lesquels il était impossible d’« avoir du réseau ».
Mais cet accord politique donnant-donnant avait accordé jusqu’à 2026 aux quatre opérateurs mobiles pour parachever pleinement le déploiement de la totalité des 5.000 nouveaux sites mobiles, à raison de 600 à 800 sites par an. Avant d’en arriver là, Bouygues Telecom, Free, Orange et SFR s’étaient engagés à couvrir 75 % des centres-bourgs en 4G au 31 décembre 2020 – sur un total de près de 5.000 et symboles de la fracture numérique en France. Mais ce taux n’a pas été atteint à cette première échéance (3), en raison du ralentissement des déploiements dû aux restrictions sanitaires et confinements de cette année 2020.
Ce retard avait déclenché des escarmouches entre l’ancien président de l’Arcep, Sébastien Soriano, et celui qui était déjà président de la Fédération française des télécoms (FFTélécoms), Arthur Dreyfuss (4). En avril 2020, le gendarme des télécoms appelait les opérateurs mobiles à ne pas prendre prétexte du confinement pour ne pas être « au rendez-vous de leur responsabilité » vis-à-vis du New Deal Mobile et du Plan Très haut débit. Une mise en garde qui avait fait perdre son sang-froid au secrétaire général de SFR (5) (*) (**). D’après l’Arcep, cette cible des 75 % du programme dit « zones blanches centres-bourgs » (ZBCB) n’a pas été atteinte fin 2020 comme cela était prévu mais seulement mi-2021. Les quatre opérateurs mobiles sous pression se sont ensuite engagés à couvrir les 25 % restants de ces centres-bourgs en zones blanches avant le 31 décembre 2022. Le compte à rebours a commencé.

Un « bilan en demi-teinte » (Sénat)
Autrement dit, pour la nouvelle année, la « 4G pour tous » (4G mobile voire 4G fixe) est encore un vœu pieux – alors que la 5G profite déjà à quelques-uns (1,6 million d’abonné au 30 septembre dernier) et que les équipementiers télécoms travaillent déjà sur la 6G… La densification du réseau 4G traîne en longueur, malgré des avancées certaines. Et ce, alors que depuis deux ans les Français ont été contraints par la crise sanitaire de faire du télétravail voire de la visioconférence. Les zones blanches sont devenues des points noirs. Et l’étude « Quel débit » publiée le 27 janvier par UFC-Que Choisir fustige le « mauvais haut débit » dans les zones rurales dont sont pénalisés 32 % des consommateurs (6). « Bilan en demi-teinte » a pointé le Sénat en novembre dernier lors de l’examen du volet « Cohésion des territoires » du projet de loi de finances (PLF) pour 2022 : « des progrès à confirmer dans la réduction de la fracture numérique » ; « un bilan en demi-teinte qui impose la poursuite des efforts pour résorber les zones blanches ».

La « 4G pour tous », mais pas pour tous
Pour la commission sénatoriale de l’aménagement du territoire et du développement durable, le compte n’y est pas malgré le dynamisme constaté des déploiements dans le cadre de ce New Deal Mobile : « S’agissant du programme de couverture ciblée, environ 3.000 sites ont d’ores et déjà été identifiés par arrêté [plusieurs arrêtés de 2018 à 2021, ndlr] depuis le lancement du New Deal. (…) Les retards induits en 2020 par le premier confinement ne semblent pas s’être résorbés : malgré des améliorations (…). Sur la totalité des arrêtés, à la date du 30 juin 2021, 830 sites de couverture ciblée étaient en service » (7).
Selon un bilan publié le 14 janvier dernier par la FFTélécoms et arrêté au 31 décembre cette fois, les 1.115 sites en service ont été atteints sur ce dispositif de couverture ciblée (8). Quant aux zones blanches dites ZBCB, dont il restait encore 25 % à couvrir d’ici la fin de cette année, elles seront scrutées de près par les sénateurs garants de l’aménagement numérique des territoires. « le New Deal Mobile est une réalité tangible dans les territoires » avec « 98 % des sites des opérateurs convertis en 4G », affirme la FFTélécoms :
• L’objectif de « généraliser la 4G sur l’ensemble des sites en propre des opérateurs avant fin 2020 » a été atteint.
• L’objectif de « généraliser la 4G sur les sites multi opérateurs issus des anciens programmes zones blanches [centres-bourgs] d’ici fin 2022 » est atteint à 89 %.
• L’objectif de « couverture de 5.000 nouvelles zones par opérateur identifiées par les élus de terrain d’ici fin 2027 » atteint à ce stade 1.115 nouveaux pylônes 4G multi opérateurs.
• L’objectif de « généraliser la 4G le long des axes routiers prioritaires », initialement prévu à fin 2020, est atteint entre 99,6 % et 99,8 %. Sur ce dernier point, tous les axes routiers dits prioritaires de l’Hexagone comprennent 55.000 kilomètres de routes, dont 11.000 km d’autoroutes et 44.000 km d’axes routiers principaux reliant, au sein de chaque département, le chef-lieu de département (préfecture) aux chefs-lieux d’arrondissements (sous-préfectures), et les tronçons de routes sur lesquels circulent en moyenne annuelle au moins cinq mille véhicules par jour. « Les opérateurs sont tenus de couvrir les axes routiers prioritaires en 4G, à l’extérieur des véhicules d’ici fin 2020, et à l’intérieur des véhicules d’ici 2022 ou 2025. Selon l’Arcep, plus de 99 % des axes routiers prioritaires seraient couverts en très haut débit mobile. Les opérateurs devront aussi couvrir 90 % des lignes ferroviaires du réseau ferré régional d’ici fin 2025 », ont rappelé les sénateurs, toujours dans le cadre du PLF 2022.
Ils ont en outre constaté que la 4G fixe peine, elle, à se déployer. Ces services d’accès fixe à Internet sur les réseaux mobiles 4G sont une alternative à la connexion filaire dans les zones où les débits fixes ne sont pas suffisants. Le New Deal Mobile prévoit en effet, d’une part, une obligation pour les quatre opérateurs mobiles de proposer des offres de 4G fixe (obligation que Free a tardé à respecter), et, d’autre part, un engagement de ces mêmes opérateurs à créer des sites de 4G fixe dans des zones identifiées par le gouvernement via des arrêtés (9). « Au total, 510 sites identifiés par arrêté doivent être mis en service par Orange et SFR d’ici fin 2021. Sur ces 510 sites, seuls 75 étaient en service à la date du 30 juin 2021, selon l’Arcep », ont regretté les sénateurs en novembre. Dans sa communication « New Deal Mobile », la FFTélécoms n’en dit mot. De son côté, dans son rapport « Réduire la fracture numérique mobile : le pari du New Deal 4G » publié en juin 2021, la Cour des comptes appelait à mettre en place « un véritable suivi des sites de 4G fixe existants ».

Vers un « New Deal Mobile » 5G ?
Les collectivités territoriales, les consommateurs ou tous ceux qui veulent connaître la couverture mobile réactualisée peuvent accéder à trois sites web du gendarme des télécoms : Arcep.fr, où se trouve (10) le « tableau de bord du New Deal Mobile » (prochaine mise à jour le 31 mars prochain) ; Monreseaumobile.arcep.fr, un outil cartographique permettant de « comparer les opérateurs mobiles » (couverture simulée et qualité de service) ; Jalertelarcep.fr, une plateforme permettant à chaque utilisateur d’« être un acteur de la régulation » (mais pas de réponse individuelle aux alertes). Reste à savoir si la 5G aura à son tour son « New Deal Mobile » : ne serait-ce que pour permettre aux territoires les plus reculés d’avoir du vrai très haut débit à l’ère du télétravail imposé en temps de crise sanitaire. @

Charles de Laubier

L’intelligence artificielle s’immisce dans l’industrie du livre, assise sur un tas d’or : ses données

La 22e édition des Assises du livre numérique, organisées le 6 décembre par le Syndicat national de l’édition (SNE), a pour thème « l’application de l’intelligence artificielle (IA) dans l’édition de livres ». Avec comme « invité inaugural » : Tom Lebrun, co-auteur en 2020 d’un livre blanc sur l’IA.

Ce n’est pas la première fois que les Assises du livre numérique (1) traitent de la question de l’intelligence artificielle (IA) dans l’industrie du livre. Déjà en 2017, lors de l’édition de 2017, une table-ronde avait été consacrés à ce sujet et avait fait l’objet d’une synthèse (2). Celle-ci relevait plus d’un défrichage de la part de la commission numérique que préside depuis plus de sept ans Virginie Clayssen (photo) au sein du Syndicat national de l’édition (SNE), elle-même étant par ailleurs directrice du patrimoine et de la numérisation chez Editis (groupe Vivendi).

Apprivoiser les data de l’IA
Quatre ans après cette table-ronde, le SNE muscle son approche de l’IA en lui consacrant pour la première fois – le 6 décembre pour cette 22e édition et « uniquement en distanciel » – la totalité du programme de ses Assises du livre numérique. « Comment l’intelligence artificielle peut-elle intervenir dans les différentes étapes de la chaîne du livre, de la traduction à la diffusion en passant par la fabrication ? », s’interrogent l’industrie du livre. Un invité inaugural de cette journée doit répondre à la question plus sensible : « Comment l’intelligence artificielle peut-elle transformer le monde de l’édition ? ». Cet intervenant est Tom Lebrun (photo page suivante), juriste et doctorant à l’université Laval (UL), au Québec (Canada), spécialiste en droit et intelligence artificielle, ainsi que co-auteur avec René Audet du livre blanc « L’intelligence artificielle dans le monde de l’édition » publié en septembre 2020 sous licence libre creative commons (3). Tom Lebrun est spécialisé en droit du numérique et en droit d’auteur. Ses travaux de recherche portent actuellement sur la question de « la génération de textes par intelligence artificielle ». Il publie régulièrement sur les questions de droit d’auteur, de culture numérique et de rapport entre droit et IA. Ses recherches sont financées par un fonds québécois (4). « L’intelligence artificielle fait l’objet de fantasmes et de craintes souvent irraisonnées. Elle trouve à s’insérer dans toutes les sphères de notre société : consommation, médecine, industrie, vie quotidienne, … Pourtant, encore peu de travaux ont été consacrés à sa mobilisation par les différents acteurs de l’écosystème du livre. Ce manque est d’autant plus critique que les grands acteurs du numérique – Amazon en tête – s’engouffrent très largement dans cette voie depuis un certain nombre d’années », font justement remarquer Tom Lebrun et René Audet dans l’introduction de leur livre blanc d’une trentaine de pages et mis en ligne gratuitement (5). Contacté par Edition Multimédi@, Tom Lebrun indique que depuis sa parution il y a un an, « les différences sont mineures et strictement quantitatives ». Et aujourd’hui, « les systèmes sont simplement plus performants et plus convaincants ». Les deux auteurs relèvent que le monde de l’édition – habitué jusqu’alors à la « rétroaction entre ses différents acteurs (le libraire informant le diffuseur, ce dernier informant l’éditeur, etc.) » – évolue désormais dans « un contexte de pressurisation économique croissante provoquée par la mainmise de quelques acteurs de la vente en ligne, particulièrement Amazon ». Aussi, la raison d’être de ce livre blanc est d’esquisser pour l’écosystème du livre « une possible piste à suivre », à savoir « l’idée d’une concertation de certains de ses acteurs sur l’utilisation d’IA (voire l’éventuelle mise en commun des données collectées) ». Dans leur conclusion, les deux auteurs québécois appellent toute la filière du livre (maisons d’édition, distributeurs, librairies, plateformes, …) à investir dans les technologies IA si elle n’a pas déjà commencé à le faire car « face à cette concurrence [des acteurs comme Amazon], chacun des acteurs de la chaîne du livre doit se demander comment faire face à ce mouvement de fond, qui s’apprête à modifier en profondeur de nombreux métiers du livre ». Le mieux pour l’introduction d’IA dans les différents maillons de la chaîne est, d’après eux, d’exploiter les différentes « données déjà disponibles et que ne possède pas la concurrence, quitte à nouer des accords asymétriques entre les différents acteurs intéressés pour y accéder ».

La chaîne du livre impactée
D’autant que ces données existent – statistiques centralisées des distributeurs, données des éditeurs ou encore celles collectées par les bibliothèques et les libraires – et sont des actifs précieux que tous les acteurs du milieu du livre possèdent, en particulier dans les bibliothèques, car « diversifier ses ressources en données peut constituer une stratégie payante ». Ces data constituent en tant que telles des ressources stratégiques considérables. Cela suppose que les maisons d’édition et l’ensemble des acteurs qui gravitent autour d’elles se mettent à « récolter » de façon optimale la data du livre, y compris les données qui ne sont pas « moissonnées » car, rappellent les auteurs du livre blanc de l’Université Laval, « le fonctionnement des applications d’IA [est] lié au volume et à la qualité des données disponibles ». Le succès des solutions d’IA dépendra surtout de la compatibilité des données entre elles. Pour ce faire, les auteurs recommandent d’« établir un protocole de normalisation des données en accord avec tous les acteurs concernés est un préalable nécessaire, sur lequel les pouvoirs publics ont un rôle à jouer ».

L’IA se met à écrire livres et articles !
Encore faut-il « catégoriser et étiqueter les données en fonction des objectifs visés », sans quoi, préviennent-ils, « les données collectées sont à peu près inutiles sans cette étape fondamentale de préparation des données ». Cela passe aussi par des chantiers communs entre des acteurs de la filière du livre, y compris avec des plateformes numériques, ainsi que par la mobilisation d’institutions et d’acteurs gouvernementaux pour contribuer au financement du développement de prototypes ou d’éléments logiciels partagés.« La mise en commun de données appelle une concertation, notamment dans le développement de ressources logicielles (aussi rendu possible par la création d’un cadre réglementaire favorable) », est-il souligné. Mais qui dit data dit cyberattaque : la cybersécurité des données « livrées » va devenir primordiale pour l’industrie du livre jusqu’alors épargnée par sa matière première historique qu’est le papier. La dématérialisation des ouvrages en tout genre fait basculer les maisons d’édition, parfois centenaires, dans le nuage informatique et ses fléaux.
Même si le livre blanc n’aborde pas le sujet du nuage informatique liés à l’IA, le cloud va pourtant permettre à l’industrie du livre de créer elle aussi des « lacs de données », des « Data Lake », à savoir le stockage des données dans leurs formats originaux ou peu modifiés, et à partir duquel leur analyse et leur valorisation peuvent s’opérer sous plusieurs formes révolutionnaires pour l’édition : data mining, text and data mining, marchine learning, business intelligence, cognitive search, master data management, etc. Encore fautil que l’industrie du livre sache ce qu’elle veut faire de cet « or noir du XXIe siècle » : des algorithmes de recommandation de livres ? de la traduction automatique d’ouvrage pour l’international (comme avec DeepL, l’IA utilisée par l’éditeur scientifique Springer) ? de l’animation de robots conversationnels (chatbots) pour interagir avec les lecteurs à la place de l’auteur et/ou de l’éditeur ? des réseaux de neurones artificiels afin par exemple de connaître les lecteurs d’un livre ? de la fouille intelligente de textes numérisés ? ou encore de la génération de romans ou d’essais à l’aide d’une IA créative ? Sur cette dernière possibilité, le juriste Tom Lebrun travaille justement en ce moment sur la question de la génération de textes par intelligence artificielle. « Au-delà du fantasme, beaucoup d’outils actuels permettent déjà d’écrire », écrit-il dans le livre blanc. La maîtrise du langage naturel – « et donc de l’écriture » – ne relève plus de la science-fiction. Et le livre blanc de mentionner la société OpenAI qui, cofondée par le milliardaire sud-africano-canadoaméricain Elon Musk il y a six ans, a développé en 2019 une IA nommée « GPT-2 » – devenue le 18 novembre dernier « GPT-3 » (6) – et capable de générer des textes de fiction ou de journalisme. Si la bêta 2 donnait des résultats « à peu près crédibles pour une lecture rapide et superficielle », la bêta 3 devrait avoir appris de ses erreurs. Et du livre à la presse, il n’y a qu’un pas : « L’écriture générée par IA est également utilisée dans le journalisme. Environ un tiers des dépêches publiées par [l’agence de presse] Bloomberg est ainsi générée par des machines », affirment les auteurs. Tom Lebrun signale à EM@ un modèle de génération de texte francophone développé par la société suisse Coteries et appelé Cedille, en version bêta (7). Le livre blanc aurait pu évoquer Dreamwriter, un algorithme conçu par le chinois Tencent, qui avait même écrit un article financier reproduit ensuite sans autorisation par un tiers. Un tribunal de Shenzhen en Chine avait reconnu fin 2019 et pour la première fois que Dreamwriter pouvait bénéficier de la protection du droit d’auteur (8). « L’IA pourrait conduire à développer des assistants créatifs personnifiés, de façon à aider à écrire ou même de dessiner “à la manière” d’un auteur, par exemple », estiment Tom Lebrun et René Audet. Tout au long de la vie d’un livre, de son écriture à sa lecture en passant par son édition, l’intelligence artificielle est amenée à y mettre son grain de sel, voire plus si affinités. Dans son roman « Exemplaire de démonstration » (Fayard, 2002), son auteur Philippe Vasset imaginait Scriptgenerator, un logiciel rédacteur de best-sellers, personnalisable par l’éditeur en fonction d’un public lecteur cible (9).

Encore beaucoup de progrès à faire
« Le risque d’une écriture entièrement algorithmisée existe bel et bien, mais pas exactement de la manière dont on l’imagine. Les auteurs de nouvelles strictement informatives, de récits tenant du divertissement, ont peutêtre effectivement du souci à se faire », ont déjà prévenu Tom Lebrun et René Audet dans une interview accordée en octobre 2020 à la Faculté des lettres et des sciences humaines (FLSH). Mais d’ajouter : « A l’inverse, celles et ceux qui pratiquent du journalisme d’investigation, celles et ceux qui travaillent à un art littéraire (…), en bref, toutes celles et ceux qui proposent un rapport critique et construit au texte, celles et ceux-là entrent dans une catégorie de production textuelle que la machine a encore du mal à investir » (10). Ouf ! @

Charles de Laubier

27 millions de prises FTTH, moitié moins d’abonnés

En fait. Le 9 septembre, l’Arcep a publié les chiffres au 31 juin du haut et très haut débit en France : même si « la fibre pour tous » n’est plus pour 2022 mais reportée à 2025, le taux d’abonnés aux prises FTTH (Fiber-to-the-Home) déployées ne dépasse pas encore les 50 % (45,9 % à fin juin).

Sortie des films en France : la chronologie des médias actuelle vit ses dernières semaines

Le 1er juillet, les organisations du cinéma français – le Blic, le Bloc et l’ARP (BBA) – ont proposé une nouvelle évolution de la chronologie des médias (organisant la sortie des films en salles, en VOD/SVOD et à la télévision). Elle fait suite à celle soumise par le CNC le 14 juin. L’été sera chaud…

Depuis le début de l’année, ce n’est pas moins de quatre propositions d’accord sur la chronologie des médias qui se sont succédées sans encore parvenir à faire consensus entre – au-delà des salles de cinéma arc-boutées sur leur monopole des quatre premiers mois de la sortie d’un film – les chaînes de télévision payantes (Canal+, OCS, …), les télévisions gratuites (France 2, TF1, M6, …) et les plateformes de vidéo à la demande par abonnement (Netflix, Amazon Prime Video, …).

Fin de l’été : l’ultimatum du gouvernement
Le 10 juillet dernier, au Festival de Cannes, la ministre de la Culture, Roselyne Bachelot (photo), a accordé du temps supplémentaire aux professionnels de la filière du cinéma français pour qu’ils se mettent d’accord sur une nouvelle chronologie des médias. Sinon, « le gouvernement tranchera à la fin de l’été » (1).
Pour l’heure, la vidéo à demande à l’acte (Videofutur/ Viva, FilmoTV, VOD d’Orange, …) doit continuer, elle, à attendre les quatre premiers mois après la sortie d’un film pour pouvoir le proposer. C’est l’éternel statut quo sur le monopole des salles de cinéma que défend becs et ongles depuis des années l’influente Fédération nationale des cinémas français (FNCF). D’autant que le point de départ de la chronologie des médias est la date de sortie du film en salles. A noter qu’en France, si un film agréé par le CNC est mis en ligne directement sur une plateforme vidéo, il n’a plus le droit de sortir dans les salles obscures. Ces quatre mois semblent gravés pour toujours dans le marbre du code du cinéma et de l’image animée (2), alors même que les usages numériques se sont généralisés. Il y a bien une dérogation possible à trois mois, mais elle est rarement demandée car la condition fixée par décret est très restrictive : actuellement, le film doit avoir réalisé 100.000 entrées au plus – en général moins – à l’issue de sa quatrième semaine d’exploitation en « salles de spectacles cinématographiques » (3).
Au-delà de ce monopole « obscure », un bras de fer s’exerce sur la fenêtre de diffusion suivante entre « Canal+ » et « Netflix », comprenez entre les chaînes payantes, au premier rang desquelles la chaîne cryptée du groupe Vivendi (qui fut la grande pourvoyeuse de fonds du cinéma français), et les plateformes de SVOD telles que Netflix, Amazon Prime Video ou encore Disney+. Et ce, lorsqu’il y a de leur part (pré)financement du film avec minimum garanti et engagement de diffusion. Dans sa proposition datée du 14 juin, le CNC entend ménager Canal+ sur la première fenêtre de la TV payant, en lui concédant « un délai inférieur au délai de huit mois [en cas d’] accord conclu avec les organisations professionnelles du cinéma [français] » (huit mois sans accord), et en reléguant ses rivaux « Netflix » à douze mois après la sortie d’un film en salle (quatorze mois sans accord). Alors que dans leur contreproposition datée du 1er juillet, les organisations du cinéma français – que sont le Blic (Bureau de liaisons des industries du cinéma), le Bloc (Bureau de liaison des organisations du cinéma) et l’ARP (société civile des Auteurs, Réalisateurs, Producteurs), surnommées ensemble le « BBA » – veulent aligner la TV payant (Canal+) et la SVOD (Netflix et les autres plateformes par abonnement) sur la même fenêtre à six mois après la sortie du film en salle. Là où Canal+ exige que sa fenêtre d’exclusivité coure sur une durée de neuf mois avant que les plateformes de SVOD ne puissent prétendre proposer à leur tour le nouveau film, le CNC limite cette durée d’exclusivité des droits à six mois (ou un peu plus si accord). Et ce, pour en tout cas permettre aux plateformes de SVOD – celles contribuant financièrement à l’oeuvre – de démarrer à douze mois après la sortie du film en salle.

Le « BBA » veut aligner Canal+ et Netflix
Tandis que le BBA, lui, veut mettre Canal+ et les « Netflix » sur la même ligne de départ en cas d’accord de financement du film, soit à six mois après la sortie du film en salle. Cette avancée spectaculaire de la SVOD dans la chronologie des médias (actuellement à trente mois en cas d’accord, sinon à trente-six mois) n’est bien sûr pas du goût de Canal+ qui se retrouverait ainsi en concurrence frontale avec les plateformes vidéo par abonnement. Les Netflix, Amazon Prime Video et autres AppleTV+ sont légitimes à demander un meilleur traitement en France depuis qu’ils ont – après la promulgation du décret « SMAd » le 23 juin dernier (4) – l’obligation à compter du 1er juillet de participer au financement du cinéma français. Netflix, que le Festival de Cannes n’a pas voulu voir car, selon lui, non conforme à ses règles, négocie avec les professionnels du 7e Art français un accord sur un certain nombre de films qu’il financera. C’est cette bataille déjà engagée, entre l’opérateur historique du cinéma français affaibli et les nouveaux entrants dynamiques de l’audiovisuel, qui était dans toutes les conversations des professionnels lors du 74e Festival de Cannes, du 6 au 17 juillet derniers. Le gouvernement, et sa ministre de la Culture en tête, n’ont pas réussi à trouver un accord sur cette sacro-sainte chronologie des médias pour l’annoncer avec champagne aux festivaliers sur la Croisette (notamment à ceux du Marché du Film organisé en parallèle), et à l’occasion du déplacement de Roselyne Bachelot sur le tapis rouge.

Le glas de l’influence de Canal+
Ce nouvel échec à trouver un consensus sur la chronologie des médias sonne le glas de l’influence de Canal+ sur le cinéma français. Le vent a tourné et la France ne peut pas continuer à favoriser un acteur, aussi encore influent soit-il, au détriment des arrivants, au risque de se faire épingler par la Commission européenne. Et sur le monopole des salles, personne ne trouve rien à redire… @

Piratage : l’amende de 350 € vraiment écartée ?

En fait. Le 13 juillet, à l’Assemblée nationale, se tiendra la deuxième séance publique sur le projet de loi « Régulation et protection de l’accès aux œuvres culturelles à l’ère numérique ». Une commission mixte paritaire présentera son rapport. Le Sénat renoncera-t-il définitivement à l’amende de 350 euros pour piratage ?