Où en est le serpent de mer de la TVA dans le marché unique numérique de l’Union européenne

Près d’un an après avoir présenté sa stratégie numérique, la Commission européenne propose une réforme de la TVA pour l’adapter à l’économie numérique. Censée appliquer le principe du « pays de consommation »,
l’Europe doit encore parvenir à l’harmonisation fiscale.

« Le système de TVA n’a pas été en mesure de s’adapter aux défis de l’économie mondialisée, numérique et mobile telle qu’elle se présente aujourd’hui. Le système de TVA en vigueur,
qui devait être un système transitoire, est fragmenté, complexe pour le nombre croissant d’entreprises exerçant des activités transfrontières et il laisse la porte ouverte à la fraude ». Tel est le constat accablant que fait aujourd’hui la Commission européenne, malgré ses appels incessants depuis des années à une réforme du système de TVA remis en question par Internet.

Dumping et patchwork fiscaux
Et pour cause : les règles européenne sur la TVA ont été conçues il y a plus de vingt ans et selon le principe du « pays d’origine », à savoir que la taxe sur la valeur ajoutée (TVA) était perçue par l’Etat du pays où était implanté le siège de l’entreprise fournissant le bien ou le service. Ce qui a engendré les pratiques de dumping fiscal et de distorsion de concurrence – pour ne pas dire déloyales – au sein de l’Union européenne. Ce fut particulièrement vrai dans les télécoms, l’audiovisuel et le commerce électronique sur Internet. Certaines plateformes numériques telles que Amazon, iTunes d’Apple ou Netflix au Luxembourg, ainsi que Google ou encore Apple en Irlande, en ont profité pour tirer avantages du patchwork fiscal européen grâce à
une TVA moins élevée dans ces pays que pour les autres prestataires basés, eux,
dans des pays fiscalement moins avantageux comme la France.
Mais depuis, la TVA a évolué vers un système de plus en plus fondé sur le principe
du « pays de destination ». C’est ainsi que la directive européenne du 12 février 2008
a substitué à la règle du pays d’origine celle du pays du consommateur. Elle est applicable depuis 1er janvier 2015 mais comporte une période transitoire : « Certaines modifications concernant le lieu des prestations des services pourraient avoir un impact sur le budget des États membres. Afin d’assurer une bonne transition, ces modifications devraient s’étaler dans le temps », est-il en effet précisé discrètement dans cette directive (1). Résultat : sur le marché unique numérique naissant, l’Etat du prestataire conservera 30 % des recettes de TVA jusqu’au 31 décembre 2016 et 15 % jusqu’au 31 décembre 2018. Ce n’est qu’à partir du 1er janvier 2019 que l’Etat du consommateur percevra l’intégralité des recettes. Il aurait été souhaitable de raccourcir cet échelonnement progressif de l’application de cette règle du lieu de consommation dans le budget de chaque Etat. Mais ces délais avait été obtenus fin 2007 à la demande du… Luxembourg – par Jean-Claude Juncker lui-même (photo de gauche), qui était alors à la fois Premier ministre et ministre des Finances du Grand-Duché, avant de devenir… président de la Commission européenne en novembre 2014.
Quoi qu’il en soit, les règles en matière de taux de TVA n’ont jamais été modifiées et mises en adéquation avec cette logique du pays de consommation qui permet une
plus grande diversité des taux. « Contrairement à ce qui se passait dans le cadre du système fondé sur l’origine [le principe du pays d’origine où est implanté l’entreprise vendeuse, ndlr], les fournisseurs et prestataires établis dans un Etat membre à bas taux ne retirent pas d’avantages significatifs de cette situation, de sorte que les différences de taux de TVA sont moins susceptibles de perturber le fonctionnement du marché unique », souligne la Commission européenne dans son plan d’action sur la TVA publié le 7 avril dernier (2).

La directive « TVA » est obsolète
En conséquence, si – grâce au principe du pays de consommation – la diversité des taux en Europe ne pause plus de problème de distorsion de concurrence entre les vingt-huit pays européens, il est donc envisagé de redonner aux Etats membres le pouvoir de fixer eux-mêmes les TVA à taux réduits ou nuls – conformément au principe de subsidiarité. « Les règles actuelles font que les Etats membres se heurtent à un processus lent et difficile pour étendre l’application de taux réduits à de nouveaux domaines, étant donné que toutes les décisions doivent être prises à l’unanimité.
En conséquence, la directive TVA devient obsolète, par exemple en ce qui concerne
les produits bénéficiant d’avancées technologiques ». À ce jour, la Commission européenne a dû ouvrir plus d’une quarantaine de procédures d’infraction à l’encontre de plus des deux tiers des Etats membres.

Le livre et la presse en question
La France est en première ligne : elle a été condamnée il y a un an par la Cour de Justice de l’Union européenne (CJUE) pour avoir appliqué à tort depuis avril 2012 la TVA réduite (5,5 %) sur les livres numériques afin de l’aligner sur celle de l’édition papier (3). La France est également dans le collimateur de la justice européenne pour avoir, en février 2014, aligné le taux de TVA de la presse en ligne sur celui de la presse imprimée pour sortir de l’ambiguïté (4).
Ironie de l’histoire : cette loi française qui étend le super taux de TVA réduite à 2,10 %, dont bénéficie la presse papier, à la presse numérique a été cosignée (5) par le ministre de l’Economie et des Finances de l’époque, Pierre Moscovici (photo de droite). Celui-ci est depuis novembre 2014 commissaire européen en charge, entre autre (6), de la Fiscalité…
« Le système en vigueur a du mal à s’adapter aux modèles commerciaux innovants et aux progrès technologiques dans l’environnement numérique actuel. La différence de taux de TVA entre les biens et services physiques et numériques ne tient pas pleinement compte des réalités actuelles. (…) Les règles actuelles ne tiennent pas pleinement compte de l’évolution technologique et économique. C’est par exemple le cas pour les livres et les journaux électroniques, qui ne peuvent pas bénéficier des taux réduits applicables aux publications papiers », reconnaît tout de même la Commission de Jean-Claude Juncker.

C’est pour éviter l’accumulation de litiges contreproductifs et adapter le système de TVA à l’économie numérique, que la Commission européenne voudrait en finir avec ce centralisme sur la fixation des taux de TVA « à l’unanimité » – quitte à prendre le risque d’une érosion des recettes de TVA, dans la mesure où de nouveaux secteurs économiques revendiqueront à leur tour un traitement fiscal plus favorable, et de nouvelles distorsions de concurrence. La taxe sur la valeur ajoutée rapporte aux Vingt-huit un total cumulé de 1.000 milliards d’euros par an !
Pour l’heure, le taux normal de TVA varie de 15 % à 27 % dans l’Union européenne. Une liste des biens et services pouvant bénéficier de l’application d’un taux réduit est fixée au niveau communautaire. La proposition législative, que présentera formellement à la fin de l’année 2016 la Commission européenne, est de supprimer cette liste centralisée qui manque de souplesse, et de redonner la main aux Etats membres pour fixer leurs taux de TVA, tout en veillant néanmoins à ce qu’il n’y ait pas de concurrence fiscale déloyale et en garantissant la sécurité juridique. Le nombre total de taux réduits autorisés par chaque pays européen pourrait être limité.
Parallèlement, il s’agit de lever les obstacles liés à la TVA qui entravent le e-commerce au sein du marché unique européen. « Le système de TVA actuellement applicable au commerce électronique transfrontière est complexe et onéreux à la fois pour les Etats membres et les entreprises. Les coûts moyens annuels de la livraison de biens dans
un autre pays de l’Union sont estimés à 8.000 euros [pour une entreprise] », indique la Commission européenne sur la base d’une étude en cours sur les obstacles liés à la TVA entravant le commerce électronique transfrontalier. « Le commerce électronique, l’économie collaborative et les autres nouvelles formes d’activités économiques constituent à la fois un défi et une occasion en matière de perception de la taxe », ajoute-t-elle.
L’exécutif européen présentera « au plus tard à la fin de 2016 » une proposition législative pour moderniser et simplifier la TVA pour le commerce électronique transfrontière : extension du guichet unique aux ventes en ligne de biens matériels, mesure de simplification pour aider les petites start-up de e-commerce, autorisation
des contrôles dans le pays d’origine, y compris des entreprises transfrontières, …

Guichet unique e-commerce
« Le guichet unique, qui existe déjà pour les services de télécommunication, les services de radiodiffusion et de télévision et les services électroniques, et qui doit être étendu à toutes les opérations de commerce électronique, sera déployé à une échelle encore plus large et réadapté afin d’exploiter pleinement les possibilités offertes par la technologie numérique pour simplifier, normaliser et moderniser les procédures », prévoit l’exécutif européen dans son plan d’action.
Les entreprises devront s’enregistrer, pour la TVA, uniquement dans les Etats membres où elles sont établies. Selon Ernst & Young, les entreprises européennes devraient ainsi épargner en moyenne environ 1 milliard d’euros par an au total. Et c’est en 2017 que sera présenté un « paquet TVA » en faveur des PME. @

Charles de Laubier

Margrethe Vestager se hâte (trop) lentement dans l’enquête anti-trust contre Google

Cela fait un an que la Commission européenne a fait part de griefs à Google
pour pratiques anticoncurrentielles sur son moteur de recherche. Les premières plaintes datent d’il y a six ans. L’enquête sur Android dure, elle, depuis un an. Qu’attend la commissaire à la Concurrence, Margrethe Vestager ?

« La Commission européenne n’a pas de délai légal pour mener ses enquêtes en matière d’ententes et d’abus de position dominante, dans la mesure où cela dépend de nombre de facteurs comme de la complexité de l’affaire, le degré de coopération de l’entreprise en cause et l’exercice des droits de
la défense », nous a répondu un porte-parole de la commissaire européenne en charge de la Concurrence, Margrethe Vestager (photo), concernant l’état d’avancement de la procédure anti-trust lancée contre Google. « Notre enquête se poursuit », a-t-il ajouté.

Hydre à deux têtes : Google et Android
Dans une de ses rares interventions dans les médias, Margrethe Vestager laisse entendre que cette enquête n’est pas prête d’être close car, de son propre aveu,
elle n’est pas pressée d’en finir ! « Vous ne pouvez pas substituer la justice avec la vitesse », a-t-elle assuré dans un entretien accordé au New York Times et publié le 6 mars dernier. « J’ai appris que faire de l’anti-trust de cette taille demande une patience d’acier. Vous devez penser que la vitesse est une qualité parce que nous avons de grandes entreprises dont les noms sont mentionnés à maintes reprises. Mais la vitesse n’est pas une qualité en soi (…) La vitesse est une question secondaire », a-t-elle ajouté. Le quotidien américain, lui, table encore sur de « prochains mois » avant que
le verdict ne tombe… Margrethe Vestager n’entend donc pas se faire dicter son calendrier dans cette affaire où elle donne plutôt l’impression de combattre une hydre
à deux têtes : Google et Android… « Nous avons des questions de différentes natures. L’une d’entre elles est le scraping (dont est accusé Google pour copier le contenu d’autres sites web) ; une autre porte sur la publicité (plaintes contre Google pour abus de position dominante dans ses contrats publicitaires) ; et puis il y a Android qui est presque une autre planète. Nous deviendrons plus sages à force d’aller en profondeur dans ces domaines », a-t-elle confié au New York Times.
Et cela fait maintenant six ans que cela dure, depuis les toutes premières plaintes déposées par trois sociétés – Foundem, Ejustice et Ciao alors propriété de Microsoft
– à l’encontre de Google qui avait lui-même annoncé cette affaire en février 2010. Depuis, les organisations Icomp et FairSearch, ainsi que Expedia, Farelogix, Kayak, Sabre, Oracle ou encore Nokia, auxquels est venu se joindre l’Open Internet Project (OIP), avaient à leur tour déposé plainte contre le moteur de recherche. Google est accusé de privilégier ses propres services en ligne au détriment de ceux de ses concurrents et de favoriser ses annonceurs au travers de sa politique publicitaire Adwords. Par exemple, Google Shopping (ex-Google Product Search et ex-Froogle) serait avantagé depuis 2008, ce qui reviendrait à « détourner artificiellement » le trafic des concurrents tels que LeGuide.com (Lagardère), lequel a racheté en 2012 à Microsoft son concurrent Ciao, Kelkoo (Jamplant), Twenga et bien d’autres. Et cela fait un an que la Commission européenne a adressé à Google – le 15 avril 2015 précisément (1) – des griefs à son encontre pour pratiques anticoncurrentielles sur son moteur de recherche, lequel pèse 90 % des requêtes en Europe. La firme de Mountain View y a répondu le 27 août dernier, par la voix de son vice-président et juriste en chef Kent Walker. « Nous pensons que les allégations sont incorrectes », avait-il écrit sur le blog officiel de Google dédié aux affaires publiques européennes (2). La Commission européenne avait profité de ses griefs sur le moteur de recherche pour indiquer à Google qu’elle poursuivait parallèlement son enquête dans trois autres directions :
la copie de contenus web concurrents (web scraping ou « moissonnage »), l’imposition de clauses d’exclusivité à des partenaires publicitaires, et la restriction de la portabilité des campagnes de publicité en ligne vers des plateformes numériques de publicité concurrentes.
A ces quatre problèmes est venu s’ajouter celui du système d’exploitation Android de Google, sur lequel la Commission européenne a ouvert il y a un an une procédure formelle d’examen – « distincte et séparée » – pour savoir s’il y a des accords anticoncurrentiels ou un abus de position dominante dans les applications mobile et
les services aux smartphones et tablettes.

Verbaliser Google 7,5 milliards de dollars ?
Google est accusé : d’avoir forcé les fabricants de mobiles de pré-installer exclusivement ses propres applications et services ; d’avoir empêché les fabricants
de commercialiser des versions modifiées d’Android (appelées aussi forks) ; d’avoir lié ou groupé certains de ses propres services et « applis » sur Android. Les plaignants accusent Google de « prédation tarifaire » (3). La firme de Mountain View risque une sanction financière pouvant aller jusqu’à 10 % de son chiffre d’affaires global, soit quelque 7,5 milliards de dollars ! @

Charles de Laubier

Vers un «guichet unique» pour protéger les œuvres – films en tête – sur les plateformes numériques

Un an après la présentation, le 11 mars 2015, du plan gouvernemental de lutte contre le piratage sur Internet, les ayants droit se mobilisent face aux acteurs du Net. Le CNC a lancé une mission pour recenser les techniques de protection des œuvres et prévoir un « guichet unique » pour les producteurs.

La ministre de la Culture et de la Communication, qui était encore Fleur Pellerin avant d’être remplacée au pied levé par Audrey Azoulay, avait chargé le Centre national du cinéma
et de l’image animée (CNC) de mener des actions en vue d’enrichir l’offre légale et de lutter contre les sites Internet d’œuvres piratées.

 

Empreintes, watermarking, fingerprinting, …
C’est dans ce cadre que la présidente du CNC, Frédérique Bredin (photo), a confié à Emmanuel Gabla (ancien membre du CSA, actuellement membre du CGEIET (1)), Olivier Japiot (ancien directeur général du CSA) et Marc Tessier (ancien président
de France Télévisions et actuel président de Videofutur) la mission de mobiliser les auteurs, les producteurs et les plateformes numériques pour faciliter l’utilisation des technologies de protection des œuvres (films, séries, clips vidéo, etc.).
Cette mission « Gabla-Japiot-Tessier » a pour objectif, d’une part, de recenser les
outils et les bonnes pratiques « qui existent déjà chez les ayants droit et chez les intermédiaires de diffusion », et, d’autre part, de préfigurer « un guichet unique qui permettrait à la profession d’avoir accès au meilleur service possible à coûts maîtri-
sés ». Mais cette mission n’aboutira pas à un rapport comme nous l’a indiqué le CNC
à Edition Multimédi@ : « Il s’agit d’une mission avant tout opérationnelle. Il n’y a pas de date ferme fixée, par extension. La mission porte en effet sur la mise à plat des outils d’ores et déjà existants et d’examiner leur faisabilité. Le guichet unique est toujours actuellement à l’état de projet ».
Quoi qu’il en soit, il est toujours difficile aujourd’hui d’y voir clair entre les solutions d’empreintes numériques, de tatouages numériques, de watermarking, de fingerprinting, de filigranes, de DRM (Digital Rights Management), ainsi que parmi les offres techniques Content ID (YouTube/Google), Signature (INA), Audible Magic, Hologram Industries (ex-Advestigo), Trident Media Guard (TMG), Civolution, Attributor, Blue Efficience, … « A l’heure où la diffusion numérique prend une place toujours plus importante dans l’accès aux œuvres, notamment avec le développement de grandes plateformes web de diffusion de contenus devenues incontournables (YouTube, Dailymotion ou Facebook), il est indispensable que les technologies de protection
des œuvres, existantes ou à venir, soient mieux appréhendées et répertoriées par
les professionnels, afin d’être intégrées le plus en amont possible dans les nouveaux modèles de production des œuvres », explique le CNC (2). C’est pour avoir une approche coordonnée dans ce domaine que la mission « Gabla-Japiot-Tessier » a été lancée, en vue d’accompagner les auteurs et les producteurs. Dans un premier temps, cette démarche se fera avec les intermédiaires du Net existants. Et à plus long terme, elle portera sur les outils qui pourront être développés à l’avenir.
La direction de l’innovation, de la vidéo et des industries techniques (Divit) du CNC
sera notamment mise à contribution. Depuis début janvier, c’est Raphaël Keller qui
a été nommé à sa tête. Il fut conseiller « industries culturelles » de la secrétaire d’Etat au Numérique, Axelle Lemaire, avant d’assurer pour elle le suivi de la concertation en ligne à l’automne 2015 sur le projet de loi « République numérique ». C’est un ancien rapporteur de la mission « Acte 2 de l’exception culturelle » (2012-2013) de Pierre Lescure, dont le rapport a été publié en mai 2013. Il y est notamment question de
« détection automatique de contenus » qui suppose des prestataires « fouille » ou
« e-monitoring ». « Ces outils reposent sur la comparaison automatisée (matching) entre les contenus téléchargés par les utilisateurs du site et une base de données d’empreintes (fingerprints) fournies par les ayants droit », explique le rapport Lescure.

Une approche « notice and stay down »
Cela nécessite une coopération volontaire entre hébergeurs et ayants droit, ces derniers fournissant les empreintes pendant que la plateforme compare ces empreintes aux contenus mis en ligne. L’ayant droit est alors alerté lorsqu’une correspondance est établie entre l’oeuvre qui circule sur Internet et son identification numérique. L’avantage est que la plateforme vidéo ou musicale n’a pas à opérer une surveillance généralisée du Net (ce qu’elle se refuse d’ailleurs à faire et qui est surtout interdit). C’est l’ayant droit, et non pas l’hébergeur lui-même, qui rend la décision de bloquer le contenu litigieux sur un mode similaire au « notice and stay down ». « Ces outils présentent
un autre intérêt : sur certaines plateformes, l’ayant droit, informé de la présence d’un contenu sur lequel il détient un droit exclusif, peut choisir entre le retrait de ce contenu et sa “monétisation” (c’est-à-dire le partage des recettes publicitaires générées par ce contenu) », relève encore le rapport.

Lescure en 2013 : pour une base mutualisée
Mais la mission Lescure avait déjà identifié des insuffisances : ils ne sont pas assez utilisés par les ayants droit ; ils ne fonctionnent pas si l’oeuvre est cryptée ; toutes les plateformes numérique ne les utilisent pas ; les plateformes développent chacune leur propre technologie. D’où la recommandation faite à l’époque par la mission « Acte 2 » : « Les pouvoirs publics pourraient accompagner et soutenir une initiative mutualisée visant à créer, pour chaque type d’œuvres, une base d’empreintes unique, couplée
à un dispositif de reconnaissance automatique ». Ce qui faciliterait la détection des contenus protégés. De plus « une telle mutualisation serait particulièrement bénéfique aux plus petits ayants droit qui n’ont pas les moyens de recourir aux services d’opérateurs privés spécialisés dans le e-monitoring ». Le rapport Lescure proposait même que les bases d’empreintes soient hébergées par les responsables du dépôt légal, à savoir l’INA (3), le CNC et la BnF (4), et, à terme, « adossées aux registres publics de métadonnées » à mettre en place. Constituer des bases d’empreintes d’œuvres nécessite d’appliquer des algorithmes de calcul et de stocker les résultats dans une base de données.
En octobre 2007, de grands groupes de télévision et cinéma (Disney, Fox, Viacom, Sony Pictures, CBS, …) ont mis en oeuvre – en partenariat avec des plateformes de partage de vidéo et de musique – une sorte de « réponse graduée privée » à travers l’accord « UGC principles » (5). Dailymotion fait partie des signataires. Ce code de bonne conduite prévoit le recours à des techniques d’identification des œuvres afin
de supprimer ces dernières en cas de piratage. Mais une telle démarche il y a près de dix ans n’a pas fait assez d’émules parmi les ayants droit, particulièrement en France. D’autant que les industries culturelles françaises sont assez réticentes à utiliser des outils de protection développées par des acteurs du Net dont elles se méfient. Le groupe TF1 n’a-t-il pas préféré la solution de reconnaissance d’empreintes numériques de la start-up française Blue Efficience plutôt que l’offre équivalente Content ID de YouTube/Google ? « Le robot Content ID ne permet en effet pas d’identifier les contenus qui ont été habilement déformés par les pirates afin de passer entre les mailles du filet. Ainsi, YouTube héberge actuellement des milliers de films dont la mise en ligne n’a été aucunement approuvée par leurs auteurs », dénigre même son fournisseur (6). Il faut dire que la chaîne du groupe Bouygues avait préféré ferrailler
dès 2008 en justice contre la filiale vidéo de Google qu’il accusait de contrefaçon, alors que YouTube lui proposait d’utiliser Content ID. Ce que TF1 s’est résolu à faire fin 2011 avant de mettre un terme au procès en 2014. De son côté, M6 a préféré en 2012 la solution concurrente Signature de l’INA, tout comme EuropaCorp en 2008, Dailymotion et Canal+ en 2007. En revanche, en France, les ayants droit sont plus prompts à s’attaquer aux sites web pirates qu’à prendre des précautions numériques pour se protéger. Une charte « des bonnes pratiques » a été signée il y a près d’un an, le 23 mars, par les professionnels de la publicité en ligne « pour le respect du droit d’auteur et des droits voisins ». Et ce, en présence de Fleur Pellerin : « Nous allons lancer une réflexion avec les trois principales plateformes pour nous doter d’outils technologiques efficaces et simples pour le signalement et le retrait des œuvres », avaitelle indiqué.
Ce que l’ancienne ministre de la Culture et de la Communication avait redit le 10 septembre dernier : « Il s’agit désormais de progresser sur le chemin du signalement
et du retrait des œuvres exploitées illégalement, par l’intermédiaire d’outils technologiques efficaces et performants. Il en existe et je travaille aujourd’hui avec le CNC pour que les producteurs s’en saisissent plus massivement », avait-elle insistée
à l’occasion du lancement du « Comité de suivi des bonnes pratiques dans les moyens de paiement en ligne pour le respect des droits d’auteur et des droits voisins » (7).

Bientôt une « liste noire » à l‘Hadopi ?
En attendant une charte « paiement en ligne », Fleur Pellerin avait demandé à Thierry Wahl, inspecteur général des Finances, et à Julien Neutre, nommé l’été dernier directeur de la création, des territoires et des publics au CNC, de poursuivre leurs travaux pour aboutir à une charte d’engagements signée. Quant à l’Hadopi, elle avait confirmé à Edition Multimédi@ qu’elle était déjà prête à gérer la « liste noire » (8) des sites web coupables de piraterie d’œuvres que le gouvernement souhaite mettre en place. @

Charles de Laubier

Le direct live des réseaux sociaux pourrait faire de l’ombre aux chaînes de télévision

Avec une audience déjà grignotée par la VOD et la TV sur Internet, les chaînes
de télévision voient un nouveau front s’ouvrir : celui du direct et de la retransmission d’événements en temps réel. Car les réseaux sociaux se
mettent au live, avec des outils tels que Periscope, Meerkat, Live Video, …

Diffuser des vidéos en direct sur Facebook. C’est possible depuis que le numéro un des réseaux sociaux a lancé fin janvier la fonction « Live Video », laquelle permet – dans un premier temps aux Etats-Unis et à partir d’un iPhone – de diffuser en temps réel une séquence vidéo ou un événement filmé. Le reste du monde et Android seront concernés « dans les semaines à venir ». Une fois que la retransmission en direct
est terminée, l’internaute peut soit la garder sur le réseau social, soit l’enlever.

Twitter, Facebook, YouTube, …
Quelques jours avant le lancement de Live Video, le réseau social de Mark Zuckerberg lançait un nouveau service baptisé « Facebook Sports Stadium » pour suivre en temps réel des matches (de football d’abord, puis à l’avenir le basket-ball et d’autres sports). S’il n’est pas encore question de vidéos, ce service sportif propose lors des événements des scores en direct, des commentaires d’experts, des échanges avec
ses « amis » à travers le monde, mais aussi des liens pour pouvoir regarder les événements sportifs en live si possible.
Facebook entend ainsi concurrencer des applications de live sur Internet telles que Periscope de Twitter ou Meerkat développée par Ben Rubin qui l’a lancée il y a un an (voir encadré page suivante), ainsi que les directs en streaming vidéo sur YouTube ou Dailymotion. Ces annonces successives du réseau social aux plus de 1 milliard d’utilisateurs actifs quotidiens sont intervenues après que Twitter a intégré dans le fil d’actualité – la timeline de ses twittos – l’application de diffusion de vidéos en direct Periscope. Issu de l’acquisition de la start-up Bounty Labs en mars 2015 par Twitter, Periscope avait été lancé l’an dernier et totalisait – avant d’être intégré au site de microblogging – 100 millions de vidéos diffusées en live, le plus souvent à partir de smartphones. Twitter a aussi intégré Periscope sur son autre application vidéo, Vine, acquise en 2012 et permettant de diffuser de courtes vidéos de 6 secondes et de les partager.
Avec cette montée en charge du direct sur les réseaux sociaux et de partage vidéo, les chaînes de télévision perdent leur atout maître qu’était leur avantage à être les seules
à pouvoir faire de la rediffusion live d’événements d’actualité ou de divertissement – parfois en mondovision. Fort du (très) haut débit généralisé, de la puissance de l’encodage numérique et de l’engouement pour le streaming, Internet est en passe de détrôner la TV sur ce terrain. Si les attentats terroristes du 11 septembre 2001 ont d’abord été suivis en partie en direct sur CNN et sur les chaînes du monde entier, ceux des 7 janvier et 13 novembre 2015 à Paris l’ont été avant tout sur les réseaux sociaux, avec en plus la capture de l’instant par les Parisiens et les autres témoins retransmis instantanément sur Periscope ou Vine.
YouTube pratique depuis longtemps la retransmission en direct d’événements, de concerts ou de festivals. Ce fut par exemple le cas en 2012 lorsque près de 8 millions de personnes sur YouTube ont regardé en direct le saut spectaculaire en parachute à 39.000 mètres d’altitude du parachutiste autrichien Felix Baumgartner, lequel a franchi pour la première fois le mur du son en chute libre ! Le lancement aux Etats-Unis en octobre dernier de YouTube Red, la version payante sans publicités de la plateforme
de partage vidéo, est aussi la porte ouverte à des retransmission live d’événements premium. Son arrivée en Europe prévue cette année pourrait bousculer les bouquets TV payants Canal+ ou Sky. Rappelons en outre que, depuis fin 2013, YouTube permet à chacun de diffuser en direct (live stream) sans plus avoir besoin d’avoir au moins 100 abonnés à sa chaîne (comme c’était exigé auparavant). A condition cependant que le
« youtuber » respecte les droits d’auteur. YouTube s’est en outre lancé l’été dernier dans la retransmission en direct de parties de jeux vidéo ou de compétitions ludosportives (e-sports), avec YouTube Gaming, sur le modèle de Twitch, filiale d’Amazon.

Amazon lorgne les droits du football
Amazon, justement, compte bien être présent dans la retransmission d’événements sportifs tels que les matches de football, quitte à acheter des droits pour son service
en ligne par abonnement Prime. Mais son PDG, Jeff Bezos, qui ne l’a pas exclu le 26 décembre dernier dans un entretien accordé à Die Welt, la joue modeste : « Il est possible que ce domaine [du sport en direct, ndlr] se trouve pendant un certain temps encore entre de meilleures mains, chez les chaînes de télévision », a-t-il dit au quotidien allemand. Aux Etats-Unis, la NFL (National Football League) courtise les acteurs du Net (Amazon, YouTube, Yahoo, Facebook, …) pour atteindre les cord-cutters (les désabonnés de la TV par câble) en live-streamed. De son côté, Microsoft verrait bien la retransmission du Super Bowl américain prolongée en réalité holographique (1). Le petit écran n’a plus le monopole du direct de « contenus premium », tandis que l’année 2015 a confirmé que les Français, toujours plus équipés d’écrans que sont les téléviseurs, les ordinateurs, les tablettes et les smartphones (6,4 en moyenne par foyer, selon Médiamétrie), ne se contentent plus de regarder la télévision uniquement « à l’antenne » (live ou pas) mais aussi de plus en plus « à la carte » et/ou « en direct »
(en enregistrant leurs programmes ou en utilisant les services de replay).

Les chaînes se rebiffent
Ce phénomène du direct sur Internet donne des sueurs froides aux chaînes de télévision détentrices des droits de retransmission d’événement sportifs ou de diffusion de série. D’autant que certaines d’entre elles paient très cher – plusieurs centaines de millions d’euros – les retransmissions en live sur leur antenne, notamment de football. C’est le cas aussi pour la diffusion de séries qui se retrouvent « capturées », telles que la dernière saison de « Game of Thrones » qui s’est retrouvée sur Periscope au grand dam de la chaîne payante HBO qui a porté plainte au printemps 2015 contre Periscope. Son créateur, le fondateur de Bounty Labs, Kayvon Beykpour, avait alors assuré qu’il retirerait rapidement les contenus litigieux. Les conflits entre les ayants droits et les acteurs du Net ne datent pas d’hier : le groupe américain de télévision et de studio de cinéma Viacom (Paramount, MTV, Nickelodeon, …), dirigé par le Français Philippe Dauman (2), s’est distingué dès 2007 en réclamant 1 milliard de dollars à YouTube pour piratage : Google s’en est finalement sorti indemne en 2013, après avoir proposé un système de reconnaissance automatique des œuvres appelé Content ID (lire p.3).

En France, en attendant que Periscope ne prenne de l’ampleur, TF1, France Télévisions, Canal+ et M6 – via l’Association de lutte contre la piraterie audiovisuelle (Alpa) – se sont plaints en mai 2015 auprès de Twitter et de Facebook (3) de la diffusion de vidéo pirates de leurs programmes sur les deux réseaux sociaux. Les chaînes de télévision françaises leur demandent d’adopter « une véritable politique
de sanctions » et « des technologies de filtrage automatique par reconnaissance d’empreintes numériques préalablement déposées par les détenteurs de droits, permettant de bloquer la mise en ligne de vidéos contrefaisantes ». La Ligue française de football (LFP) a aussi sévi auprès de Twitter France contre le piratage de ses matches (4).

Mais c’est aux Etats-Unis que la capture des matches en direct à partir de smartphones fait des émules sur Perisope ou Meerkat. La loi américaine « Digital Millennium Copyright Act », adoptée en 1998 sur la protection de la propriété intellectuelle à l’ère numérique, n’avait pas prévu ce phénomène de retransmission en direct sur les réseaux sociaux qui n’existaient pas encore (Facebook est créé en 2004, YouTube en 2005, Twitter en 2006, Periscope et Meerkat en 2015). En mai dernier, une polémique a commencé à partir du « combat de boxe du siècle » (5) qui s’est déroulé un samedi soir à Las Vegas : plusieurs smartphones avaient alors rediffusé en live sur Periscope et Meerkat l’événement – « en toute illégalité », selon les organisateurs qui avaient monnayé au prix fort les droits de diffusion auprès de chaînes payantes. @

Charles de Laubier

L’année 2016 s’annonce comme le – trop lent – décollage de la radio numérique terrestre (RNT)

Le Conseil supérieur de l’audiovisuel (CSA) se hâte lentement dans le lancement des appels à candidatures, qui s’étaleront de fin mars 2016 à… fin 2023. Tant d’années pour que la RNT devienne nationale, c’est de l’avis de certains professionnels « trop lent » à l’heure du numérique.

Par Charles de Laubier

Olivier Schrameck« C’est beaucoup trop lent pour déployer une nouvelle technologie numérique, mais, au moins, cela avance avec un calendrier qui fixe les dates précises des appels à candidatures », a confié à Edition Multimédi@ un bon connaisseur de la RNT quelque peu circonspect, en marge de la cérémonie des voeux du CSA prononcés par son président, Olivier Schrameck (photo), le 21 janvier dernier. Les nouveaux appels à candidatures vont en effet s’échelonner de 2016 à 2023, soit durant huit ans encore et aussi huit ans après le premier appel à candidatures de… mars 2008 sur Paris, Marseille et Nice (comme le montre le tableau ici). Le CSA a décidé ce calendrier à rallonge durant son assemblée plénière du 9 décembre 2015, après de nombreuses années de débats et d’oppositions, ainsi qu’à l’issue d’une ultime consultation publique menée l’an dernier.

L’Alliance pour la RNT se mobilise
Car, faut-il le rappeler, la RNT avait été promise pour fin 2008… par Nicolas Sarkozy, alors président de la République, tandis que Michel Boyon – à l’époque président du CSA (1) – l’avait annoncée en 2009 « pour Noël » sur les trois premières villes de Paris, de Marseille et de Nice… « Mieux vaut tard que jamais », a poursuivi notre interlocuteur avec ironie.
L’Alliance pour la RNT, qui a été constituée en octobre 2014 entre le Sirti, le SNRL et le WorldDAB afin de coordonner leurs actions pour favoriser un déploiement rapide de la diffusion hertzienne numérique de la radio, avait dès le 11 décembre dernier reproché au CSA « une approche trop prudente » en l’ « invit[ant] à envisager dès à présent une accélération de son calendrier qui pourrait ainsi prévoir un lancement d’au moins quatre vagues d’appels par an plutôt que de deux ». L’Alliance pour la RNT a même proposé au régulateur de l’audiovisuel de lui présenter « début 2016 à l’occasion d’une future séance plénière » les raisons d’un « rythme plus soutenu ».
Selon nos informations, des rendez-vous ont par ailleurs été sollicités auprès du cabinet de Fleur Pellerin, ministre de la Culture et de la Communication – dont dépend d’ailleurs la décision de l’Etat de préempter ou pas pour Radio France des fréquences sur la RNT –, ainsi qu’avec la direction « numérique » de Radio France pour faire suite à une première rencontre en décembre dernier avec son président Mathieu Gallet – lequel s’est dit plutôt favorable à la RNT. Accélération ou pas en France, notamment par rapport à nos voisins européens (2), la RNT fait plus que jamais partie des « importants défis » à relever au cours de l’année 2016 pour le CSA, comme l’a souligné son président Olivier Schrameck (photo) lors de ses voeux : « Nous serons également attentifs au développement de la radio numérique terrestre, susceptible d’élargir une offre de programmes qui persiste à rencontrer de sérieuses limites dans certains territoires ». Ainsi, après Paris, Marseille et Nice où elle est actuellement diffusée depuis l’été 2014, la RNT va continuer à s’étendre en France pour faire bénéficier à la radio de l’évolution de la diffusion hertzienne. « Le CSA a fixé un calendrier progressif de déploiement de la radio numérique terrestre, en complément de tous les modes de développement actuels de ce média essentiel », a rappelé Olivier Schrameck. Rien qu’en 2016, deux appels à candidatures seront lancés d’ici fin mars pour le premier sur les zones de Lille, Lyon et Strasbourg, puis d’ici fin septembre pour le second sur celles de Nantes, Rouen et Toulouse.
« Le CSA remplit sa mission légale pour que les acteurs du secteur fassent leur choix en pleine conscience des enjeux financiers, technologiques et humains qui se présentent à eux. La route de la RNT est désormais pavée ; aux radios existantes ou
à d’autres de manifester s’ils veulent l’emprunter », a-t-il ajouté. A part Radio France, dont le lancement sur la RNT dépend de la décision de l’Etat (3), la question sera de savoir si les grandes radios privées – RTL, Europe1/Lagardère Active, NRJ, BFM/ NextradioTV – continueront de bouder la RNT, à laquelle ils préfèrent la radio sur IP (webradios). @

Charles de Laubier