RNT : la France tergiverse, l’Allemagne se lance

En fait. Le 15 mars, cela fait déjà quatre mois que nos voisins d’outre-Rhin se
sont finalement mis d’accord pour lancer cette année la radio numérique terrestre (RNT) avec l’opérateur de réseau DAB+, Media Broadcast – filiale allemande de TDF. Pendant ce temps, en France, le rapport Kessler hésite encore.

En clair. L’Allemagne est dans les starting-blocks pour préparer son basculement – à l’automne 2011 – vers la radio numérique terrestre (RNT), grâce à un accord signé en décembre entre plusieurs radiodiffuseurs et le multiplex national DAB+ géré par Media Broadcast (TDF). Selon ce dernier, ce sont au total trois programmes de la radio publique allemande Deutschlandradio et six programmes de radios privées qui seront proposés, auxquels pourraient s’ajouter des radios régionales. D’autres pays européens pourraient se lancer à leur tour, comme la Grande- Bretagne et le Danemark qui expérimentent avec succès. D’autant que la Commissaire européenne en charge
du numérique, Neelie Kroes, s’est prononcé le 3 mars dernier – à l’occasion du 20e anniversaire de la conférence de l’Association européenne des radios (AER) – en faveur d’un marché unique de la RNT avec des récepteurs intégrant les standards DAB, DAB+ et DMB (1). Ces technologies permettent la « radio à images », voire à vidéo avec le DMB ! Elle a néanmoins pointé du doigt le « manque de consensus sur le futur de la radio » en Europe. La Suisse, elle, a lancé des réseaux DAB+ il y a près de deux ans. Pendant ce temps là, la France en est à son troisième rapport sur la radio numérique terrestre (RNT), avec successivement celui d’Emmanuel Hamelin (octobre 2009), de Marc Tessier (novembre 2009) et de David Kessler (2) cette année. Ce dernier, qui a déjà demandé aux différents acteurs de se déterminer clairement, devait rendre ses conclusions au Premier ministre, à la fin du mois dernier. David Kessler s’est rendu à Nantes, début février, pour s’inspirer de l’expérimentation de RNT tout juste prolongée par le CSA jusqu’au 5 juin prochain et menée par le Groupement des radios associatives de la métropole nantaise (Gram). Le gouvernement pourrait décider de lancer une expérimentation nationale de RNT. Autant dire que le lancement commercial en France n’est toujours pas pour demain. Rachid Arhab aurait même fait part de son « inquiétude » sur l’avenir de la RNT, le 15 février lors d’un dîner du Club parlementaire sur l’audiovisuel et les médias. Elle avait été promise pour… 2008 ! Mais les grandes radios privées, telles que RTL, Europe 1, NRJ et NextRadioTV ne cessent d’exiger un « moratoire de 18 mois » pour attendre des jours (économiques) meilleurs. Pour l’heure, la bande FM sature en fréquences et l’offre de stations reste limitée, en comparaison du choix plus large apporté par la RNT. @

Neutralité du Net : le plus dur sera de « fixer les exigences minimales de qualité »

Afin de « prévenir la dégradation du service, le blocage des accès et le ralentissement du trafic sur les réseaux », la directive européenne « Service universel et droits des utilisateurs » prévoit que les régulateurs nationaux fixent une « qualité de service minimale ». Mais quand ?

Par Winston Maxwell*, avocat associé, Hogan Lovells

Il n’existe pas de qualité de service garantie de bout en bout sur l’Internet. Le « réseau des réseaux » fonctionne selon un mode de
« meilleurs efforts », best effort disent les Anglo-saxons. Si un point d’interconnexion est saturé, des paquets peuvent être ralentis voire supprimés. Cette perte de paquets n’est pas problématique car les paquets trouvent un autre chemin pour arriver à destination. Ce mode « meilleurs efforts » fonctionne plutôt bien dans la plupart des situations, mais la qualité de service peut cependant souffrir en cas de forte demande pour un contenu en ligne spécifique telle qu’une vidéo très populaire.

Qui est responsable de la qualité ?
Le problème inhérent de qualité de service sur l’Internet a trouvé une réponse à travers les réseaux de distribution de contenus, ce que les professionnels appellent les « Content Distribution Networks » ou CDN. Ces derniers ont été conçus pour contourner l’ensemble des maillons faibles de l’Internet public et pour insérer le contenu dans le réseau à un point proche de l’abonné. Ces accès de proximité offrent une qualité de service supérieure, moyennant rémunération par les fournisseurs de contenus. Ainsi, une entreprise comme TF1 rémunèrera un CDN (1) pour augmenter la qualité de service, et notamment la vitesse de réponse d’un site tel que tf1.fr. Il s’agit parfois de solutions de distribution de contenus à usage strictement interne, comme le réseau du groupe Google qui améliore la qualité de son propre site de partage vidéo YouTube.
En résumé, l’Internet public souffre de problèmes inhérents de qualité de service et ces problèmes sont résolus en partie par des services commerciaux proposés par les CDN, lesquels apportent les flux jusqu’à un point d’interconnexion le plus proche de l’internaute. Cependant, c’est toujours le fournisseur d’accès à Internet (FAI) local qui transporte le flux jusqu’à l’abonné final. En matière de neutralité du Net, l’enjeu de la qualité de service se situe au niveau de ce FAI, qui livre le contenu à sa destination finale. Car les CDN ne peuvent rien faire en cas de saturation du réseau local (les derniers kilomètres jusqu’à l’internaute). C’est comme si un transporteur (le CDN) livrait des marchandises à Roissy mais que l’autoroute entre Roissy et Paris (le réseau du FAI local) était bouchée. Des bouchons sont rares sur le réseau de télécommunications fixe en France. Des problèmes de débit sur le réseau fixe sont généralement dus à des limitations inhérentes à la technologie DSL (Digital Subscriber Line) utilisée sur les lignes téléphoniques à base de paire de cuivre pour les services triple play (téléphone- Internet-télévision). Si l’abonné est trop loin du noeud de raccordement, ou NRA (2), le débit sera faible par rapport à un autre abonné qui habite près du nœud. La situation est plus délicate pour les réseaux mobiles, car le réseau d’accès cellulaire est partagé en temps réel entre de très nombreux utilisateurs. S’il y a un seul utilisateur à un instant « T », celui-ci bénéficiera d’une qualité de service excellente, mais en cas d’affluence, la qualité baissera. Dans le débat sur la Net Neutralité, le choix a été fait en Europe et aux Etats-Unis de permettre aux opérateurs de proposer des services gérés en plus des services d’accès à l’Internet. La voix sur IP et l’IPTV (3) proposés aux abonnés disposant d’une « box » sont des exemples de services gérés en France. Ces services, qui utilisent le protocole Internet (IP) pour fonctionner, ne doivent pourtant pas être confondus avec l’Internet.

Prévenir ou guérir la dégradation ?
En matière de services gérés, la liberté contractuelle est la règle, sous réserve bien entendu de respecter le droit de la concurrence. A l’avenir, les services gérés permettront d’offrir aux abonnés de multiples services ayant une qualité de service garantie de bout en bout, ce qui n’est pas possible sur l’Internet public. La crainte des régulateurs est que ces services gérés, plus intéressants financièrement pour les opérateurs que l’Internet, se développent au détriment de ce dernier. Ainsi, la directive européenne « Service universel et droits des utilisateurs » (4) a prévu la possibilité pour les autorités de régulation nationales d’intervenir en cas de besoin pour imposer une qualité de service minimum pour l’accès à l’Internet.

Définir la qualité de service ?
L’article 22 de cette directive, qui doit être transposée dans chacun des vingt-sept
pays de l’Union européenne d’ici à fin mai 2011, précise en effet qu’« afin de prévenir
la dégradation du service et l’obstruction ou le ralentissement du trafic sur les réseaux,
les États membres veillent à ce que les autorités réglementaires nationales soient en mesure de fixer les exigences minimales en matière de qualité de service imposées à une entreprise ou à des entreprises fournissant des réseaux de communications publics ». L’Organe des régulateurs européens des communications électronique (ORECE) a rappelé en septembre dernier (5) que le jeu de la concurrence est la meilleure garantie d’une qualité de service satisfaisante. En cas de dégradation du service par un opérateur A, le premier réflexe du client sera d’abandonner cet opérateur A en faveur d’un opérateur B. C’est uniquement dans le cas où ce jeu concurrentiel ne fonctionnerait plus que le régulateur pourra, après avoir consulté la Commission européenne et l’ORECE, imposer une obligation de qualité de service minimal pour l’accès à l’Internet. Il n’en reste pas moins que la qualité de service est elle-même difficile à définir. La qualité du service est ce que ressent le client final lorsqu’il utilise un service donné. La qualité de service n’est pas synonyme de performance du réseau qui peut être définie de manière précise (temps de latence, phénomène de « gigue » ou variation des délais, etc.). La qualité de service dépend certes de la performance du réseau mais aussi d’autres facteurs, tels que l’équipement de l’utilisateur, son logiciel de navigation et le serveur distant qui héberge le contenu. Dans son programme de travail de 2011 l’ORECE essayera d’élaborer des paramètres pour mesurer la qualité de service et, ainsi, aider les régulateurs européens à définir des paramètres qui pourraient le cas échéant être imposés aux FAI. En France, par exemple, l’imposition par l’Arcep (6) d’une qualité de service minimale ne peut être envisagée dans l’immédiat. D’une part, il faut définir – en coopération avec les autres régulateurs en Europe – ce que l’on entend par qualité de service en matière d’accès à l’Internet. Deuxièmement, l’intervention du régulateur ne peut s’envisager, selon l’ORECE, qu’en cas de défaillance du marché concurrentiel conduisant à une dégradation de la qualité de service par l’ensemble des acteurs. Dans ses dix propositions de septembre 2010
(7) , l’Arcep reconnaît que cette forme d’intervention est plutôt une solution à
« long terme » et que la première priorité est de réunir les différents acteurs pour définir ensemble un moyen de définir et mesurer la qualité de service. En février 2011 le régulateur explique de nouveau que « Sans préjudice des travaux déjà en cours en matière de qualité de service fixe et mobile, la priorité de l’Arcep porte à ce stade sur
le lancement des travaux de qualification des paramètres principaux de la qualité de service de l’accès à l’internet et sur l’élaboration des indicateurs adaptés » (8). S’il existe des moyens de mesurer la qualité de service, ce sera déjà une incitation forte pour les opérateurs du réseau des reseaux de respecter leurs engagements à l’égard de leurs clients. Définir des paramètres de qualité de service en matière d’Internet fixe
est compliqué.

Les réseaux mobiles à part ?
Pour l’Internet mobile, la tache devient quasi impossible en raison des nombreux paramètres qui peuvent affecter le débit sur un réseau mobile. Et pourtant, ce sont les réseaux mobiles qui vont être particulièrement sollicités dans les prochains mois avec l’émergence des tablettes et des smartphones de plus en plus puissants. En cas de succès des tablettes en France, les abonnés mobiles risquent de constater des problèmes de qualité de service en raison de saturations ponctuelles du réseau.
Mais ces problèmes ne sont pas critiquables au regard de la neutralité du Net s’ils
sont traités par des mesures de gestion de réseau saines et transparentes. @

* Winston Maxwell et Nicolas Curien (membre de l’Arcep)
sont coauteurs de « La neutralité d’Internet »,
livre paru en février 2011
aux éditions de La Découverte (collection Repères).
Pour en savoir plus : www.collectionreperes.com
et lire « Oui à la discrimination efficace et
transparente ! », dans Edition Multimédi@ n°28, p. 7.

Nicolas de Tavernost, M6 : « Nous préférons les réseaux administrés aux réseaux ouverts »

Le président du directoire du groupe M6, Nicolas de Tavernost, a expliqué
– le 4 février lors des 10e « TMT Predictions » (1) du cabinet d’études Deloitte –
que la télévision généraliste n’est pas en déclin face à la vidéo sur Internet.
Mais elle pourrait l’être si…

… Si les chaînes de télévision ne gagnent pas « la bataille commune avec les opérateurs de broadband [les fournisseurs d’accès à Internet (FAI) qui distribuent sur leur box de la télévision, ndlr] », dont elles sont partenaires, elles ne pourront pas faire face à ce que le patron du groupe M6 appelle « un problème économique majeur ».
A savoir : « des recettes qui suivent grosso modo l’inflation et des coûts [de programmation] qui augmentent, sur un marché ou l’offre de télévision a été multipliée par trois et dans un contexte de réglementation complexe ».

Fibre optique, 4G, TMP et RNT : les réseaux à décoincer au cours de l’année 2011

La France a accumulé les retards, voire les blocages, dans les projets de déploiement du très haut débit (fibre et 4G), la télévision mobile personnelle (TMP) ou encore la ratio numérique terrestre (RNT). Les conditions réglementaires et économiques seront-elles réunies cette année ?

Des retards s’accumulent sur trois grands projets de réseaux, pourtant promis depuis cinq ans maintenant. La fibre optique en France ne dépasse pas les 500.000 abonnés.
Et encore, la fibre jusqu’à la maison – FTTH (1) – ne concerne qu’une minorité d’abonnés, l’écrasante majorité étant raccordée chez eux en cuivre ou en câble coaxial avec la fibre s’arrêtant au pied de l’immeuble en mode FTTB (2) comme, par exemple, pour les clients de Numericable.

Screen Cities

Comme tous les matins, lorsque je prends le tram, l’attente est un peu moins longue à l’abri de ces nouvelles stations qui se sont couvertes d’écrans : écrans d’informations sur
le trafic et le temps qu’il fera, écrans tactiles pour des recherches personnelles ou écrans de publicités interrogeables via mon mobile. Et si mon regard se porte au-delà, la perspective qui s’offre à moi est un troublant mélange de lieux immuables et d’images animées portées par des centaines d’écrans vidéo illuminant les édifices publics, les affiches et les boutiques. Matérialisation tangible de
la ville devenue numérique, les écrans ont envahi nos rues. Après s’être électrisées de mille feux au début du XXe siècle, nos villes se sont couvertes d’innombrables écrans, publics et personnels, véritables nouvelles lumières de nos villes. Alors que le lampadaire et les transports urbains firent sortir la ville de l’ombre et de ses frontières ancestrales, les écrans et les réseaux numériques ont ouvert aux citoyens et à leurs cités une nouvelle dimension. Loin de n’être que virtuelle, celle-ci redessine la ville, ses quartiers, son horizon même. Pour moi qui ai toujours assimilé la ville à un grand livre ouvert c’est un plaisir constant que d’entrer de plain-pied dans cette révolution digitale urbaine.

« Alors que le lampadaire et les transports urbains firent sortir la ville de l’ombre et de ses frontières ancestrales, les écrans et les réseaux numériques ont ouvert aux citoyens et à leurs cités une nouvelle dimension. »

Quand Haussmann ouvrait des boulevards dans un Paris encore médiéval, nos édiles enveloppent nos quartiers dans des nuages de données et d’objets interconnectés.
Pour y arriver, il aura fallu une très longue période de tests et la volonté de nombreuses villes pilotes. La première condition a bien sûr été de disposer des réseaux très haut débit, fixe et mobile, capables de supporter de nouveaux services de plus en plus gourmands en bande passante. Les grandes capitales ont parfois été aux avant-postes, mais les initiatives sont souvent venues de plus petites agglomérations – à l’instar de Pau en France, de Salerne en Italie, d’Oulu en Suède ou encore de Songdo en Corée du Sud.
Il reste cependant que la question de la fracture numérique se pose encore, ainsi en 2010, seulement 40 % des communes françaises de moins de 100.000 habitants étaient équipées d’un site Web. Tous les domaines de la vie citoyenne sont désormais concernés : le touriste se guide grâce à des applications en réalité augmentée ; l’automobiliste dispose d’informations en temps réel sur le trafic, la circulation, les places disponibles et le prix des stationnements ; le malvoyant peut compter sur son mobile et sa canne numérique pour mieux se déplacer dans son environnement. Même l’artiste s’est approprié ce nouvel espace urbain virtuel : il dessine une partie de son tag sur un mur et son complément sur une application, qui, une fois réunis sur un écran mobile, délivrent son message. Tous les citoyens disposent désormais d’outils numériques augmentant leur réalité citadine.
Les villes sont au sommet d’une montagne de données, dont elles n’ont que peu à peu pris la mesure et le contrôle (éducation, santé, travail, loisirs, transport, administration, …). Souvenons nous que les premiers à s’y être intéressés dans les années 90 sont les sociétés de cartographie comme Téléatlas ou les Mormons qui faisaient la tournée des communes pour numériser les précieuses informations dormant dans nos registres d’état civil et les registres paroissiaux. Dès 2009, une ville comme San Fransciso partageait plus de 150 bases de données, ouvertes à tous et proposant une trentaine de services sur iPhone : localiser les bus, disposer de statistiques sur la propreté des restaurants, permettre de connaître le niveau réel de délinquance de son quartier, s’informer sur le nom de ses voisins … Autant d’informations géolocalisées et associées à Google Map. Certains ont vu dans cette transparence de l’information citoyenne, l’avènement de la cité idéale. D’autres la craignent, parfois à raison. Pendant ce temps, la ville se transforme irrémédiablement sur fond de légendes urbaines : il paraît qu’une fois par an à minuit, un internaute anonyme, connu sous le pseudo de Jack the Screener, prend le contrôle durant quelques minutes de tous les écrans de la ville de Londres ! @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Mobile Stores
Depuis 1997, Jean-Dominique Séval est directeur marketing
et commercial de l’Idate. Rapport sur le sujet : « Enquête
Communes & TIC 2010 » par Anne Causse.