Création du CNN : à quand la rationalisation des outils de régulation du numérique ?

Le Conseil national du numérique (CNN), censé simplifier les relations entre
les acteurs du Net et les pouvoirs publics, risque d’accroître la confusion
déjà existante entre les multiples « AAI ». La convergence aurait mérité
une rationalisation – voire une fusion – entre certaines d’entre elles.

Par Rémy Fekete (photo), avocat associé, Gide Loyrette Nouel.

Le 29 avril dernier naissait le Conseil national pour
le numérique (CNN), entité entièrement dédiée à l’Internet
et au numérique (1). La création de ce nouveau conseil vise
à combler l’absence de tout organisme transversal dans
ces secteurs depuis la disparition du Forum des droits sur l’Internet (FDI) en décembre 2010, faute de financements.

Jean-Ludovic Silicani, Arcep : « Le renouvellement complet de notre infrastructure numérique est justifié »

Président de l’Arcep depuis deux ans, Jean-Ludovic Silicani répond à Edition Multimédi@. Selon lui, les consommateurs « gagneraient à passer au très haut débit ». Des « indicateurs de qualité de service » sont en préparation. Parmi les nouveaux pouvoirs de l’Arcep : veiller à la neutralité du Net.

Propos recueillis par Charles de Laubier

Edition Multimédi@ : Le nombre de foyers raccordables à la fibre optique à domicile (FTTH) dépasse tout juste
1 million en France, dont 140.000 seulement sont abonnés, soit 12 %. Comment expliquez-vous ce
peu d’engouement, alors que l’on va investir près
de 25 milliards d’euros sur 15 ans ?
Jean-Ludovic Silicani :
On a beaucoup parlé ces derniers temps de l’absence d’une application phare qui déclencherait un large besoin des consommateurs. Or, je constate que la plupart des services que nous utilisons aujourd’hui sont en train d’évoluer et nécessitent des réseaux offrant une plus large bande passante et une meilleure qualité de service : télévision HD puis 3D, multiécrans, démocratisation du cloud computing, consommation et partage croissants de vidéos haute définition sur Internet… Les consommateurs découvrent progressivement ce qu’ils gagneraient à passer au très haut débit.

A vos Tablettes !

A l’occasion d’une visite à la dernière grande exposition organisée par les antiquités orientales du musée du Louvre, j’ai été le témoin d’une scène troublante. Face à la statue du scribe Dudu, grand maître des tablettes d’argile qui exerçait son métier en Mésopotamie au milieu du IIIe millénaire avant J.-C., se tenait un jeune étudiant des beaux-arts le dessinant du bout des doigts sur sa tablette numérique : véritable mise en abîme de deux pratiques parallèles séparées par 5.000 ans ! Cette réinvention, ouvrant un nouvel âge d’or des tablettes quelques millénaires plus tard, nous a même surpris lorsqu’Apple lança en 2010 son iPad avec le succès que l’on sait. Ce n’était pourtant pas la première du genre, loin s’en faut. Sans parler des apparitions dans la série Star Trek, la première tablette numérique, Dynabook, fut imaginée par Alan Kay dès 1968 avec quasiment tous les attributs qui ont fait leur succès : un ordinateur sans fil de type notepad doté d’un écran tactile, disposant de capacités de stockage propres et à la portée des enfants, afin de contribuer à leur apprentissage.

« Tablette du futur : matériau redimensionnable, écran holographique avec toucher par ultrason, coque alliant nanomatériaux et photovoltaïque, scanner et caméra. Et visiophone 3D ? »

FTTH et LTE : vers une profonde fracture numérique ?

En fait. Le 9 juin se sont tenues les 5e Assises du très haut débit organisées à l’Assemblée nationale sur le thème de « L’heure des choix », sous le patronage d’Eric Besson. Le ministre chargé de l’Economie numérique y a annoncé la création de « commissions régionales d’aménagement numérique du territoire ».

En clair. Ces 5e Assises du très haut débit, organisées chaque année par l’agence Aromates, démontrent que la France tergiverse depuis au moins cinq ans pour savoir de quelle manière le public et le privé doivent déployer le très haut débit sur tout le territoire.
Il en résulte un retard chronique, alors que l’objectif du chef de l’Etat, Nicolas Sarkozy,
est de 100 % de la population en 2025. Au 31 mars 2011, l’Hexagone ne comptait que 520.000 abonnés très haut débit FTTx (1). Et encore, 380.000 d’entre eux étaient reliés
à la fibre par un câble coaxial (voir p. 11). Résultat : seulement 140.000 abonnés FTTH (2). Il y a pourtant 1,135 million de logements éligibles à ce FTTH.« Le temps est venu pour les opérateurs d’investir et pour les consommateurs de s’abonner ! », a lancé le président de l’Arcep, Jean-Ludovic Silicani.
Si le déploiement de la 4G avec la technologie LTE s’engage sur le même rythme
« de sénateur » que les infrastructures optiques, le risque de voir s’aggraver à grande vitesse la fracture numérique est réel. « La stratégie des grands opérateurs est de se concentrer sur les zones les plus denses et les plus rentables (Paris, Lyon, métropole lilloise, …) pour ne couvrir d’ici quelques années qu’environ 5 millions de foyers sur les
25 que compte la France », prévient Jean-Michel Soulier, président de Covage, opérateur d’opérateurs télécoms. La question de la création d’un opérateur de réseau national de fibre « noire » dans les zones peu denses, en fédérant les réseaux d’initiative publique (RIP) déjà existants des collectivités locales (3), reste posée. L’Association des villes et collectivités pour les communications électroniques et l’audiovisuel (Avicca) « regrette le recul des obligations de couverture du territoire par les opérateurs ». Elle constate que « le délai global est rallongé d’un quart (de 12 à 15 ans) » et que « la “zone prioritaire” est amputée de 30 % de sa population ». Alors que le gouvernement lance l’appel à candidatures pour les licences 4G, l’incertitude grandit: si les fréquences en 2,6 Ghz permettent de couvrir des zones urbaines (75 % de la population d’ici à 12 ans), il faudrait, aux quatre ou cinq opérateurs retenus, des
« fréquences en or » en 800 Mhz qui, seules, permettraient de couvrir l’ensemble
du pays (98 % d’ici à 12 ans). Là aussi, mutualiser – comme le souhaite Martin Bouygues (4) – la bande des 800 Mhz du dividende numérique pour couvrir les campagnes avec l’Internet mobile aurait un sens… @

Nouveaux marchés du Net : 70 milliards d’euros

En fait. Le 26 avril, l’Idate a publié la 11e édition de son rapport DigiWorld
Yearbook, qui évalue le marché mondial des services et équipements numériques
à 2.754 milliards d’euros, soit + 3 % sur un an. Mais de nouveaux marchés d’Internet, en croissance à deux chiffres, sont désormais pris en compte.

En clair. L’Institut de l’audiovisuel et des télécoms en Europe (Idate) élargit son champ d’études aux moteurs de recherche (search), aux réseaux sociaux, aux jeux en ligne,
aux applications mobile, à la publicité sur Internet, à la vidéo en ligne, à la télévision sur ADSL, aux livres numériques, ainsi qu’aux solutions de « cloud computing », « M2M/IoT » (1), « smart grid/cities », e-santé, e-learning/e-éducation ou encore e-commerce. Tous ces « nouveaux marchés d’Internet », auxquels le DigiWorld Yearbook 2011 consacre pour la première fois un chapitre entier, ont représenté l’an dernier « entre 60 et 70 milliards d’euros dans l’Europe des Vingt-sept, dont 13 % à 14 % générés par la connectivité (accès triple play, mobile, câble, …) ». Or, ces nouveaux marchés affichent
« entre 20 % et 50 % de croissance annuelle » selon les segments. C’est une aubaine pour le marché européen qui « reste en panne » : entre 0 % et 1% de croissance, à 700 milliards d’euros en 2010. Au niveau mondial, la croissance reste « modérée » : 3 % de hausse, à 2.754 milliards d’euros. Mais par rapport au recul historique de 1,5 % à 2.629 milliards d’euros en 2009, c’est encourageant. @