Le côté obscur du Web

Cette nuit, l’écran de ma tablette est resté inerte. Un rapide tour des autres écrans du foyer et de notre box m’a vite confirmé que l’accès Internet était interrompu, comme d’ailleurs pour l’ensemble de mes voisins et, comme nous l’apprîmes en allumant une ancienne radio oubliée tout au fond d’un placard, pour le pays et la planète toute entière ! Une cause inexplicable avait comme siphonnée les réseaux. Internet ne fonctionnait plus. Plus de réseau, plus de communication, plus de cloud, plus d’applications… Ce scénario catastrophe, je l’imaginais en terminant la lecture
du toujours étonnant « Ravage », où René Barjavel décrit les conséquences de la disparition mystérieuse de l’électricité, rejetant l’Humanité dans un âge obscur, néo-féodal. Bien qu’excessif, ce scénario a cependant été envisagé par certains comme
une option au développement toujours plus rapide d’un Internet arrêté en plein vol par des cyber attaques d’envergures et répétées : l’absence de stratégie globale sur les questions de sécurité dans le cyberespace et le coût devenu trop important des moyens à déployer pour le sécuriser étant à l’origine d’un repli sur soi généralisé, entraînant une baisse de l’innovation et du commerce en ligne.

« Ne vient-on pas d’arrêter hier
le responsable du premier brain hacking,
qui a pris le contrôle de cerveaux ? »

Les menaces n’ont cessé de prospérer jusqu’à constituer une véritable histoire de la cyber sécurité avec ses corsaires emblématiques, ses bandits de grands chemins,
ses pirates du quotidien et leurs cohortes de victimes : Kevin Mitnick fut le pirate le plus recherché de son temps après avoir « hacké » les géants Dec et IBM ; Garry McKinnon pénétra entre 2001 et 2002 les systèmes des grands corps de l’Armée américaine à la recherche de dossiers prouvant l’existence des OVNI ; Albert Gonzalez écopa de la plus forte peine de prison de la catégorie – 20 ans – pour avoir été à l’origine d’un vol massif de numéros de cartes de crédit. La cyber malveillance est devenue une étrange cour des miracles contemporaine où se côtoient des escrocs à la petite annonce en Europe, des affabulateurs masqués en Afrique, des maîtres de la fraude en tout genre en Europe de l’Est ou de consciencieux élèves fraîchement sortis d’écoles de hacking chinoises… Le dossier du Web obscur est cependant bien plus épais car toutes les faces du Net prêtent en réalité le flan à des détournements plus ou moins intentionnellement malveillants. C’est tout à la fois la question sensible des données personnelles et de nos libertés, l’enjeu économique du respect des droits de propriétés intellectuelles, l’exposition permanente des mineurs à des pratiques d’adultes, l’évolution rapide des limites fixées à la liberté d’expression, jusqu’au cyber-terrorisme qui a très vite trouvé sur le Net une terre d’accueil.
A l’heure où s’imposent le cloud et l’interconnexion, aucune organisation ne peut plus faire d’économie en matière de sécurité de ses offres. La mise en place des outils techniques, de règles partagées et de pratiques rigoureuses est plus que jamais un impératif. Sony paya très cher sa légèreté en la matière, lorsqu’en 2011 le groupe fut contraint de fermer pendant plusieurs semaines son PlayStation Network suite à l’intrusion de hackers dans son entrepôt de données clients : une perte estimée à plus de 1 milliard d’euros à l’époque. Certains prêtent aux Etats-Unis l’intention de déployer une stratégie sécuritaire visant à dominer le cyber espace, comme en son temps Ronald Reagan, en 1983, avec sa Guerre des étoiles. Une telle fin demande bien sûr la définition d’une stratégie globale appuyée par des moyens considérables, mais aussi une recherche de nouveaux modes de gouvernance collaborative. Les plus optimistes, comme Peter Tippett chez Verizon, pensent que les risques liés aux cyber menaces vont diminuer progressivement grâce à des mesures plus efficaces et universelles limitant e-mails indésirables, usurpations d’identités et autres crimes informatiques.
Il reste que chaque mois des cyber attaques de plus en plus ciblées défraient la chronique au rythme des évolutions technologiques. Ne vient-on pas d’arrêter hier
le responsable du premier brain hacking, qui, profitant d’une faille d’une nouvelle génération de terminaux neuronaux, a pris le contrôle des cerveaux d’une centaine
de traders ? @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Les tablettes
* Jean-Dominique Séval est directeur général adjoint
de l’Idate. Sur le même thème : numéro spécial
« The economics of cybersecurity » de la revue économique
Communications & Stratégies de l’Idate.

Droits d’auteur digitaux

Un auteur peut-il exister sans droit d’auteur ? La réponse nous semble évidente. Car ce droit, qui s’apparente à un droit de propriété, est entouré d’une aura quasi-naturelle, intemporelle et inaliénable. Pourtant, rien n’est plus inexact tant le droit d’auteur varie dans le temps et l’espace. Et c’est à la faveur
de la pression constante de la numérisation des œuvres qu’a resurgi un débat, en réalité très ancien. Il nous a fallu, pour
en prendre conscience, une longue période inachevée de remises en cause et de polémiques.
L’histoire passionnante d’un droit qui est tout sauf une évidence. Il fut même un temps
où la notion de droit d’auteur n’existait pas : un Adam de la Halle vivait, comme un Mozart cinq siècles plus tard, des représentations de ses œuvres et du bon vouloir de ses maîtres.

« De nombreuses sociétés nationales de gestion de droits d’auteur discutent de la constitution d’un catalogue universel des œuvres au niveau international. »

Déjà, c’est bien une révolution technique qui fut à l’origine des premiers changements. L’imprimerie, en permettant la duplication des livres, incita les libraires anglais à se protéger en obtenant le monopole de leur guilde, dès la fin du XVIIe siècle, sur le droit
de copie. Et c’est sous la Reine Anne, en 1710, que fut promulguée la première loi connue établissant les principes du copyright. En entérinant le rôle-clé des imprimeurs, elle limitait leur monopole fraîchement acquis, afin de prendre en compte le besoin de diffusion à un public de plus en plus large. On le voit, l’auteur, alors considéré plus comme un compilateur que comme un créateur, comptait pour peu. Il fallut attendre le XVIIIe siècle pour que le génie propre de l’auteur s’impose et soit gravé dans le marbre des premières lois révolutionnaires françaises de 1791 et 1793. Tous les éléments du débat actuel étaient posés.
Le XXe siècle s’est adapté sans difficulté à l’évolution spectaculaire des moyens de reproduction de masse, des livres, de la musique et des vidéos. A tel point que ces lois semblaient immuables. Mais la numérisation des contenus et leur mise en réseau sont venues tout bouleverser. Les grandes batailles passées sont revenu sur le devant de
la scène : comme John Milton publiant en 1644 un libelle en faveur de la liberté d’impression, ou comme Lamartine, Hugo ou Walras se battant pour la reconnaissance de la propriété intellectuelle au milieu du XIXe siècle, les auteurs du XXe siècle ont pris la parole, sinon les armes, pour faire part de leurs inquiétudes. C’est moins leur paternité qui était alors remise en cause que leur capacité à préserver la rémunération de leur travail. La question est toujours au cœur du débat avec la copie privée. Considérée longtemps comme une exception au droit d’auteur, il a bien fallu convenir que l’exception était devenue la règle.
Toutes les tentatives de sanctuarisation du droit d’auteur se sont successivement heurtées à un principe de réalité déterminé par la technologie et les usages. Le cimetière des techniques de contrôle, de filtrage ou de protection de type DRM est immense. Ultraviolet, le standard que tenta d’imposer l’industrie du cinéma en 2011 dont le mérite était d’être soutenu par 55 leaders (hors Apple et Disney) avait encore
le défaut de poser des contraintes, certes plus souples, mais toujours impossibles à appliquer : une famille pouvait ainsi utiliser une vidéo sur douze terminaux différents dans la limite de six personnes par foyer. Dans les faits, les voies d’accès au public sont aujourd’hui diverses et les modes de rémunération des auteurs aussi. Les éditeurs se sont, bon gré mal gré, adaptés en diffusant désormais une part dominante de versions électroniques et en réinvestissant dans leur cœur de métier. Des circuits alternatifs et courts se sont imposés, allant de la promotion directe de certains auteurs via leur propre site au financement d’artistes par les internautes. Des licences globales, un temps très contestées, ont aussi émergé. Quant aux nombreuses sociétés nationales de gestion de droits d’auteurs, elles sont enfin en train de se regrouper et discutent de la constitution d’un catalogue universel des œuvres au niveau international. Si personne n’est encore allé aussi loin que Pierre-Joseph Proudhon dans son ouvrage collectif « La propriété intellectuelle, c’est le vol ! », force est de constater que la diffusion des savoirs vient de franchir une nouvelle étape. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Le côté obscure du Net
* Jean-Dominique Séval est
directeur général adjoint de l’IDATE.

Contenus dans les nuages

Depuis la nuit des temps, il n’est pas de fête qui se respecte sans musique. Vérité immuable, alors même que les moyens techniques permettant à nos ados d’animer leurs soirées n’en finissent pas de muter : du vinyle et son pick-up des années 1960 à la K7 et son Walkman, en passant par le CD et son lecteur, jusqu’aux fichiers MP3 téléchargés sur PC qui permettaient, au tournant des années 2000, de faire défiler des playlists tout au long de la nuit. En 2010, il suffisait d’un quelconque terminal mobile pour « streamer » – par la magie du Cloud – un choix de musiques apparemment infini. Pourtant, l’informatique en nuage est sans doute presque aussi ancienne que l’Internet, puisque la virtualisation à la base du « cloud computing » remonte aux années 1960. Elle consiste à mutualiser sur un même serveur des applications tournant sur des machines différentes. Les hébergeurs et les fournisseurs de services d’applications (ou Application Service Providers) nous ont peu à peu accoutumés à ce nouvel âge de la révolution numérique, en commençant tout d’abord par quelques applicationsphares comme les services de messagerie. Si nous avions encore l’habitude d’archiver sur nos PC des contenus téléchargés auprès de pionniers comme Kazaa, Napster ou encore eMule, les usages précurseurs étaient pourtant déjà là : pourquoi continuer à stocker des fichiers sur son disque dur quand on pouvait y accéder rapidement, à tout moment et d’un seul clic ?

« Le Cloud permet de rechercher dans de larges catalogues, de stocker à distance et d’écouter en streaming : où que l’on soit, sur le terminal de son choix ».

Mais il manquait encore des offres. Elles furent inaugurées par Amazon, dès 2006,
qui chercha à rentabiliser ses investissements dans des infrastructures importantes : surdimensionnées pour les pics d’achats de Noël, mais sous-utilisées le reste de l’année. Concurrence oblige, les géants de l’Internet se sont finalement retrouvés en 2011 sur la même ligne de départ. Amazon lança son offre fremium, Amazon Cloud Drive, en proposant à ses clients des espaces d’archivage gratuits à hauteur de 5 Go, puis au-delà pour tous les albums achetés ou moyennant 1 dollar par gigaoctet additionnel. Google Music fut lancé quelques mois plus tard, après d’âpres négociations avec les majors détenteurs des droits. Le principe était toujours le même : proposer aux internautes des services incluant des fonctions de stockage, de recherche sur des catalogues étendus et d’écoute en streaming, où que l’on soit et sur le terminal de son choix. C’est ce que chercha à intégrer Apple en offrant désormais gratuitement son service MobileMe, d’abord pensé pour faciliter la synchronisation des applications de contacts, d’emails, d’agendas ou de photos entre tous les terminaux – du smartphone à la tablette en passant par l’ordinateur – puis progressivement ouvert à des services de streaming et d’archivage de musique puis de vidéos. Pour exister sur la Toile ou contrer l’hégémonie croissante des géants du Web, de nombreuses initiatives sont venues grossir le flot impétueux du fleuve Cloud. Les chaînes de télévision ont ainsi développé leurs propres mix de services (live, catch-up TV et VOD). De nombreuses start-up se sont lancées dans l’aventure de l’innovation : Deezer ou Spotify pour la musique, Netflix pour la vidéo ou encore Onlive dans les jeux vidéo. Ces dernières années ont ainsi vu se mettre en place l’écosystème complexe, mais indispensable à la multiplication de services de plus en plus gourmands, en termes de capacités de stockage et de bande passante. Le Cloud, pour fonctionner, nécessite des investissements colossaux. Des datacenters couvrant des dizaines d’hectares ont été mis en place par IBM, Dell, Google et bien d’autres, tandis que les opérateurs télécoms mettaient les bouchées doubles pour faire monter en puissance, et en même temps, les réseaux très haut débit fixe et mobile. Il reste encore un long chemin à parcourir avant que ne s’achève la mise en place de cette vaste économie des contenus dématérialisés. Même si les nouveaux majors sont désormais en place, les modèles économiques sont encore à consolider. La voix lointaine de l’étonnant Henry David Thoreau, philosophe naturaliste et visionnaire, raisonne encore étrangement à nos oreilles : « Si vous avez construit des châteaux dans les nuages, votre travail n’est pas vain : c’est là qu’ils doivent être. A présent donnez-leur des fondations ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Droits d’auteur
* Jean-Dominique Séval est directeur général adjoint
de l’IDATE. Sur le même thème l’IDATE publie
son rapport « Online Video », par Vincent Bonneau.

Opérateurs : l’ère des géants

Assis à mon bureau, j’ouvre comme chaque matin le courrier de la nuit d’un ordre vocal bref. Le premier message de la liste, déjà triée par genre, est ma facture mensuelle de communication. L’entête du courriel, au nom de Google Network, me surprend… Aurais-je changé mon abonnement pour choisir un opérateur d’un genre nouveau ? La sonnerie de réveil de mon téléphone, en déchirant les derniers lambeaux de mon rêve, m’apporte une réponse définitive à cette question. Cet épisode singulier me ramène pensif, dix ans en arrière, à une époque où des débats houleux animaient les conférences internationales des acteurs-clés de la filière des télécoms, d’où émergeaient des termes souvent ésotériques pour le commun des utilisateurs : réseaux hybrides, spectre, capex, neutralité, services managés, over-the-top, … De manière plus prosaïque, cela revient à dire que les opérateurs télécoms devaient faire face à des enjeux colossaux : mettre en place parallèlement les réseaux fixes de fibre optique et les réseaux mobiles de 4e génération, assurer la diffusion d’un ensemble de services et de terminaux de plus en plus nombreux et complexes, tout en déployant
des stratégies internationales ambitieuses. Comment s’étonner dès lors que les plus puissants d’entre eux ont rassemblé leurs forces, poursuivant une course à une taille critique sans cesse croissante. Comme s’ils s’abandonnaient à une force centrifuge les poussant sans cesse à la concentration.

« Je viens de souscrire auprès de ma banque habituelle, chef de file d’une de ces nouvelles alliances, la dernière offre septuple-play »

Cela fut par exemple le cas en 2011 aux Etats-Unis avec le rachat de T-Mobile par l’emblématique AT&T. Le relais a ensuite été pris par les opérateurs télécoms européens, qui ont fait difficilement émerger cinq champions continentaux là où dix
ans auparavant ils étaient encore près de quarante largement enfermés dans leurs territoires historiques. Ces leaders ont poussé très loin l’intégration verticale de leurs offres d’accès, de contenus médias délivrés et de services managés au sein d’un écosystème de transaction hautement fiabilisé. Il y avait d’ailleurs une certaine urgence puisque, dans le même temps, se lançaient hors de leurs frontières de nouveaux compétiteurs venus des marchés asiatiques, lesquels donnèrent naissance à des géants taillés pour gérer des centaines de millions d’abonnés.
Dans ce contexte, les opérateurs encore dans la course ont cependant su mettre en oeuvre des stratégies très différentes et faire mentir tous ceux tentés de réduire le débat à quelques slogans trop réducteurs, du genre : « Pas de salut pour les dumb
pipe ! ». C’est ainsi que l’on a vu des opérateurs investir massivement dans les réseaux pour devenir des références incontournables et être en mesure de fournir également
à l’ensemble des acteurs du Web et du Cloud des fonctions de connectivité et d’interfaces de programmation ouvertes. D’autres, à l’autre bout du spectre, ont su devenir de véritables experts en marketing avancé d’offres de communication, en composant des gammes de services et de contenus pouvant aller jusqu’à l’hyperspécialisation.
Il est une bataille, une question hautement stratégique, qui n’a toujours pas trouvé d’issue : qui sera le gestionnaire du foyer numérique ? Les fournisseurs d’accès, les plus proches de leurs clients et détenteurs des fameuses « box » à tout faire, ont su tirer leur avantage, lié à leur proximité, sans encore l’emporter face à des challengeurs. De grandes alliances se mettent en place, afin de proposer des services désormais essentiels pour gérer de manière unifiée la facturation, l’identité numérique, l’interopérabilité des services et des équipements et la sécurisation des données-clés des clients. L’opérateur télécoms de nos rêves – qui se ferait oublier derrières des offres simples à comprendre et à installer, presque transparentes, sans interruption de services et à des prix toujours très abordables – est sans doute encore à venir. Mais indubitablement les choses changent, puisque je viens de souscrire auprès de ma banque habituelle, chef de file d’une de ces nouvelles alliances, la dernière offre septupleplay qui m’assure, en plus des abonnements classiques à mes services de communication et de contenus, un service très attendu permettant de sécuriser la gestion de mon identité et de mon coffre-fort numérique. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Cloud content
* Jean-Dominique Séval est directeur général adjoint
de l’Idate. Sur le même thème l’Idate publie
son rapport « Future Telecom : Stratégies 2020 »,
par Steven Andlauer.

Prendre le numérique à la lettre

Une semaine de vacances, et c’est encore et toujours l’occasion de faire un clin d’œil amical à nos proches, en
leur faisant partager nos coups de cœur le temps d’une carte postale. Celle-ci viendra illuminer une boîte aux lettres qui n’a plus si souvent l’occasion de s’émerveiller. Le courrier se fait rare en ces temps de bourrasques numériques. Les faits sont implacables qui, année après année, ont vu s’effriter
les piliers de la poste que nous avions toujours connus.
Les postes états-uniennes ou françaises, qui distribuaient chaque année respectivement plus de 170 milliards et plus de 19 milliards d’objets, ont connu une baisse régulière des volumes traités, de plus de 20 % en dix ans. Le courrier des particuliers, qui représentait moins de 17 % de l’ensemble des revenus des envois
de correspondance en 2010, a encore vu sa part décliner en raison de l’accélération
de la dématérialisation des communications personnelles. On n’a jamais autant communiqué qu’aujourd’hui, mais différemment des époques précédentes.

« Nous commençons à nous envoyer des cartes personnalisables sur papier électronique souple utilisant les dernières générations d’encre numérique. »

Il en fut de même pour les courriers professionnels, qui ont vu leurs volumes fondre au
fur est à mesure que des solutions numériques concurrentes sont apparues, comme dans le cas des recommandés. Le maintien relatif des envois publicitaires et des colis postaux, qui bénéficièrent un temps de l’essor irrésistible du e-commerce, n’ont pas pu enrayer ce déclin. Notre fragile carte postale a été, elle aussi, emportée par la tempête virtuelle. Il est loin son âge d’or, quand – un peu plus de 40 ans après son invention
par un conseiller d’état prussien Von Stephan – il s’en vendait en France plus de 800 millions d’exemplaires pour la seule année 1914. Avec un peu plus de 300 millions distribués en 2010, les cartes postales ont su rester les témoins fidèles de nos vacances en se réinventant pour ne pas disparaître. Des e-cards accessibles sur Internet aux cartes auto-produites sur un smartphone, nous commençons aujourd’hui
à nous envoyer des cartes personnalisables sur papier électronique souple utilisant
les dernières générations d’encre numérique.
C’est peu dire que nos bonnes vieilles postes ont été soumises à rude épreuve. Dans
la foulée de la libéralisation complète du service postal, qui eut lieu le 1er janvier 2011 pour la France, nous nous demandions à quelle portion congrue le service postal universel serait bientôt réduit (comme cela arriva en son temps à la cabine téléphonique). Et que resterait-il des bureaux de postes pourtant garants d’un certain niveau de lien social pour les communes les plus démunies ? La réponse, pour la plupart des postes du monde entier confrontées à une plus grande concurrence, a tenu dans un dosage complexe de rigueur budgétaire, de travail sur leur métier de base et d’ouverture à de nouveaux services innovants. Elles ont redoublé d’efforts pour marier leurs produits historiques avec les nouvelles possibilités du numérique. Tandis que le britannique Royal Mail lançait en 2010 le premier timbre intelligent permettant à un smartphone de lire des informations embarquées grâce à l’application Junaio, la poste finlandaise testait un nouveau mode de distribution : les lettres, une fois ouvertes, sont scannées, puis envoyées en PDF par mail à leurs destinataires. En France, La Poste lançait au même moment un nouveau service, Digiposte, donnant accès à une boîte mail sécurisée, ainsi qu’à un coffre fort virtuel permettant à chacun d’archiver toutes sortes de documents : courrier, factures, bulletins de paie, relevés bancaires…
Il est bien révolu ce temps où une marquise enchantait l’Europe de ses lettres et où
un Voltaire inondait ses contemporains d’un flot épistolaire étourdissant. Se souvient-on encore que, pour faire passer un ou deux sacs de lettres, quelques héros de l’Aéropostale défiaient dans leurs avions de toiles les océans, les cimes et les déserts. François, le facteur de Jacques Tati, qui pouvait en 1949 se lancer dans une folle tournée à l’Américaine le temps d’un inoubliable jour de fête, regarderait bouche bée ce lointain cousin du futur se déplaçant en véhicule électrique. Ce nouveau facteur rend des services qui vont désormais bien au-delà de la livraison de quelques lettres et d’un
journal autrefois tant attendus. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Les opérateurs télécoms
* Directeur général adjoint de l’Idate.