Des ebooks plein les poches

Avant de l’être par des terminaux numériques, mes poches ont longtemps été déformées par les bouquins. Trimbalés, annotés et cornés, ces livres de poche étaient pour moi
un univers familier, facile d’accès et inépuisable. Moins intimidants que les grands formats, ils ont permis à des générations d’ados d’accéder simplement à tous les genres littéraires. Librairies, bouquinistes, bibliothèques familiales
ou collectives, étagères des copains étaient autant d’endroits où l’on pouvait découvrir un auteur en « Livre de poche ».
Et l’emporter partout avec soi, le temps d’une lecture. Pour l’adolescent d’aujourd’hui,
celui qui lit encore, la découverte d’un livre se fait le plus souvent sur la Toile, au détour d’un « search », d’un « surf » ou d’une recommandation sur les réseaux sociaux, lorsque ce n’est pas en consultant sa bibliothèque en ligne personnelle dans le « cloud ». Et son choix ne se fait plus entre deux ouvrages rivalisant de couverture attrayante sur une même étagère, mais entre un ebook, une vidéo ou une émission en direct. Le glissement
a été général et le rapport à l’écrit, la gestion du temps et les références collectives ont profondément changé. Rares sont les lecteurs de 2020 qui évoquent encore avec nostalgie le toucher et l’odeur du papier des livres d’antan.

« Les éditeurs proposent l’ebook en même temps que la sortie du livre papier grand format, mais avec une décote de plus de 35 % »

En matière d’édition, il n’y a rien de stable ni d’éternel. Les succès de Balzac, de Sue ou de Dumas ne furent-ils pas des feuilletons publiés dans la presse avant d’être les livres qui nous les ont fait connaître ? Le livre à petit prix est apparu très tôt, puisque dès 1905 les éditions Jules Talendier commercialisaient des romans populaires sous l’appellation Livre de poche, marque rachetée ensuite par Hachette. Mais c’est en Allemagne que fut lancé en 1931, par Albatross Books, ce nouveau format repris en 1935 par l’inamovible collection Penguin Books, dont le succès des premiers Paperbacks fut immédiat au Royaume-Uni. Aux Etats-Unis, c’est en 1939 que Simon & Schuster créa une collection similaire au nom devenu générique de Pocket Books. En France, le véritable lancement du label Livre de poche date de 1953 : Henri Filipacchi réussit à convaincre plusieurs éditeurs. Les concurrents lui emboîtèrent le pas. J’ai Lu, Folio, 10/18 ou Que sais-je ? sont autant de noms et de marques qui tentent aujourd’hui de continuer l’aventure dans
le monde numérique.
Il a cependant fallu du temps pour que l’on retrouve pleinement, avec l’ebook, les bénéfices du Livre de poche. Le monde bousculé de l’édition a bien essayé de mettre
en place une nouvelle hiérarchie pour tenter de gérer, sinon de contrôler, la transition inéluctable du livre papier vers le livre numérique : une véritable chronologie du livre, comme il y eu pendant longtemps une chronologie des médias pour les films. Celleci préexistait d’ailleurs à l’ebook. Jusqu’en 2010, le scénario était bien rodé : un à deux
ans après la sortie du livre en grand format, sortait la version poche, qui permettait de prolonger la vie de l’ouvrage tout en lui assurant une diffusion plus large. L’arrivée du numérique a, comme pour le cinéma, exercé une pression nouvelle, poussant au raccourcissement des délais : dès 2011, plusieurs éditeurs américains avouaient l’avoir réduit d’un an à six mois entre le grand format papier et l’ebook. A cette compétition nouvelle entre les supports s’est ajouté un réglage délicat de la hiérarchie des prix. Au début, la version électronique d’un best-seller pouvait être jusqu’à deux fois moins chère que sa version grand format. En revanche, l’ebook n’était généralement pas moins cher que le livre de poche. Mais cette position ne pouvait être tenable plus longtemps. Les éditeurs ont alors opté pour une tarification dynamique de l’ebook, en le proposant en même temps que la sortie du livre grand format avec une décote de plus de 35 %.
Au moment de la sortie du format poche, une seconde baisse du prix de l’ebook était proposée cette fois légèrement inférieure à la version papier.
Qu’aurait dit Jean-Paul Sartre d’une telle évolution, lui qui posait la question dans
Les Temps modernes: « Les Livres de poche sont-ils de vrais livres ? Leurs lecteurs sont-ils de vrais lecteurs ? »… mais pour mieux les soutenir. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : La face cachée du Web
* Directeur général adjoint de l’IDATE.
Sur le même thème,
l’IDATE publie chaque année son rapport
« ebooks : marchés et perspectives », par Sophie Lubrano.

Terminal ouvre-toi !

Aujourd’hui comme hier, un même rêve reste encore inaccessible : quel que soit le terminal utilisé (smartphones, tablettes, télévisions, …), quels que soient les applications
et services concernés (musique, vidéo, vie pratique, …),
je passe des uns aux autres sans plus me soucier de compatibilité ou de disponibilité. Autant de contraintes dépassées. Autant d’obstacles levés. Seuls comptent les contenus et les services délivrés, toujours accessibles.
Les terminaux – simples écrans de taille différentes selon
les lieux et les usages, avec leurs cortèges d’applications – sont devenus des commodités, certes indispensables, mais qui savent se faire oublier. Il me suffit de demander à haute voix ce dont j’ai besoin, et quelque part un écran s’allume pour me satisfaire, dans ma poche, sur mon bureau ou dans mon salon. Les progrès vers l’interopérabilité des systèmes d’exploitation (OS), Graal des développeurs et des utilisateurs, n’est cependant pas pour tout de suite. Les magasins d’équipements sont encore bien remplis d’un bric-à-brac complexe. Il faut se souvenir que l’univers numérique fut à l’origine une addition de mondes clos, les téléphones mobiles ayant été conçus dès le début comme des terminaux fermés : chaque constructeur en maîtrisait autant le hard que le soft. Cet ensemble d’univers parallèles, forgés au cœur des télécoms, a été anéanti par le big bang de l’Internet. Une course de vitesse a alors été lancée : quels seraient les rares élus à se partager le contrôle du terrain hautement stratégique des OS ? Les équipementiers historiques se sont lancés dans la bataille mais n’ont pu que regarder, impuissants, l’arrivée de nouveaux entrants.

« Les terminaux sont devenus des commodités. Mais le progrès vers l’interopérabilité des systèmes d’exploitation (OS) n’est pas pour tout de suite. »

 

Avec le lancement de l’iPhone en 2007, Apple a réinventé de manière magistrale, et à son seul profit, un monde fermé visà- vis de l’extérieur mais ouvert à l’échelle de l’ensemble
de sa gamme. Très peu ont été en mesure de le suivre sur ce terrain, où il a conquis une position unique : son iOS capta rapidement une part du marché des smartphones qui monta, en seulement trois ans, à 20 %. Deux ans plus tard, en 2009, c’est Google qui se lança dans l’aventure en proposant Androïd – son système ouvert – à la communauté des équipementiers et des opérateurs. Arrivée au bon moment, il se tailla une part de marché de 40 % en à peine deux ans.
Alors que Nokia tentait de sauvegarder sa position dominante par une alliance avec Microsoft, dont l’OS Windows Mobile était malmené, Samsung se jetait dans le bain avec Bada : en faisant le pari que non seulement son OS équiperait autant ses smartphones que ses tablettes et téléviseurs connectés, mais aussi qu’il serait utilisé par d’autres constructeurs grâce au « code source » proposé à partir de 2012. La même année RIM présentait BBX, son nouvel OS qui portait une grande partie des espoirs de relance du Blackberry. La plupart des autres équipementiers, comme LG Electronics, jouèrent la prudence, par manque d’atouts, d’ambition ou simplement de place.
Certes, l’ouverture a continué de progresser, mais certains « wallen gardens » ont été
en mesure de résister comme celui d’Apple qui, entre temps, s’était relancé à la conquête du téléviseur : une nouvelle occasion pour la marque à la pomme d’élargir encore son domaine réservé et sa surface financière, la tentation étant trop grande de reproduire
avec la TV – aux interfaces encore pauvres et anti-ergonomiques à l’époque – ce qu’il avait réussi dans le mobile. D’autres, peu nombreux, ont malgré tout tenté l’aventure. Facebook voulut reproduire la prouesse de Google en lançant à son tour, peu après 2015, son propre OS mobile. Fort de ses 2 milliards d’utilisateurs, il ne lui était en effet plus possible de rester, sur les terminaux de ses fans, une application parmi tant d’autres. C’est une logique différente qui poussa plusieurs acteurs chinois à lancer, entre 2011
et 2012, leurs propres OS mobile : China Unicom sortait Wophone ; le moteur de recherche Baidu finalisait Qiushi ; le site de e-commerce Alibaba confirmait Aliyun !
Autant de stratégies de conquêtes qui s’appuyèrent néanmoins sur une compatibilité
totale avec Android, reconnaissant ainsi que la grande époque des citadelles isolées
était bien révolue. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Chronologie du livre
* Directeur général adjoint de l’IDATE. Sur le même thème,
l’Idate publie l’étude « LTE Devices »,
par Frédéric Pujol, et organise le DigiWorld Summit 2011
sur le thème « Will the device be king ? »

La greffe TNT- IPTV

Lorsqu’il s’agit de télévision, nous avons tous des souvenirs, des nostalgies : programmes de notre enfance, avènement de la couleur, multiplication progressive des chaînes, ….
Il en est un autre qui m’est revenu en me repassant le film
de l’aventure de la télévision hertzienne. L’électricien de notre village de Lozère était régulièrement mobilisé pour régler, souvent au plus fort de l’hiver, la frêle et fragile antenne qui délivrait à la population les trois chaînes alors disponibles. Ce Mike Giver de nos campagnes a depuis longtemps disparu, le village recevant désormais la télévision par satellite, en mode IPTV sur ligne téléphonique ou via la TNT (télévision numérique terrestre). Cette dernière devint le seul mode de réception hertzien à la suite de l’extinction du signal analogique en 2011. Fin d’une aventure qui aura traversé tout le XXe siècle. Mais ce ne fut pas la mort de la diffusion hertzienne car la promesse de la TNT a été en grande partie tenue : permettre
à tous, et sur tout le territoire, de recevoir un bouquet de télévision gratuite d’une vingtaine de chaînes, avec un enrichissement progressif de programmes en haute définition et de services interactifs.

« La TV connectée a encore bousculé les règles du jeu,
en ouvrant grande la porte à la diffusion délinéarisée
et en s’affranchissant des grilles des chaînes »

 

Lancée en 2005 en France après quelques tâtonnements, après les précurseurs britanniques et espagnols, la TNT française a freiné l’érosion de la télé hertzienne qui représentait encore le mode de réception dominant pour plus de moitié des ménages.
La concurrence déjà ancienne du satellite et du câble, confrontée à une lente érosion
de leur part de marché, eut un renfort de poids avec le développement rapide de l’IPTV – dopé par la nouvelle montée en débit permise par le déploiement combiné de la fibre et
du VDSL2 à 100 Mbits/s – qui passa à plus de 30 % des foyers équipés en 2015 pour dépasser les 50 % aujourd’hui. Dans de nombreux pays européens où ne dominent ni
le câble ni le satellite, ce succès doit beaucoup au couplage de la distribution de l’accès d’Internet et de la télévision. Ce fut la stratégie privilégiée des fournisseurs d’accès des pays où il n’existait pas, ou peu, d’offres de télévision multi-chaînes gratuites, comme en France, en Italie ou en Espagne.
Cependant, la performance du réseau ne fait pas tout, loin s’en faut, comme l’a montré
le succès mitigé rencontré par les services de contenus distribués par les opérateurs télécoms, du moins en Europe : difficulté pour accéder aux chaînes premium des grands éditeurs de télévision à péage, très faible profitabilité des services de vidéo à la demande (VOD), gratuité des services de TV de rattrapage, absence d’attractivité des services de VOD par abonnement. Ces difficultés à valoriser les offres de télévision n’est cependant pas une fatalité. La télévision à péage britannique Sky a su conjuguer enrichissement du service et croissance des revenus grâce au « multi room », c’est-à-dire la distribution du service de télévision sur plusieurs téléviseurs et, surtout, à un décodeur haute définition équipé d’un disque dur. C’est cette voie que les opérateurs télécoms ont tenté d’explorer par le développement des set-top-boxes haut de gamme, facturées en option au-delà
du service d’accès de base. Ce ne fut pas le moindre des paradoxes de voir un Free,
« inventeur » du triple play à prix unique, sortir en 2010 l’IPTV de son package de base, quitte à perdre des abonnés.
La télévision connectée a encore bousculé les règles du jeu, en ouvrant grande la porte à la diffusion dite OTT (services over the top de TV délinéarisée par opposition aux services managés fournis via les box des opérateurs) et en s’affranchissant des grilles de programmes des chaînes.
Une troisième voie a été ouverte par l’apparition de décodeurs hybrides TNT-Internet
haut débit. Ces offres, aujourd’hui très populaires, combinent un bouquet de chaînes de télévision linéaires et des services à la demande OTT. Ce modèle économique repose
sur la vente ou la location du décodeur, une commission de distribution des services VOD apportant un complément de revenus. Une évolution qui soulage le réseau de la bande passante réservée à l’IPTV et renforce encore l’attrait pour le consommateur des box multi-fonctions. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Terminal ouvre-toi !
* Directeur général adjoint de l’IDATE.
Sur le même thème, étude « Future Television : Les
scénarios de la migration Internet », par Gilles Fontain

Le siècle des lumières

La célèbre course du lièvre et de la tortue permet de décrire assez fidèlement celle qui a vu s’affronter, durant plus de trois décennies, la fibre optique à la paire de cuivre. Même
si, dans ce cas, nous n’en connaissons pas encore l’issue. Le réseau historique de cuivre, plutôt lent au départ, est toujours bien présent aujourd’hui. Qui eut pu prédire une telle longévité ? Il est vrai que la fibre a pris son temps : à la fin
de 2010, on ne comptait encore que 2% d’abonnés FTTH (Fiber-To-The- Home) en France. La paire de cuivre est, quant à elle, apparue à la fin du XIXe siècle quand il fallut remplacer le réseau existant
du télégraphe. On a même pensé un temps pouvoir faire l’économie de la construction d’un nouveau réseau, en tentant de faire passer les conversations téléphoniques sur
les fils métalliques du réseau télégraphique ! Mais on s’est rapidement rendu compte
que transmettre des communications téléphoniques nécessitait deux fils pour une même liaison. Il fallut donc se résigner à construire un réseau totalement nouveau. Mais à peine les premiers circuits interurbains installés, on dut, pour aller plus loin, lutter contre l’affaiblissement du signal en augmentant tout d’abord le diamètre des fils. Cela fut rapidement une limite, on y ajouta des répéteurs, innovation permise par l’extraordinaire invention des triodes au début du XXe siècle. Cette quête, poursuivie par tant de générations d’ingénieurs visant à faire reculer les limites de la paire de cuivre, ne s’est, dès lors, plus arrêtée.

« La fibre optique a mis du temps à décoller, notamment
en raison de la qualité du réseau de cuivre permettant aujourd’hui de tutoyer les 500 Mbit/s »

La plus étonnante bataille est sans doute celle qui a fait entrer l’antique réseau dans l’ère du numérique et d’Internet. Celà fut ensuite possible grâce aux travaux des équipes des laboratoires BellCore commencés en 1987 et de John Cioffi, professeur à Stanford, souvent présenté comme le père du DSL (Digital Subscriber Line). C’est pourtant en Europe que le lancement commercial eut lieu grâce aux efforts conjugués des équipes d’Alcatel et d’opérateurs qui lancèrent leurs premières offres commerciales : dès 1997 pour le suédois Telia, et en 1999 pour France Telecom. Pendant ce temps, l’Asie faisait
le choix de la fibre optique, comme un pari sur l’avenir, en se dotant de réseaux couvrant rapidement toute un Etat, comme le Japon et la Corée du Sud ou en se dotant d’équipementiers, leaders mondiaux dans leur catégorie, tels que les chinois Huawei
ou ZTE.
Aujourd’hui, un pays comme la France affiche un taux de pénétration du FTTH d’environ 50 %, car la demande a mis du temps à décoller malgré des tarifs attractifs dès le début. L’une des raisons tenait sans doute à la qualité du réseau de cuivre permettant de supporter les progrès croissants des performances du DSL. En 2011, Alcatel-Lucent lançait sur le marché une technologie aux prouesses annoncées en 2006 – la vectorisation VDSL2 – permettant des débits de 100 mégabits par seconde (Mbits/s). Cette limite a depuis encore été repoussée pour venir tutoyer aujourd’hui les 500 Mbits/s. Cela n’a cependant pas remis en cause la complémentarité de ces deux technologies, notamment en raison des qualités intrinsèques de la fibre, en mesure de délivrer un débit garanti quelle que soit la distance. Si, en théorie, cet éventail de possibilités est un atout et permet de graduer la montée en puissance de réseaux en optimisant les investissements et les stratégies des différents opérateurs, cela a jeté un certain trouble dans les débats entre « pour » et « contre » la fibre. Les économistes s’affrontent par exemple sur l’opportunité de monter ou baisser le prix du dégroupage de la boucle locale de cuivre pour accélérer ou non le saut technologique vers le VDSL3. Tandis que certains pays comme l’Australie ont rattrapé le Japon et la Corée du Sud avec plus de 90 % de la population raccordable à 100 Mbits/s.
Couvrir l’Europe en fibre optique se révèle être encore un très grand et long chantier. L’âge du cuivre ne laisse que progressivement la place au siècle des lumières. Le
« De quoi vous sert votre vitesse ? », demandé par la tortue au lièvre de la fable de
La Fontaine, pourrait être repris par le cuivre qui ajouterait sans doute « … si vous
n’êtes pas raccordé ! ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : TNT versus IPTV
* Directeur général adjoint de l’IDATE.
Sur le même thème, « Enquête Très Haut Débit :
Comprendre les mécanismes de migration des abonnés
Grand Public », par Valérie Chaillou et Anne Causse

e-Mémoires

En attendant un rendez-vous, je profite du beau temps
pour travailler dans un parc à proximité . Mon bureau portatif, une tablette et quelques accessoires indispensables, est avant tout une extension de ma mémoire, un accès simple
et instantané à mes archives, quelles qu’elles soient, professionnelles ou personnelles : texte, image, musique
ou vidéo, annuaire, agenda ou comptabilité.
Pour moi, qui n’a pas la mémoire dont j’avais rêvé, c’est
bien plus qu’une aubaine ! Il s’agit à proprement parler d’un miracle, renouvelé chaque jour, simplement, grâce à un ensemble de prothèses numériques. Pendant des millénaires, l’humanité a cultivé et enseigné les fondements
de l’Ars memoriae, en transmettant notamment la méthode des lieux, joliment appelée
« Palais de mémoire », qui consistait à découper un texte à retenir pour en ranger les parties dans différentes pièces en les associant à des images saisissantes. Ce serait
là d’ailleurs l’une des fonctions primordiales des enluminures dans les manuscrits médiévaux, selon les toutes dernières recherches en la matière. Durant tous ces siècles de rareté du livre, mémoriser était un exercice essentiel, même si, comme aujourd’hui, l’hypermnésie suscitait l’admiration, comme en son temps un Giordano Bruno qui poussa très loin cet art mémoriel. Alors que ces pratiques sont oubliées depuis longtemps, nous sommes encore loin des récits d’anticipation annonçant une extension de nos mémoires naturelles par une combinaison d’implants de puces à ADN associés à une meilleure maîtrise des performances des capacités naturelles de notre cerveau rendue enfin accessible par les progrès de la neurologie et des nanotechnologies.

« L’indexation en temps réel des “e-souvenirs” bénéficie aujourd’hui des progrès des nouveaux moteurs de recherche. »

En attendant, des projets étonnants ont vu le jour. Comme le projet Total Recall, commencé en 1998 par Gordon Bell, chercheur chez Microsoft, qui se lança dans la numérisation de sa propre vie. Avec l’aide d’un matériel léger accroché autour du cou (micro, caméra, …), cet explorateur de lui-même, garde la trace de tous ses documents (photos, annuaires, factures, livres, vidéos,…) et des événements personnels (conversations téléphoniques, messageries instantanée, entretiens, …). Cette expérience de laboratoire, et celles qui suivirent in situ, ont eu le mérite de poser toutes les questions. Techniques d’abord : pour être réalisable, il fallait compter sur le développement exponentiel de capacités de stockage ; le prix du téraoctet (1.000 Go) était déjà passé sous la barre des 100 euros en 2010, pour atteindre les 75 euros aujourd’hui pour environ 250 téraoctets (To) de mémoire. De quoi enregistrer des dizaines de milliers d’heures de vidéos et des millions de photographies. Disposer des ressources de stockage, combinant simplement le local et le « cloud », a apporté une réponse pratique à la question cruciale de la conservation de nos données. Alors que nous n’avions jamais eu autant de témoignages de nos vies, nos archives ont longtemps été vulnérables en raison du changement régulier des générations de supports fragiles : disquettes, CD, DVD, clé USB, carte SD, disque dur. Si la question technique du stockage a finalement été la plus simple à régler, l’organisation de telles quantités de données a été en revanche plus complexe : l’indexation en temps réel des « e-souvenirs » bénéficie aujourd’hui des progrès des nouveaux moteurs de recherche.
Quant aux usages, ils font l’objet d’un débat qui fait actuellement rage. Certains sont clairement vécus comme des avantages : un élève peut se repasser les moments clés d’un cours ; un patient dispose de l’enregistrement continu de ses paramètres vitaux pour faciliter le diagnostic de son médecin. D’autres posent des questions auxquelles nous n’avons pas encore de réponses : peut-on filmer notre entourage sans porter atteinte à leur droit à l’image ou même à leur vie privée ? Comment se prémunir contre le piratage
de sa « e-mémoire », ou de son utilisation à des fins policières et juridiques ? Si, à cette occasion, la notion de journal intime, de prise de notes et de verbatim a pris un caractère nouveau, nombreux sont ceux qui, d’une matière ou d’une autre, souhaiteraient faire leur cette remarque d’Alfred Jarry : « L’oubli est la condition indispensable de la mémoire ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : VDSL versus fibre
* Directeur général adjoint de l’IDATE.