Le dernier des Minitels

Accéder à des services en ligne à partir de tous mes terminaux, fixes ou mobiles, c’est bien la moindre des choses aujourd’hui. Ce service extraordinaire, dont nous
ne pourrions plus nous passer, est apparu en France en 1982, sous une marque qui est devenu aujourd’hui un nom commun : le Minitel. L’innovation de l’opérateur historique France Télécom a rapidement conquis 25 millions d’utilisateurs en 1982 et permis la mise en place d’un écosystème de développeurs et de prestataires de services, autour de ce qu’on appelait alors la télématique. Ce succès planétaire, qui nous surprend encore, tient à une série de conjonctions favorables que nul n’aurait pu prédire. Car dans la foulée, d’autres opérateurs européens ont adopté ce qui est devenu un standard pour toute la communauté. D’autres pays ont été conquis comme le Japon et, plus récemment, les Etats-Unis qui n’ont jamais réussi à développer hors de leur frontière le réseau Arpanet… L’accélération s’est produite à l’occasion de la transposition réussie du modèle Minitel aux mobiles en bénéficiant de la domination internationale de la norme GSM… L’Europe des télécoms, puissante à la fin du XXe siècle, a ainsi non seulement maintenu ses positions mais les a aussi renforcées en entrant dans le XXIe…

« L’écosystème d’Apple est très proche de cet ancêtre
par son modèle fermé, sa maîtrise complète de la chaîne,
du développement jusqu’à la facturation. »

Je ne vais pas maintenir plus longtemps cette fiction, qui ferait une très belle « uchronie » mais qui est, comme vous le savez bien, tellement éloignée de la réalité. Malgré son succès national, le Minitel n’a pas pu mener la bataille de l’Internet. Il a pourtant vaillamment résisté en passant sur la fin à la couleur ou en affichant des images au
format Jpeg. Mais son modèle centralisé, accessible par un terminal sans ressource propre, n’a finalement pas fait le poids face à la promesse d’un Internet ouvert utilisant le potentiel d’ordinateurs de plus en plus puissants. Il a rejoint le cimetière des merveilles technologiques, en avance sur leur temps et difficile à exporter, comme le Concorde,
ou ailleurs le MiniDisc, Second Life ou la navette spatiale. Les armes ont finalement été rendues le 30 juin 2012, date de l’arrêt officiel, malgré l’existence d’encore 400.000 minitélistes. Pourtant, si le Minitel est bien mort, le modèle kiosque à l’origine de son succès lui assure, d’une certaine manière, une postérité prestigieuse. Takeshi Natsuno, responsable du développement chez NTT DoCoMo déclarait s’être directement inspiré du Minitel pour définir les principes de l’i-Mode, qui, lancé dès 1999 au Japon, fit du mobile un terminal incontournable pour accéder à des milliers de services. L’écosystème gagnant d’Apple est également très proche de cet ancêtre par son modèle fermé, sa maîtrise complète de la chaîne, du développement jusqu’à la facturation. C’est d’ailleurs cette redistribution des rôles, favorable au monde de l’Internet, qui a poussé les opérateurs télécoms, sur la défensive, à tenter d’exporter les recettes du Minitel sur Internet. Au Japon, NTT DoCoMo, pour tenter de contrer le succès de l’iPhone qui profitait à son concurrent Softbank, lança un portail de téléchargement d’applications pour sa plateforme i-Mode. En France, les opérateurs lancèrent en 2011, des offres de type kiosque. Connues sous les noms d’Internet+, de SMS+ et de MMS+, ces solutions permettaient aux éditeurs et annonceurs de proposer à leurs clients des contenus et services par Internet, SMS ou MMS via un numéro court à 5 chiffres. Ces plates-formes techniques géraient en temps réel les transactions des commerçants pour des montants de moins de 30 euros, l’identification des internautes, les achats, la facturation et les reversements, comme au bon vieux temps du Minitel. Seuls quelques opérateurs télécoms puissants ont pu mettre en place de telles stratégies, proposant des offres de services avec système de facturation intégré. Cette évolution s’inscrit dans une tendance de fond d’un Internet qui évolue vers un modèle de plus en plus contrôlé, non pas par l’Etat, mais par les opérateurs pris au sens large. Et seuls une certaine nostalgie et un goût immodéré du « vintage » me permettent d’accéder à ma boutique sur Facebook via une fenêtre reprenant l’aspect pixélisé de notre bon vieux Minitel. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : OFNI contre OFPI

La géolocalisation m’a sauvé !

J’en ai encore les genoux qui tremblent ! Je viens d’échapper à un terrible accident de la circulation. Je ne dois mon salut qu’à ma nouvelle voiture équipée, entre autres merveilles de l’électronique embarquée, d’un système LBS (Location Based Service). Mon véhicule est ainsi connecté
à un service adopté par l’ensemble des constructeurs permettant de localiser tous les autres véhicules autour du mien. C’est ainsi que le camion, qui fonçait sur moi au mépris d’un feu rouge impuissant, en étant identifié en temps réel comme une menace, a été dévié de sa funeste trajectoire. Même si je savais que je disposais de cette nouvelle protection, le fait de l’avoir testé en réel m’a quand même pas mal secoué. Ce service, disponible depuis peu sur les véhicules de série, est le résultat de programmes de recherche très ambitieux, parmi lequel le projet SimTD qui réalisa ses premières expérimentations en 2011. Mettre en place des solutions de « Car-to-X Communication » n’était pas une mince affaire, en ce qu’il fallait pouvoir coordonner les informations en temps réel de différentes natures : trafic, météo, signalisation routière, observation vidéo, position des véhicules, etc. D’importants moyens y furent consacrés afin de sauver les vies des 35.000 Européens qui trouvaient encore la mort chaque année sur la route, mais également pour réduire le coût des embouteillages qui pouvaient être estimé – rien que sur les routes allemandes – à 17 milliards d’euros par an. C’est ainsi que nos voitures sont aujourd’hui capables de nous avertir de la présence de verglas ou d’eau sur la route, des accidents ou du freinage brutal d’un véhicule, de travaux, ainsi que de l’état des feux d’arrêt ou des panneaux électroniques à proximité. Sans parler des informations sur l’emplacement de parkings gratuits et bien d’autres services Internet à valeur ajoutée.

« Mon véhicule est ainsi connecté à un service
embarqué et adopté par l’ensemble des constructeurs, localisant tous les autres véhicules autour du mien. »

Et grâce à la diffusion massive des smartphones, il est possible d’obtenir des services de plus en plus puissants à partir des informations localisées des boutiques, des restaurants ou encore des prévisions météos. L’acronyme SoLoMo, utilisé pour « SOcial, LOcal, MObile », décrit bien cette combinaison des trois éléments clés du LBS mobile. Le graphe social y joue un rôle essentiel, grâce à la puissance des recommandations donnant du crédit aux informations localisables. Les utilisateurs de ces services géolocalisés embarqués étaient déjà plus de 136 millions en 2012, rien que dans l’Union Européenne, pour dépasser les 400 millions aujourd’hui. Mais la monétisation de ces nouveaux services restait toujours difficile : les revenues issus de tels services étant toujours en retrait sur leur diffusion : à peine plus de 200 millions d’euros en 2012 en Europe. Mais au rythme d’une croissance rapide, ils dépasseront les 2 milliards d’euros cette année. Ils ont d’abord, le plus souvent, été une source d’enrichissement et de valorisation de services préexistants, hésitant entre services intégrés gratuitement et services payants. Mais le modèle publicitaire a fini par capter une part importante de la valeur, au fur et à mesure que la puissance de la géolocalisation permettait de pousser efficacement des messages ou des promotions à des utilisateurs entrant ou sortant d’une zone précise. Les perspectives attirent sans cesse de nombreuses start-up, qui buttent cependant souvent sur la difficulté de grandir seules. Car ces services n’ont de sens qu’en étant combinés à d’autres, souvent maîtrisés par les géant de l’Internet. C’est ainsi qu’eBay fit l’acquisition en 2011 de Where, une société qui propose un service de géolocalisation de bars et restaurants, ainsi que de publicité locale sur téléphones mobiles. Wallmart a suivi en prenant le contrôle de Kosmix, tandis que Groupon s’emparait de Whrll. Facebook fit de même avec Gowalla, service de “réseautage” social géolocalisé, fermé l’année suivante. Si c’est la fatalité des services LBS mobile d’être une brique essentielle de nos services, convoitée par les puissances du Net, il faut désormais également aller chercher les nouvelles pousses du domaine du côté de la Chine où naquirent les Jiepang, Qieke et autre Kaikai. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : feu Minitel
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son
rapport « Mobile LBS (Location–based services) : From
traditional navigation to social check-in », par Soichi Nakajima.

Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.

DigiWorld : la dérive des continents

L’Europe numérique d’aujourd’hui présente une image bien troublée, qui vient essentiellement du décalage accru entre
la diffusion des usages, chaque jour plus importante, et la maîtrise de ces technologies venues très majoritairement d’autres continents. Bien sûr, cette évolution s’inscrit dans un contexte économique bien plus large. Le monde multipolaire annoncé est bien là, succédant à la « triade » (Amérique du Nord, Europe occidentale et Asie-Pacifique) conceptualisée par Kenichi Ohmae, qui nous servit de grille de lecture durant toute la seconde moitié du XXe siècle. Mais cette approche statique s’inscrivait dans la vision longue que nous enseigna Fernand Braudel, du déplacement des économies des mondes de l’Est vers l’Ouest, de Rome à San Francisco, Jacques Attali proposant à sa suite sa vision des nouveaux équilibres intégrant la Chine, Le Brésil, l’Inde et, à plus long terme, l’Afrique. Nous voici donc au cœur d’un basculement historique, qui s’est produit précisément au tournant des années 2010.

« Le Vieux Continent n’a pas su maintenir ses champions, dont les plus prestigieux – notamment dans les télécoms – se sont peu à peu retrouvés isolés et fragilisés. »

L’Europe numérique représentait encore 28 % du marché mondial en 2012, en seconde position derrière l’Amérique du Nord mais en retrait face à l’Asie en pleine croissance. Cette différence s’est encore creusée sous la pression des dettes européennes. Sur les trois dernières décennies, de 1990 à 2020, les marchés du « DigiWorld » ont ainsi connu trois cycles, de plus en plus courts avec des plafonds de croissance de plus en plus bas. La croissance annuelle des marchés numériques était de plus de 15 % au long des années 1990 (plus précisément depuis 1993), avant de connaître un ralentissement brutal à l’éclatement de la bulle Internet. Après 2003, la croissance s’est à nouveau accélérée, mais n’atteignant cette fois-ci que 7 %, avant d’être à nouveau frappée par la crise économique globale à partir de l’automne 2008. La reprise ne permis de retrouver que des niveaux modestes de croissance, à moins de 5 % au cours des deux années suivantes. La maturité de ces marchés s’est ainsi traduite par une « commoditisation » progressive des TIC, lesquelles – en devenant des biens et services de base et de masse – ne progressent plus que faiblement en valeur. Même les services Internet n’y échappent
pas : leur croissance repose entièrement sur un effet volume. Quant aux prix, non seulement ils n’augmentent pas mais ils sont souvent sans commune mesure avec ceux des produits et services auxquels ils se substituent : par exemple, la VoIP remplaçant
la téléphonie commutée, les offres « illimitées » de musique en ligne par rapport aux ventes de CD ou encore les films en VOD bien moins chers que les billets de salles
de cinéma. Cette dérive des continents tend de plus en plus à isoler l’Europe au profit
des économies émergentes, en la soumettant à une autre pression : la dépendance technologique et industrielle. Le Vieux Continent n’a pas su maintenir ses champions,
dont les plus prestigieux – notamment dans les télécoms – se sont peu à peu retrouvés isolés et fragilisés. Les réseaux très haut débit européens sont très en retard, et la stratégie d’innovation et industrielle inexistante. L’Europe des contenus, ce carburant de l’économie numérique, n’a pas non plus été valorisée : ni par l’émergence de productions à succès continentales et internationales, ni par la constitution de groupes médias pan-européens puissants. Mais nous entrons dans une décennie marquée par la banalisation d’une nouvelle étape de l’Internet structurée par la mobilité, le cloud et le big data. Le seul espoir vient du nouveau cadre européen politique et réglementaire mis en place à la faveur de la crise historique. Les TIC y sont au cœur, intégrant pour la première fois dans un ensemble géographique cohérent : R&D, financement de l’innovation, infrastructures essentielles, création des contenus et diffusion des usages. Elles sont également
l’une des conditions-clés de la réussite de l’entrée de l’Europe dans ce que certains économistes, dans la foulée d’un Jeremy Rifkin, décrivent comme la troisième
révolution industrielle, celle de l’énergie et des nouvelles technologies de l’information décentralisée. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Datacenters
* Directeur général adjoint du DigiWorld Institute bye l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« DigiWorld Yearbook » coordonné par Didier Pouillot,
directeur de la business unit Stratégies.

Le Net Art n’a pas de prix

Cela fait bien longtemps que l’art est sorti du cadre de la toile (pas du Web, celle du peintre !) pour partir à l’assaut de tous les supports, expérimenter toutes les formes plastiques et transgresser les frontières de toutes les disciplines. Le fabuleux XXe siècle a, de ce point de vue, opéré toutes les ruptures. Jusqu’à flirter avec la tentation de la fin de l’art avec, par exemple, la salle vide d’un Yves Klein en 1958, reprise en 2009 dans une exposition un rien provocante au Centre Pompidou, intitulée « Vides, une rétrospective » : neuf salles vides d’artistes différents…
Internet est devenu, pour les artistes, un nouvel outil au potentiel encore à découvrir. L’art y est présent non seulement à travers des créations d’œuvres originales, réalisées pour ce média, mais également via des catalogues ou galeries en ligne. A l’instar des initiatives « Google Art Project », visant à organiser nos visites virtuelles de tous les musées du monde, ou « Web Net Museum », site original dédié à exposer la nouvelle culture numérique. Mais le Net est également devenu, selon les cas, un puissant allié ou un perturbateur du commerce de l’art.

« Au-delà des artistes, c’est bien tout le marché international de l’art qui est bouleversé par les
forces de ‘’désintermédiation’’ du Net »

Il est d’ailleurs intéressant de noter que l’art en ligne est né bien avant Internet. C’est
ainsi que Roy Ascott, pionnier de l’art télématique, créa sur réseau IP Sharp, une oeuvre éphémère, « La plissure du texte », au Musée d’Art moderne de la Ville de Paris en 1983. Le Minitel fut également un média que s’approprièrent les artistes comme Fred Forest, pionnier de l’art vidéo puis du Net.art avec son Zénaïde et Charlotte à l’assaut des médias en 1989. D’autres se saisirent d’Internet grand public dès ses tous premiers pas en 1994, avec notamment les œuvres « Waxweb », de David Blair, et « The File Room », de Muntadas, toujours en ligne et en développement.. Dès lors, le nombre et la diversité
des créations sur Internet n’ont cessé de croître de manière exponentielle pour donner naissance à divers types d’œuvres, comme autant de courants, chaque artiste développant sa propre technique, son propre style, sa propre création : statiques, consistant en une ou plusieurs pages HTML et non modifiables par l’internaute ; interactives reposant sur une interaction avec les utilisateurs ; génératives conçues
à partir d’algorithmes mathématiques et produisant des objets de façon automatique ; collaboratives fondées sur la participation, volontaire ou non, des internautes.
Ces œuvres, qui se créent au rythme des innovations techniques, mais surtout au gré de l’imagination des artistes et/ou de l’interaction des internautes, s’exposent également sur tous les écrans. En 2012, les piétons du centre-ville de Nantes pouvaient télécharger des œuvres d’art de jeunes créateurs sur leur smartphone (en scannant des « QR-codes » à chaque coin de rue )pour les partager ensuite sur les réseaux sociaux. De très nombreuses réalisations artistiques s’exposent désormais sur les écrans géants de nos villes, comme cette exposition permanente d’art vidéo sur les écrans du métro de Londres.
Au-delà des artistes, c’est bien tout le marché international de l’art qui est bouleversé par les forces de « désintermédiation » qui sont la marque de la révolution du Net : Artprice permet à tout un chacun de connaître les quotes des artistes ; Artnet se présente comme une véritable place de marché (2.200 galeries dans le monde représentant plus de 39.000 artistes). Mais ne rêvons pas trop : le marché de l’art est encore – pour longtemps ? – cet univers fermé et administré par quelques grandes galeries, une poignée d’experts et de maisons de ventes aux enchères qui organisent un savant ballet autour de la « petite famille » des milliardaires collectionneurs de la planète. Le record de l’oeuvre la plus chère du monde, longtemps détenu par celle, unique, de David Choe, peinte sur un mur du siège de Facebook (lequel l’avait rémunéré en actions valorisées à plus de 200 millions de dollars), est aujourd’hui battu par un ensemble de pixels éparpillés sur la Toile : il s’agit d’une image complexe, créée à l’aide d’algorithmes combinés aux milliards d’actions des internautes sur les réseaux sociaux, qui a donné naissance à une oeuvre qui visualise sur nos écrans 3D les émotions de toute une planète ! Elle n’a pas de prix et personne n’est en mesure de se l’offrir… ou la posséder. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
L’économie numérique mondiale
* Directeur général adjoint du DigiWorld Institute by IDATE.