Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.

Le Net Art n’a pas de prix

Cela fait bien longtemps que l’art est sorti du cadre de la toile (pas du Web, celle du peintre !) pour partir à l’assaut de tous les supports, expérimenter toutes les formes plastiques et transgresser les frontières de toutes les disciplines. Le fabuleux XXe siècle a, de ce point de vue, opéré toutes les ruptures. Jusqu’à flirter avec la tentation de la fin de l’art avec, par exemple, la salle vide d’un Yves Klein en 1958, reprise en 2009 dans une exposition un rien provocante au Centre Pompidou, intitulée « Vides, une rétrospective » : neuf salles vides d’artistes différents…
Internet est devenu, pour les artistes, un nouvel outil au potentiel encore à découvrir. L’art y est présent non seulement à travers des créations d’œuvres originales, réalisées pour ce média, mais également via des catalogues ou galeries en ligne. A l’instar des initiatives « Google Art Project », visant à organiser nos visites virtuelles de tous les musées du monde, ou « Web Net Museum », site original dédié à exposer la nouvelle culture numérique. Mais le Net est également devenu, selon les cas, un puissant allié ou un perturbateur du commerce de l’art.

« Au-delà des artistes, c’est bien tout le marché international de l’art qui est bouleversé par les
forces de ‘’désintermédiation’’ du Net »

Il est d’ailleurs intéressant de noter que l’art en ligne est né bien avant Internet. C’est
ainsi que Roy Ascott, pionnier de l’art télématique, créa sur réseau IP Sharp, une oeuvre éphémère, « La plissure du texte », au Musée d’Art moderne de la Ville de Paris en 1983. Le Minitel fut également un média que s’approprièrent les artistes comme Fred Forest, pionnier de l’art vidéo puis du Net.art avec son Zénaïde et Charlotte à l’assaut des médias en 1989. D’autres se saisirent d’Internet grand public dès ses tous premiers pas en 1994, avec notamment les œuvres « Waxweb », de David Blair, et « The File Room », de Muntadas, toujours en ligne et en développement.. Dès lors, le nombre et la diversité
des créations sur Internet n’ont cessé de croître de manière exponentielle pour donner naissance à divers types d’œuvres, comme autant de courants, chaque artiste développant sa propre technique, son propre style, sa propre création : statiques, consistant en une ou plusieurs pages HTML et non modifiables par l’internaute ; interactives reposant sur une interaction avec les utilisateurs ; génératives conçues
à partir d’algorithmes mathématiques et produisant des objets de façon automatique ; collaboratives fondées sur la participation, volontaire ou non, des internautes.
Ces œuvres, qui se créent au rythme des innovations techniques, mais surtout au gré de l’imagination des artistes et/ou de l’interaction des internautes, s’exposent également sur tous les écrans. En 2012, les piétons du centre-ville de Nantes pouvaient télécharger des œuvres d’art de jeunes créateurs sur leur smartphone (en scannant des « QR-codes » à chaque coin de rue )pour les partager ensuite sur les réseaux sociaux. De très nombreuses réalisations artistiques s’exposent désormais sur les écrans géants de nos villes, comme cette exposition permanente d’art vidéo sur les écrans du métro de Londres.
Au-delà des artistes, c’est bien tout le marché international de l’art qui est bouleversé par les forces de « désintermédiation » qui sont la marque de la révolution du Net : Artprice permet à tout un chacun de connaître les quotes des artistes ; Artnet se présente comme une véritable place de marché (2.200 galeries dans le monde représentant plus de 39.000 artistes). Mais ne rêvons pas trop : le marché de l’art est encore – pour longtemps ? – cet univers fermé et administré par quelques grandes galeries, une poignée d’experts et de maisons de ventes aux enchères qui organisent un savant ballet autour de la « petite famille » des milliardaires collectionneurs de la planète. Le record de l’oeuvre la plus chère du monde, longtemps détenu par celle, unique, de David Choe, peinte sur un mur du siège de Facebook (lequel l’avait rémunéré en actions valorisées à plus de 200 millions de dollars), est aujourd’hui battu par un ensemble de pixels éparpillés sur la Toile : il s’agit d’une image complexe, créée à l’aide d’algorithmes combinés aux milliards d’actions des internautes sur les réseaux sociaux, qui a donné naissance à une oeuvre qui visualise sur nos écrans 3D les émotions de toute une planète ! Elle n’a pas de prix et personne n’est en mesure de se l’offrir… ou la posséder. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
L’économie numérique mondiale
* Directeur général adjoint du DigiWorld Institute by IDATE.

Remise en cause du modèle historique du peering : vers une recomposition du marché de l’Internet

Le litige opposant Cogent à France Télécom sur le refus d’interconnexion pourrait aboutir, à la remise en cause de l’intégralité du modèle économique
de la circulation des flux sur Internet, un marché jusqu’à aujourd’hui auto-régulé et basé sur le peering gratuit.

Moteurs de recherches et référencement commercial sur Internet : état des lieux

Si les contentieux liés au référencement commercial sur le Web ont abouti à des décisions mettant hors de cause les moteurs de recherches au regard du droit des marques, le marché de la publicité en ligne et la position dominante de Google préoccupent les autorités de concurrence.

Déverrouiller les bibliothèques en ligne et baisser les prix des livres numériques

Si l’industrie du livre ne veut pas être victime du numérique, comme ce fut le
cas pour la musique, elle devra non seulement déverrouiller les plateformes et
les enrichir, mais aussi accepter de vendre jusqu’à 30 % moins cher les livres numériques par rapport aux livres imprimés.

Contrairement aux industries de la musique et du cinéma, les maisons d’édition ne voient pas les réseaux peer-to-peer (P2P) de type eDonkey ou Torrent comme une menace. Dans le premier baromètre des usages du livre numérique publié au Salon du livre par le SNE (1), la Sofia (2) et la SGDL (3), seuls 4 % des personnes interrogées y vont pour chercher des ebooks.

Face au triopole Amazon-Apple-Google
Ce sont en fait les grandes portails du Net, que sont Amazon, Apple Store ou encore Google Books qui constituent les premiers points de ralliement du livre numérique : 38 % des sondés s’y connectent, auxquels s’ajoutent les 21 % qui empruntent un moteur de recherche (Google en tête). Viennent ensuite les 30 % qui passent par les sites web de grands magasins spécialisées tels que Fnac, VirginMega ou Cultura (4). Le piratage d’ebooks est aussi moins préoccupant que la position dominante du triopole Amazon-Apple-Google : seuls 20 % déclarent avoir eu recours à une offre illégale de livres numériques et 2 % à avoir utilisé un site de streaming illégal d’ebooks. Ce que corrobore l’étude EbookZ3 du MOTif (5) publiée aussi lors du Salon du livre : le piratage représente moins de 2 % de l’offre légale papier (6). Recourir à l’Hadopi n’est toujours pas une priorité pour le SNE, comme l’avait révélé Edition Multimédi@ (7).
La « menace » vient d’ailleurs. « Ce qui se joue aujourd’hui, (…) c’est la possibilité d’une emprise sans partage ni retour de quelques acteurs globaux de la diffusion sur les industries de la création », s’est inquiété Antoine Gallimard, président du SNE,
en ouverture des 8e Assises du livre numérique au Salon du livre, le 16 mars. Il n’a cependant rien dit sur la riposte que Gallimard prépare face à Amazon, Apple et Google avec Editis, Seuil-La Martinière et Flammarion, en association avec Orange et SFR, ainsi qu’avec ePagine (utilisé par Eyrolles). Le projet consiste en une plateforme unique ouverte qui se veut une alternative aux modèles propriétaires (entendez fermés) des trois géants du Net. Amazon, qui exposait pour la première fois au Salon du livre, impose en effet son propre format AZW pour sa liseuse Kindle qui ne lit pas le standard EPUB.
Reste à savoir si les plates-formes d’Hachette (Numilog), d’Editis (E-Plateforme), de l’Harmattan (l’Harmathèque), ainsi que 1001libraires.com, Librairie.actualitte.com ou encore REA de Decitre, rejoindront le groupement. Le directeur du Centre d’analyse stratégique du Premier ministre, Vincent Chriqui, a plaidé, le 19 mars, pour « une plateforme unique de distribution ». L’interopérabilité sera en tout cas la clé du succès de ces plateformes légales de librairie numérique. « Notre engagement auprès des lecteurs passe par (…) l’interopérabilité des plateformes (…) », a promis Antoine Gallimard. Le prototype de la future plateforme commune est élaboré avec Orange, lequel a – selon nos informations – déposé le 29 février un dossier d’aide auprès du Grand emprunt (8), via le Fonds national pour la société numérique (FSN). Reposant sur le cloud computing, elle proposera aux internautes de choisir leurs livres numériques chez des libraires virtuels, de les stocker dans leur bibliothèque personnelle en ligne, et de pourvoir l’enrichir quelles que soient les évolutions technologiques des e-books (formats PDF, EPUB, HTML, …). La société miLibris pourrait jouer le rôle d’opérateur technique (lire interview p.1 et 2). Autre défi majeur : celui du prix. A la question « Quelles sont vos attentes concernant l’évolution du livre numérique ? », le baromètre montre que les plus nombreux (28 %) répondent : « Que les prix des livres numériques soient plus accessibles ». Le « prix unique » du livre – ainsi désigné car fixé par l’éditeur pour les livres imprimés depuis la loi du 10 août
1981 et pour les livres numériques par la loi du 26 mai 2011 – est-il déjà obsolète sur Internet ? Amazon, qui serait à l’origine de l’enquête ouverte début décembre par la Commission européenne à l’encontre de ces cinq éditeurs (9) et d’Apple sur une éventuelle entente sur les prix des ebooks (10), aimerait pratiquer des ristournes de
-50 % par rapport au livre papier comme il le fait aux Etats-Unis. En France, il est limité à -5 %. Pourtant, 56 % des sondés mettre le critère du prix en avant pour le livre numérique (contre seulement 34 % pour l’imprimé). Or selon le Centre d’analyse stratégique, « le public attend clairement une différence de prix de l’ordre de 40 %
ou 50%».

Des ebooks à -20 %, -30 % ou -50 % ?
La France étant pionnière en Europe dans l’application aux ebooks du taux réduit de
TVA (7 % à partir du 1er avril), comme pour le livre imprimé, le SNE espère que Bruxelles entérinera cet alignement. Ainsi, explique le syndicat dans sa lettre aux candidats à l’élection présidentielle, « les éditeurs [pourront] proposer des prix plus attractifs ». Alors, -20 %, -30 % ou -50 % ? @

Charles de Laubier