Leçon de choses du Net

C’est au cours d’une simple promenade que j’ai mieux pris conscience de certains changements extraordinaires portés par l’ère numérique. J’avançais lentement sur un chemin, le long d’un champ, perdu dans mes pensées bercées par le bourdonnement incessant des abeilles. Ce n’est que lorsque l’une d’entre elles tomba à mes pieds après un vol inhabituel que je découvris, en y regardant de plus près, un minuscule robot miniature. Je savais bien sûr que nos abeilles étaient menacées et que des recherches avaient permis de remplacer ces agents indispensables à la pollinisation de nos fruits par une telle solution. Mais c’est la première fois que je me retrouvais confronté, en pleine campagne, à un exemple aussi radical de la révolution numérique… et, par certains côtés, assez inquiétant. L’Internet des choses, terme qui aurait pu sortir tout droit d’un recueil des poèmes de Francis Ponge, était devenu une réalité quotidienne, envahissante et indispensable à des activités toujours plus nombreuses. Ce concept, encore flou il y a
dix ans, pouvait déjà se définir par le principe que chaque « chose » est en mesure de se connecter pour échanger des informations permettant d’augmenter sa valeur intrinsèque. Définition qui renvoie à une typologie dessinant de fait un univers très large partant des terminaux communicants, en passant par le Machine-to-Machine, pour s’étendre à la très grande famille de l’Internet des objets.

« Les objets connectés génèrent aujourd’hui des multitudes de données disparates, exploitées par le Big Data, avec
les possibilités offertes par le partage des données. »

Ce marché fut particulièrement attendu. Qu’il est loin le souvenir des générations avortées d’applications domotiques qui, après une quarantaine d’années, finirent par accoucher dans les années 1990 de toute une gamme d’automatismes domestiques, allant du portail automatique aux systèmes d’alarmes et de télésurveillance. L’intelligence de ces objets était alors limitée à quelques routines simples et autonomes, renvoyant la communication et la mise en réseau à plus tard. C’est seulement avec l’apparition de l’appellation
« Internet des objets », inventée en 1999 par Kevin Ashton, pionnier du RFID au MIT, qu’un tel marché a décollé. Timidement d’abord, puisque l’on comptait en 2010 quelques
4 milliards de choses connectées à Internet, pour atteindre les 15 milliards dès 2013 et frôler les 100 milliards en 2020. Aujourd’hui, nous savons que la barre des 500 milliards sera bientôt dépassée ! Derrière la réalité écrasante des nombres, se dessine un marché foisonnant et complexe qui s’est déployé lentement, par l’adoption de quelques secteurs pionniers : entrepôts, parcs automobiles, énergie, santé, … Autant de domaines qui, à partir de techniques de base génériques, ont donné naissance à des applications en silo, enfermées dans leurs logiques sectorielles – application de puces RFID sur des boîtes de médicaments ou de pièces d’équipements aéronautiques – mettant en avant la sécurité et la traçabilité dans une recherche constante d’économies et de retour sur investissement rapide. Cette logique verticale dominante a longtemps exaspéré les partisans d’un Internet ouvert et collaboratif. Cet Internet des choses, cloisonné, était si éloigné de l’Internet des origines et de l’innovation collaborative. Mais l’essor considérable de ce nouveau cyber espace permet aujourd’hui toutes les avancées. Les objets connectés génèrent une multitude de données disparates, le plus souvent exploitées par la puissance du Big Data, dans une logique sectorielle, marketing et commerciale. Mais de nouvelles possibilités ont aussi été offertes par le partage des données. A la suite de pionniers comme Pachube, service web de partage de données produites pas des capteurs, ou Arduino, fournissant des composants à tous ceux qui souhaitent fabriquer leurs propres objets interactifs,
une économie foisonnante et imaginative de l’open data des objets connectés s’est mise également en place. De nouvelles typologies sont devenues indispensables pour décrire de si vastes domaines qui nous échappent en partie. Et tandis que le mythique bureau des objets trouvés de la rue des Morillons à Paris vient de fermer ses portes, les objets géo-localisables ayant peu à peu désertés ses étagères centenaires, nous avons tout le loisir de méditer cette phrase de Gaston Bachelard : « La plus belle chose que nous puissions éprouver c’est le mystère des choses ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Le retour du câble.
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut vient de publier son rapport
« Internet of Things », par Samuel Ropert, consultant senior.

Ecole pour Digital Natives

De nos jours, s’il est bien sur toujours possible d’entrer dans une école, il est en revanche plus difficile de pousser la porte d’une classe. D’une classe telle que nous l’avons connue.
La fin de ce lieu éminemment symbolique nous a presque surpris, tant nous étions habitués à son caractère immuable. Eternel. Même si nous savions bien que ses jours étaient comptés, minés par les coups de boutoirs de la révolution numérique, laquelle agissait autant comme un révélateur
des problèmes accumulés par nos systèmes éducatifs à bout de course, que comme une part de la solution permettant de les adapter aux nouveaux enjeux. Il faut dire que notre salle de classe, même si elle n’a pas toujours existé, a été imaginée en plein XVIe siècle, époque de construction des collèges qui regroupaient de grands effectifs et codifia pour longtemps les ingrédients bien connus : une pièce rectangulaire éclairée par des fenêtres idéalement orientées à l’Est pour faciliter la prise de notes, dans laquelle une trentaine d’élèves s’alignaient deux par deux le long d’allées de pupitres faisant face au professeur dispensant des leçons depuis son bureau. Quatre siècles plus tard, c’est encore cette classe qu’un Doisneau fixait sur sa pellicule dans les années 1950 et que nos enfants fréquentaient couramment il y a encore dix ans.

« Le numérique a remis sur le devant de la scène
la question clés de la pédagogie, laquelle devra
être adaptée afin d’éviter les erreurs passées. »

L’histoire de l’enseignement, tellement linéaire, ne croise que trop rarement l’histoire de
la pédagogie. Face aux systèmes éducatifs lourds et peu mobiles, l’espoir des élèves repose sur quelques professeurs d’exception et sur une multitude d’expérimentations fleurissant régulièrement. A tel point qu’on se demande pourquoi, tant de méthodes pédagogiques réussies, sont restées si longtemps cantonnées aux marges ou à quelques pays scandinaves, toujours cités en exemple mais jamais imités.
Pourtant la transition de notre école « analogique » de toujours vers une école numérique généralisée, mais encore largement à inventer, s’est récemment accélérée. Ce qui a remis sur le devant de la scène la question clés de la pédagogie, laquelle devra être adaptée afin d’éviter les erreurs passées : comme celle consistant à équiper des milliers d’élèves d’ordinateurs sans faire évoluer dans le même temps les méthodes d’enseignement. Mais, ces premiers tâtonnements sont derrière nous, maintenant que des professeurs digital natives enseignent à des élèves également nourris à la culture numérique et disposant de ce que certains appellent une « méta-compétence informationnelle », c’est-à-dire la capacité de trouver seul les informations nécessaires.
La salle de classe d’aujourd’hui est parfois comparée à un studio où les élèves apprennent d’égal à égal, en partageant les savoirs et résolvant les problèmes ensemble, avec l’aide d’un professeur jouant le rôle de « facilitateur ». Pour moi, elle me fait plutôt penser à une salle de restaurant, avec ces tables rondes autour desquelles des élèves s’affairent, discutent, échangent, tandis qu’un professeur attentif répond aux demandes des uns et des autres.
C’est une école où le smartphone et la tablette sont devenus obligatoires, comme ce fut
le cas dans ce projet pionnier apparu en août 2013 au Pays-Bas où sept « Steve Jobs schools » accueillirent des enfants de 4 à 12 ans seulement équipés de leurs iPad. Des professeurs transformés en coach guidaient les enfants pour lesquels l’apprentissage ne s’arrêtait donc jamais puisqu’ils travaillaient sur leurs applications à l’école où chez eux, mais à leur rythme, avec comme point de repère une réunion organisée avec leur parent toutes les six semaines afin de définir les objectifs d’apprentissage pour la période à venir. Cette nouvelle école a retenu les leçons et les préconisations du projet TEAL du MIT mis en place dans les années 1990, sur les limites des cours magistraux et les avantages des méthodes actives et participatives. Elle s’inscrit dans le prolongement des savoureuses interventions que Ken Robinson dispensaient lors de conférences TED où il fustigeait avec talent les limites tragiques du système éducatif de son temps, en appelant de ses voeux un système reposant sur la créativité et la collaboration. @

Jean-Dominique Séval*
Prochaine chronique « 2025 » : L’Internet des objets.
* Directeur général adjoint de l’IDATE.

Civilisation numérique

Au fur et à mesure que nous avançons toujours plus loin au cœur du XXIe siècle, les nouvelles règles qui le régissent se font de plus en plus claires, et les liens qui nous retiennent encore au siècle dernier se dénouent peu à peu, les uns après les autres. L’Europe, peut-être plus que les autres continents, tardait visiblement à adopter les règles de cette nouvelle époque.
Le signal fut donné en 2013 lorsque nous apprîmes – après plusieurs décennies de forte croissance ininterrompue – que les marchés de l’économie numérique étaient eux aussi sensibles aux cycles économiques et plus particulièrement aux crises. Les marchés historiques du numérique – informatique, électronique grand public et télécommunications – enregistrèrent en 2012 une croissance ralentie, avec une progression au niveau mondial d’à peine 3 %, mais de seulement 0,1% pour le Vieux Continent. Plus important sans doute, le recul en termes de contribution directe des secteurs du numérique à la richesse globale s’accentua encore pour ne représenter, après plusieurs années de baisse régulière, que 6 % du PIB mondial.

« Cette Europe assiégée, qui n’avait pas réussi à
se positionner sur les vecteurs clés qu’étaient la
mobilité, le Cloud et le Big Data, se devait de réagir. »

Cette évolution structurelle – que nous traduisions également par l’image de destruction créatrice – chamboulait le paysage industriel. Au fur et à mesure que l’écosystème numérique se mettait en place, de nouveaux acteurs s’avançaient sur le devant de la scène, les modèles d’affaires étaient revisités, tandis que les marchés se déformaient : les régions à la pointe hier devenaient vulnérables et les marchés émergents profitaient
de l’explosion de la demande à l’intérieur de leurs frontières pour porter haut leur appareil industriel et partir à leur tour à l’assaut du reste du monde.
Cette Europe assiégée, qui n’avait pas réussi à se positionner sur les vecteurs clés du nouvel âge numérique émergent qu’étaient la mobilité, le Cloud et le Big Data, se devait
de réagir. Bien sûr, il est toujours possible de parier sur un retour en force à l’occasion d’un changement de technologie : pourquoi pas avec le lancement prochain de la 5G, comme le firent les Asiatiques avec la 3G ou les Etats-Unis avec la 4G. Ce n’est malheureusement pas le chemin qui fut pris.
Malgré tout, le Vieux Continent a des cartes à jouer pour exploiter les gisements de création de valeur extraordinaires qui s’annoncent. Il s’agit moins de devenir les champions technologiques d’une planète devenue numérique que de favoriser les usages permettant d’entrer de plein pied dans cette civilisation numérique que nous commençons à peine à appréhender. De ce point de vue, plusieurs dossiers chauds mobilisent l’écosystème. Des hypermarchés numériques, ou Digital Mall, deviennent les véritables places de marché pour des internautes que se disputent App Stores, plates-formes sociales, applications du Web ouvert ou encore offres packagées des « telcos ». La transition vers une monnaie numérique universelle, ou Digital Money, qui voit s’affronter trop de prétendants quand il y aura peu d’élus : technologie NFC, paiement via mobile, divers services de e-commerçants, de banquiers ou de géants du Net. La valorisation
des données, ou Data Monetization, reste un sujet éminemment stratégique qui réclame des capacités poussées en termes de mesure d’audience, de ciblage temps réel, de localisation et de gestion de l’e-pub. Sans oublier bien sûr l’accès simplifié à des offres attractives de contenus, ou Content as a Service, qui est devenu le cœur de la bataille planétaire que se livrent les grands groupes médias face à tous les géants du numérique.
Autant de dossiers pour lesquels les Européens ont des atouts, des usages originaux
et un marché avancé, appuyés par des champions des secteurs-clés du transport, du commerce, de la construction, de la banque ou des services. Avec un impératif de
succès : réussir la transition numérique permettant à tout un continent de maîtriser son avenir digital. Pour le meilleur. Et conjurer ainsi le constat que la philosophe Simone Weil tirait en 1947 sur son terrible siècle dans « La Pesanteur et la grâce » : « Argent, machinisme, algèbre : les trois monstres de la civilisation actuelle », en se donnant
les moyens de ne pas y ajouter le numérique. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Ecole numérique
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut a publié son rapport
« DigiWorld Yearbook 2013 », coordonné par Didier Pouillot,
en prévision du DigiWorld Summit.

Publicité : fin de la prime au leader

Finalement, la bonne nouvelle pour la télé, c’est qu’elle a su s’adapter à Internet sans connaître tout à fait le sort, parfois fatal, de la plupart des autres contenus numériques. Ce super média qu’est la télévision bénéficiait d’une armure protectrice connue sous le nom de « prime au leader »,
cette différence constatée entre la part d’audience des chaînes leaders et leur part du marché de la publicité TV
en valeur, laquelle lui est souvent très supérieure. C’est ainsi que la puissance médiatique des chaînes historiques leur a longtemps permis de pratiquer des tarifs supérieurs à ceux des outsiders et de générer des revenus plus importants comparativement à leur audience ou au volume de publicité qu’ils diffusaient. Ainsi, en France, la chaîne TF1, qui enregistrait une part d’audience moyenne de 23 % sur l’année 2012 (en forte baisse par rapport aux années précédentes), captait 42 % du marché de la publicité TV en valeur. De la même façon, ITV, la première chaîne privée au Royaume-Uni en termes d’audience, captait 43 % du marché publicitaire en valeur pour une part d’audience de seulement 16 %.

« Si la pub TV a fait la preuve de son efficacité,
c’est sa notion même qui a perdu de son sens.
Les spots sont désormais distribués en même
temps en live ou en catch up. »

Cet avantage permit à la télévision de disposer de temps pour s’adapter aux nouvelles règles du jeu imposées par Internet, un temps précieux qui manqua tant à la musique ou
à la presse. Malgré la concurrence indéniable des services de médias audiovisuels à la demande (SMAd), la télévision prolongea son statut à part de média dominant (taux d’adoption par toutes tranches d’âge et consommation importante en temps passé).
À la fois source d’information et de loisirs, la télévision, par sa capacité à générer une audience de masse, dispose d’une puissance incomparable. Il n’est donc pas surprenant que la télévision « gratuite » ait largement attiré les annonceurs en quête de visibilité et de construction d’image, devenant le premier support d’investissement publicitaire avec, en moyenne, 40 % des dépenses médias des annonceurs (en excluant les investissements hors-médias). Et ce, pendant que son chiffre d’affaires continuait de progresser alors que celui de la presse n’en finissait plus de s’effondrer. Pourtant, malgré cette apparente bonne résistance, de premiers signes d’essoufflement apparurent avant 2015, notamment sur les marchés occidentaux où la télévision commença à perdre des parts de marché face à Internet. La multiplication des chaînes fut à l’origine de la fragmentation de l’audience, préjudiciable à l’Audimat des grandes chaînes et donc à leurs recettes publicitaires. De plus, la consommation des programmes TV devenant plus personnelle, elle se reporta vers les « nouveaux » écrans, en temps réel ou différé. Or, face à la désintermédiation, la TV « broadcast » conserva et conserve encore certains avantages irréductibles. En termes de couverture, les grands networks américains avaient toujours, en 2013, un reach de l’ordre de 70 %, quand celui de YouTube n’était que de 32 % et celui de Hulu de 9 %. Ensuite, un téléspectateur américain restait contraint à une moyenne de 72 minutes de publicité TV par jour, contre 23 minutes par mois pour un utilisateur de vidéo online. Pourtant, le “coût par mille moyen” (CPM) sur un site de vidéo premium ou sur un site de chaîne de télévision tenait la comparaison : aux Etats-Unis, il évoluait entre 15 et 20 dollars sur un site comme Hulu, contre 14 dollars pour toucher 1.000 foyers via une chaîne nationale.
Si la publicité TV a largement fait la preuve de son efficacité, c’est sa notion même qui a perdu de son sens. La part des publicités uniquement diffusées sur l’écran de TV pendant le flux de programmes fait place aux spots publicitaires distribués en même temps qu’un programme TV, qu’il soit « broadcasté » ou « streamé », en live ou en catch up. Sur ce ring, où s’est livrée durant cette dernière décennie une lutte sans concession, le combat est en train de se terminer faute de combattants : par la disparition des distinctions classiques. Car tandis que les chaînes survivantes sont devenues à leur tour des
poids lourds d’Internet, les géants du Net ont continué à phagocyter leur part du
gâteau publicitaire… @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Planète numérique
* Directeur général adjoint de l’IDATE.
Sur le même thème, le rapport « La publicité TV face
aux nouveaux médias », par Florence Leborgne.

Spectrum Crunch ?

La gestion des ressources rares, au-delà d’alimenter des discussions savantes entre économistes, a toujours des répercutions sur notre vie quotidienne. Certaines, comme l’eau, l’air, les métaux précieux ou l’espace pour les transports urbains sont très concrètes et nous percevons chaque jour un peu plus leur rareté. D’autres sont très longtemps restées dans l’ombre. Les fréquences hertziennes sont de celles-là, invisibles et discrètes pendant des décennies, puis s’invitant régulièrement dans les débats avec l’explosion des services mobiles et la multiplication des chaînes de télévision. Une pression telle que certains n’hésitèrent pas à prédire l’écroulement des plans d’allocation des fréquences ! La pression est en effet montée régulièrement à partir des années 2000 et à chaque changement de réseaux hertziens. Le basculement d’un Internet fixe vers
un Internet mobile, l’usage massif de la vidéo et surtout le développement exponentiel
des usages et du nombre des mobinautes, ont engagé les opérateurs et les Etats dans une course à la puissance des réseaux mobiles. Une course en escalier, où chaque marche correspond à une nouvelle génération de réseaux : 3G, 4G et 5G. Et pour chaque transition, tous les dix ans en moyenne, la question incontournable des fréquences disponibles pour satisfaire cette faim dévorante de spectre radioélectrique. N’oublions pas que, depuis 2010, le volume de données échangées sur les réseaux mobiles du monde entier a été multiplié par plus de 30, pour se monter aujourd’hui à 130 milliards de gigaoctets.

« Cette fameuse bande des 700 Mhz était
l’occasion de permettre une harmonisation spectrale
à l’échelle européenne mais aussi mondiale. »

La vague fut telle que les arbitrages rendus ont régulièrement été favorables à l’utilisation de nouvelles ressources spectrales. Il s’est agi tout d’abord de réallouer les fréquences libérées par l’extinction de la télévision analogique, d’abord dans la bande des 800 Mhz
en 2011 pour la France (premier « dividende numérique ») puis des 700 Mhz trois ans plus tard (second « dividende numérique »). Ces dernières fréquences ont d’ailleurs fait l’objet d’âpres discussions entre l’Etat, qui essayait d’avancer le calendrier pour récolter de nouveau les 3 milliards d’euros attendus de leur mise aux enchères, et les opérateurs télécoms qui déclaraient ne pas être pressés car devant faire face à une crise de croissance et de rentabilité inédite en Europe. Les chaînes de télévision de la TNT ont, elles aussi, voulu une partie de ces nouvelles fréquences libérées afin de pouvoir généraliser la HD et développer de nouveau services audiovisuels. Les nouvelles
normes de diffusion (DVB-T2, LTE, …) et de compression (Mpeg4, HEVC, …) ont
permis d’économiser du spectre et de pouvoir en allouer aussi bien aux télécoms qu’à l’audiovisuel.
Ces fréquences « basses », nouvelles pour les télécoms, étaient dites en or, par leur qualité particulière qui permet de diffuser les signaux plus loin en pénétrant mieux dans les bâtiments que les fréquences « hautes » initialement utilisées pour les communications mobiles. Elles avaient une autre qualité, peut-être plus importante encore : cette fameuse bande des 700 Mhz était l’occasion de permettre une harmonisation spectrale à l’échelle européenne mais aussi mondiale. Cela a en effet facilité le roaming international, mais surtout permis aux opérateurs de réaliser des économies d’échelle, si difficiles à concrétiser dans un contexte européen historiquement fragmenté. La bande des 700 Mhz avait déjà été allouée lors du premier dividende numérique sur tout le continent américain et en Asie. Elle le fut à l’occasion des allocations du second en Europe et pour la zone Afrique-Moyen Orient. Certains n’ont pas attendu que l’utilisation de la bande des 700 soit effective, il y a à peine cinq ans, pour poser bien avant la question de trouver de nouvelles fréquences pour le lancement cette année des premières licences 5G. Dès 2013, NTT Docomo testait au Japon une connexion à 10 Gbits/s dans une voiture en mouvement,
en utilisant des fréquences inhabituelles de 400 Mhz ! Tandis qu’au Royaume-Uni, le régulateur britannique Ofcom préparait le terrain pour disposer du spectre nécessaire,
dès 2020, permettant de faire oublier son retard sur la 4G en reprenant de l’avance sur
la génération suivante. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Publicité
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut a publié son rapport :
« La bande des 700 MHz : une nouvelle harmonisation
des fréquences pour le LTE ? », par Frédéric Pujol.