Révolution sur l’e-Campus

Cette année, le major de promo d’une grande école d’ingénieurs fait la Une des sites d’information. Pourquoi
ce jeune étudiant, qui répond aux interviews exclusivement en visio, défraie-t-il la chronique ? Parce qu’il n’a jamais mis les pieds dans un amphi et a fait l’essentiel de son cursus sans quitter sa petite ville au cœur du Continent africain !
Il est emblématique mais il n’est pas un cas isolé. C’est le résultat d’une dizaine d’années d’ouverture des universités et des écoles aux nouveaux modèles d’enseignements numériques. Des centaines de milliers de jeunes suivent désormais à distance des cours de haut niveau, auparavant réservés à des effectifs bien plus réduits. En sortant de ses murs, l’université a fait un pas de plus vers la démocratisation multiséculaire du savoir. L’histoire technique du e-learning commence, comme souvent, après une longue période de gestation. L’un de tous premiers test fut le fait, au début des années 60, d’une équipe de professeurs en psychologie de l’université de Stanford qui expérimenta un enseignement des maths et de la lecture assisté par ordinateur pour des enfants
en classe élémentaire de Palo Alto.

« La destruction créatrice du Net s’attaque cette fois
– après la musique, la presse, le cinéma, le livre et la télévision – à une citadelle réputée imprenable : le savoir ».

L’université en ligne n’est en fait devenue réalité qu’avec les premières vidéothèques
de cours magistraux. Des initiatives individuelles ont non seulement été portées par les établissements eux-mêmes ou par des institutions comme le Collège de France mais également par des plateformes qui démarrèrent en France dès 2001 avec Canal-U. L’année suivante, aux Etats-Unis, ce fut au tour de l’OpenCourseWare du MIT, suivi
par des plateformes des géants du Net comme celle d’Apple qui lança iTunes U en 2007. Mais la véritable révolution commença à partir de 2011, lorsque les universités créèrent des sessions de cours dans des formats adaptés au Web et débouchant sur des diplômes. Le projet MITx permit ainsi à deux professeurs de dispenser un cours d’électronique spécialement conçu en ligne pour plus de 120.000 étudiants. Cette plateforme, rebaptisée EdX suite à l’adhésion d’Harvard, fut suivie par une initiative concurrente, Coursera, laquelle rassembla plusieurs universités autour de Stanford et
de Princetown. Il était maintenant possible de valider des études de qualité en suivant
à distance les programmes, moyennant parfois la moitié du prix du cursus traditionnel.
La destruction créatrice du Net était en marche, une fois de plus, en s’attaquant cette fois – après la musique, la presse, le cinéma, le livre et la télévision – à une citadelle réputée imprenable : le savoir. En devenant un véritable média en ligne, avec ses programmes, ses live et ses vidéos, les cours sont également devenus un marché ouvert. Une nouvelle génération de pure players est prête à tout pour inventer de nouveaux modèles économiques. Ainsi, Udacity s’est rapidement imposé comme véritable campus virtuel avec, dès 2012, plus de 23.000 étudiants de 190 nationalités différentes. Ce sont les futurs recruteurs qui payent les frais de scolarités, les diplômés bénéficiant de la gratuité des cours ! Le site Udemy, lui, a choisi de proposer une plateforme aux professeurs
qui souhaitent publier directement leur cours, sans même passer par la fac…
Depuis, des technologies très diverses ont enrichi l’expérience pédagogique, comme
le serious gaming, le sous-titrage participatif, les univers persistants ou la 3D. Certains avatars sont désormais célèbres dans ces amphis digitaux, comme le furent sur Ta toile
le philosophe Michael Sandel ou le professeur de finance Aswath Damodaran.
Mais au-delà de l’évolution technique, il s’agit d’une véritable révolution de la diffusion
du savoir et de la pédagogie. Si les professeurs s’isolent devant une webcam pour enregistrer des cours loin de leurs salles de classe, c’est pour mieux consacrer leur temps à coacher leurs étudiants. De même, une pédagogie inversée propose aux élèves d’apprendre à la maison et de faire leurs devoirs à l’école ! On est donc bien loin de ce cauchemar où les enfants du « Brave new world » d’Aldous Huxley apprenaient sans effort durant de profonds sommeils hypnotiques. Les « Socrate » d’aujourd’hui arpentent les réseaux numériques comme les Péripatéticiens d’hier transmettaient leur savoir aux novices entre le Portique et le Jardin… @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : La presse en péril
* Directeur général adjoint de l’IDATE.

Docteur Live contre Mister Replay

En cette fin d’après-midi de juillet, tout le monde marque le pas pour regarder sur un écran l’alunissage d’une capsule spatiale et de son équipage. Un événement interplanétaire qui se déroule en direct, en full HD et en 3D. La Lune comme si on y était ! On est bien loin de cette retransmission qui nous ont émus en ce 21 juillet 1969, et qui, sur fond d’images tremblantes en noir et blanc, marqua pour toujours notre imaginaire. Un demi-siècle plus tard, l’homme est de retour sur la Lune, propulsé par une fusée chinoise, et servie par une superproduction digne d’Hollywood ! Le direct n’est donc pas mort, pas plus qu’il n’a déserté complètement les écrans de télévision. Mais la part réservée au live, dominante aux origines de la télévision, s’est peu à peu repliée jusqu’à ne concerner, par ordre d’importance, que les sports les plus populaires, les informations, quelques talk-shows
et, parfois, certaines représentations culturelles, comme des concerts, du théâtre ou
de l’opéra. Priorité était donnée durant ces dernières décennies aux programmes clés
en mains et aux émissions post-produites, télé réalité comprise (même si ce nom est trompeur). Cette part congrue a encore été réduite par les facilités offertes par le replay qui permet aux téléspectateurs et/ou internautes de s’affranchir de la dictature du direct. Ce fut bien sûr la chance de certaines émissions que de pouvoir être vues en différé sur le bon vieux poste de télé, mais aussi et surtout sur tous les écrans de toutes tailles. Une occasion, aussi, de se constituer un nouveau vivier de spectateurs et de prolonger la vie des programmes au-delà de la première retransmission.

« C’est Twitter TV qui a obtenu l’exclusivité
de la retransmission mondiale – en direct –
du retour de l’homme sur la Lune ! »

Pendant que le direct désertait la télé, de nouveaux médias l’accueillaient pour doper leur audience ou simplement offrir un nouveau service. A l’heure de la convergence permise par Internet et accélérée par la démocratisation des techniques de captage, d’encodage
et de diffusion, la radio propose en direct ses émissions phares et la presse organise des débats audiovisuels, lorsqu’elle ne suit pas ses correspondants et ses grands reporters en direct sur leurs terrains d’investigation. Quant aux salles de cinéma, elles mettent leurs grands écrans et leurs technologies numériques de pointe aux services de live de plus en plus varié pour un public de plus en plus large. Le Web, enfin, a permis à des acteurs modestes ou renommés, de proposer en direct de véritables grilles de programmes. Le live est donc loin d’être mort ! La salle Pleyel, la Citée de la musique et bien d’autres lieux culturels proposent ainsi sur leurs sites web la retransmission en direct de prestigieux concerts. Certaines ligues sportives telles que la NBA (NBA.tv) aux Etats-Unis et d’autres dans le monde – comme la LFP (LFP.tv) en France ! – proposent leurs propres services de streaming vidéo en live par abonnement accessible sur ordinateur, tablette et smartphone. L’intégralité des matchs de la saison de la première ligue indienne de cricket, l’IPL, est diffusée en live et en accès gratuit sur YouTube depuis dix ans déjà. Les opérateurs télécoms aussi s’y sont mis très tôt, comme SFR qui, dès 2012, proposait des concerts en direct à ses abonnées sur son site dédié SFR Live Concerts. Le Collège de France et presque toutes les universités « médiatisent » eux aussi les cours en direct de leurs professeurs, au bénéfice d’étudiants désormais admis dans des amphis virtuels. Sans oublier les géants du Net, comme YouTube Live, qui offrent des directs très variés : journaux d’actualités, événements sportifs, concerts, théâtres, télé-réalité, défilés de mode, opéras, tournois de jeux vidéo, …
C’est aussi la raison pour laquelle de grandes chaînes généralistes ont réinvesti massivement dans le direct. Une question de survie. Leur futur se trouve dans le téléviseur considéré par le public, aujourd’hui comme hier, comme le premier (grand) écran du foyer. Il y a urgence pour elles, car c’est Twitter TV qui a obtenu l’exclusivité
de la retransmission mondiale du retour de l’homme sur la Lune ! @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : L’e-learning
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son
rapport sur l’avenir de la télévision et de la vidéo :
« NextGen TV 2020 », par Gilles Fontaine.

Les cookies sont-ils mortels ?

L’actualité bruisse à nouveau de vives discussions sur le statut des cookies, ces fichiers textes de faible taille (4 Ko environ) transmis par les serveurs pour être mémorisés par le navigateur de l’internaute. Des abus auraient été signalés faisant état d’une nouvelle génération de cookies visant à les détourner de leur fonction initiale. Comme en 2011, année où apparurent des « bittersweet cookies » (cookies doux-amers), il s’agit pour leurs développeurs de proposer, plus ou moins furtivement, des cookies permettant d’identifier l’utilisateur de manière persistante. Des cookies de plus en plus dévoreurs de données, cela pose en effet la question de leur nature même et plus largement du droit des internautes à contrôler la diffusion et la conservation de leurs traces sur le Net. Les cookies sont aussi vieux que l’Internet : ils étaient déjà utilisés
en informatique, sous le terme de « magic cookies », avant que deux ingénieurs de Netscape n’aient l’idée de les intégrer, dès 1994, dans le pionnier des navigateurs.
A l’époque, les cookies visaient très simplement à savoir si les visiteurs de Netscape étaient déjà venus auparavant. Puis, cette modeste innovation fut promise à un grand destin. A la base de services en ligne indispensables, les cookies sont de plus en plus souvent vécus comme intrusifs. Or nous nous passerions difficilement de ces discrets serviteurs, lesquels simplifient notre vie sur la Toile. Pour la gestion de nos sessions,
il est en effet bien plus rapide de ne pas avoir à s’identifier à chaque retour sur les mêmes sites. Ce petit « mouchard » enregistre également nos préférences et la configuration de notre ordinateur. Les services apportés en termes de personnalisation sont en revanche plus ambiguës, telles les publicités vues, pour lesquelles la présence du cookie permet de ne pas proposer indéfiniment la même bannière à l’internaute.

« Consentement préalable (opt-in) : l’édifice, encore
fragile, de la pub en ligne – au sommet duquel trône Google – en fut ébranlé, mais la profession s’y résigna ».

Les problèmes ont surtout commencé avec le pistage des habitudes de navigation
des utilisateurs pour leur proposer des pages ou des publicités ciblées. Dès lors, le sentiment de perdre le contrôle de ses propres données ou d’être espionné jusque dans nos comportements devint une impression profonde. Big Brother n’est jamais bien loin…
La pratique et le succès du retargeting nous a tous confronté à ce type de publicité :
un encart nous signale que la veste, recherchée et examinée la veille sur des sites
et des comparateurs, est disponible ce matin chez tel ou tel marchand. Cookies de pistage ou de « tierce partie », les différents outils se sont rendus indispensables à la recherche d’efficacité de la publicité en ligne. Les internautes ont obtenu, d’abord aux Etats-Unis, que les navigateurs intègrent des fonctionnalités natives « do not track » leur permettant – en désactivant les cookies – de mieux préserver leur vie privée et l’historique de leur navigation. La seconde avancée décisive est venue des organismes de régulation, comme le W3C qui se bat pour donner aux internautes plus de contrôle sur les informations de navigation qu’ils partagent. Mieux : la Commission européenne a intégré ces dispositifs dans les directives du dernier « Paquet Télécom », transposées en 2012 par notamment l’ICO au Royaume- Uni et la CNIL en France. Ainsi, tous les sites web devaient désormais passer en mode opt-in et obtenir le consentement préalable des internautes. L’édifice, encore fragile, de la pub en ligne – au sommet duquel trône Google – en fut ébranlé, mais la profession s’y résigna, bon an mal an.
La recherche de l’équilibre entre la généralisation de l’Internet mobile et les craintes sur la confidentialité ne faisait que commencer. Au coeur de cette bataille, les cookies sont un symbole visible, bien que de moins en moins important face aux véritables enjeux de la prise de contrôle des internautes sur l’ensemble de leurs données. Si la fin probable des cookies semble inéluctable, c’est qu’ils sont en passe d’être remplacés par d’autres technologies plus sophistiquée prenant en compte la fusion entre les formes de commerce traditionnel et de e-commerce. Les méthodes actuelles de suivi des comportements sont désormais trans-canal et nécessitent de nouvelles approches.
La rumeur qui agite la Toile depuis une semaine ne parle-t-elle pas de de brain cookies, directement implantés dans nos cerveaux ! @

Le Q.I. de nos villes

Ce matin, tout en prenant mon petit-déjeuner, je révise mon agenda de la journée et valide les moyens de déplacement que mes applications m’ont automatiquement programmés. Un trajet multimodal, mixant tramway, vélo et bus, optimisé en fonction d’une météo dégagée et d’un pic de pollution rendant très onéreuse l’utilisation de ma voiture. Cette option est désormais possible par la disponibilité, en temps réel, de multiples données nécessaires et d’applications très simples d’utilisation : les vélos disponibles lors des connections sont déjà réservés, et mon budget et mes déplacements optimisés en fonction de mes rendez-vous et des conditions de circulation. Quelle est cette ville qui aurait sans doute stupéfiée un certain Jules Vernes qui écrivait, en 1863, l’un de ses tous premiers romans : « Paris au XXe siècle », publié en 1994 après avoir été retrouvé au fond d’un coffre ? Une formidable vision où Paris est désormais un port relié à la mer par un immense canal dont les rues, règne de la fée électricité, sont sillonnées par des métros aériens et des voitures silencieuses. Une ville bien réelle, comme elle l’est depuis toujours. Le père de l’anticipation ne pouvait imaginer l’émergence, au-delà de cette ville réelle, d’une ville virtuelle façonnée par les technologies de l’information. Cette combinaison a ainsi donné naissance à ce que Norbert Streitz a appelé la ville hybride, associant la réalité concrète aux données qu’elle génère en permanence.

« Ce concept de “Smart City”, au-delà de
l’argument de marketing territorial de ses débuts,
apparaît aujourd’hui comme réellement fédérateur. »

Depuis 2010, nous sommes ainsi entrés dans une longue phase d’expérimentation qui nous permet, chaque jour un peu plus, de mieux appréhender les promesses de la ville intelligente. Ce concept de « Smart City », au-delà de l’argument de marketing territorial qu’il a pu avoir à ses débuts, apparaît aujourd’hui comme réellement fédérateur pour les collectivités, les industriels et les citoyens. Il traduit une ambition partagée par les élus
et leurs administrés de concevoir l’avenir des citées répondant aux enjeux du développement durable, tout en exploitant le potentiel du numérique et en veillant à la cohésion territoriale et sociale.
L’élément déclencheur a été la disponibilité simultanée de données exploitables, dopées par la multiplication de capteurs en tout genre prenant en permanence le pouls de la ville, et d’interfaces de toutes sortes envahissant nos rues. A l’heure de l’« Open data » et des écrans dans la ville, ce sont les industriels qui ont rapidement pris la mesure de l’enjeu et du relais de croissance potentiel de ce nouvel eldorado : IBM, Cisco, General Electric, Panasonic, Schneider, Siemens, sans compter les SSII, les opérateurs télécoms et les fournisseurs de services d’eau ou d’énergie. Tous ont investi massivement dans la R&D, l’acquisition frénétique de sociétés spécialisées et l’évangélisation des villes (les premières servant de laboratoire à grande échelle). Même en période de ressources rares, l’avenir des villes passe par la maîtrise des différentes dimensions qui la composent. « Smart Gouvernance », « Smart Mobilités », « Smart Environnement », « Smart Economie » ou « Smart Qualité de vie » sont autant de domaines autour desquels les villes ont organisé leurs investissements : Amsterdam, pionnière des réseaux électriques intelligents ; Singapour, innovant dans des systèmes de péage urbain à tarification ajustée en temps réel ; Birmingham, New York ou encore bien d’autres agglomérations, mettant en places des plans numériques afin de concilier le développement des infrastructures fixes et mobiles, l’énergie et le développement durable, les services numériques innovants et l’inclusion sociale. Des utopies urbaines sont devenues bien réelles à travers la construction de la ville nouvelle, forcément intelligente, comme la « King Abdullah Economic City » qui accueille aujourd’hui sur les bords de la Mer Rouge plus de 2 millions de personnes sur une surface équivalente à trois fois la superficie de Manhattan ! Villes réelles, virtuelles, hybrides, intelligentes, … humaines. Les projets les plus complets intègrent la participation active des citoyens, moteur ultime de l’intelligence. Une manière de conjurer le sort entrevu par Jules Vernes qui terminait son roman de la ville du futur par la victoire funeste de la technologie sur la culture. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : L’e-pub
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut vient de publier
son rapport « Smart Cities : Le numérique au coeur
de la ville intelligente », par Philippe Baudoin

OFNI contre OFPI

Vous êtes déjà en 2020, PAR JEAN-DOMINIQUE SéVAL*

Le domaine de la lutte plus ou moins larvée que se livrent depuis plus de vingt ans les opérateurs télécoms et les géants de l’Internet n’en finit pas de s’étendre. Tout a commencé par une guerre des portails et des nouveaux services de communication : messageries instantanées,
e-mail, voix sur IP fixe ou mobile, réseaux sociaux, …
Les opérateurs tentent encore de trouver des domaines réservés et des services avancés. Les géants du Net,
eux, cherchent à capter une nouvelle part de la valeur en descendant vers les infrastructures : même de manière limitée, comme ce fut le cas pour Google avec ses projets restreints dans la fibre et le spectre, ou de façon plus structurelle, comme l’investissement de tous dans des réseaux planétaires de data centers. Mais l’engagement se joue sur tous les fronts. C’est, par exemple, le cas dans les brevets comme en 2012 : British Telecom attaque Google pour des violations de droits d’auteurs. Mais l’un des plus intéressants combats se déroula entre 2011 et 2015, lorsque les pays européens, sous la pression de la crise de leurs dettes publiques, souhaitèrent réviser la contribution fiscale des acteurs de cette nouvelle économie numérique.

« Les opérateurs télécoms se plaignent d’être des OFPI, ‘’objets fiscaux particulièrement identifiables’’, les GAFA étant de véritables OFNI, ‘’objets fiscaux non identifiés’’ ».

Les opérateurs télécoms furent les premiers à être dans le collimateur du collecteur d’impôt. En tant que fournisseurs d’accès à Internet (FAI), ils focalisèrent l’attention
de ceux pour qui ils profitèrent d’une économie du téléchargement en partie illégal. Cela fut fait en France dès 2010, en portant la TVA du taux réduit de 5,5 % au taux commun de 19,6 %. On demanda ensuite aux FAI de contribuer au financement du cinéma via la taxe sur les services de télévision (TST), laquelle rapporta quelque 200 millions par an payés par les fournisseurs d’accès à Internet sur un total de près de 600 millions d’euros, Ce premier succès donna des idées aux autres industries culturelles, la musique, la presse ou le livre, qui élaborèrent des plans pour obtenir la mise en place de mécanismes équivalant. Mais dans un contexte de crise et de concurrence renforcée, les opérateurs se plaignent d’être des OFPI, « objets fiscaux particulièrement identifiables ». C’est bien là en effet une clé de cet affrontement planétaire.

Alors que les « telcos » sont nationaux d’origine, les géants du Net sont par nature des entreprises globales, assurant la promotion de services déployés en un clic sur toute la surface du monde par des marques reconnues. Véritables OFNI, « objets fiscaux non identifiés », ils jouent à la fois sur la nouveauté de leur business models et sur leur présence multinationale. Ce qui leur a permis d’échapper au signal radar des administrations fiscales nationales. Mais avec la maturité des e-marchés, une normalisation fiscale a bien eu lieu. D’abord dans leur pays d’origine comme le prouvent les mesures prises par différents Etats dès 2012 pour soumettre les ventes d’Amazon à de nouvelles taxes. Comme d’autres sites marchands, ce géant bénéficiait d’une décision de la Cour Suprême l’exemptant de charges là où il n’avait pas de présence physique. De même, Apple économisa des milliards de dollars via une de ses filiales basée au Nevada à la fiscalité nulle. L’Europe, elle, a lancé une véritable chasse au GAFA (Google, Apple, Facebook, Amazon) et à leurs optimisations fiscales facilitées par l’implantation des sièges européens en Irlande ou au Luxembourg. Le législateur eut la tâche complexe de mieux faire contribuer les géants du Net en taxant leurs recettes publicitaires et les ventes en ligne, sans pour autant freiner le développement de tout un écosystème de pure players encore fragiles et de commerçants mariant boutique et ventes en ligne. Cette bataille fiscale est aujourd’hui apaisée. La Commission européenne a finalement révisé le cadre réglementaire pesant sur les opérateurs télécoms, tandis que le monde de l’Internet arrivant à maturité a rejoint un régime fiscal commun. D’autres luttes se sont engagées, rendant plus floue la frontière entre opérateurs de réseau et géants du Net. Ce matin, nous apprenons que Google lance une opération d’achat sur Verizon ! @

* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie tous les six mois son rapport « Le Marché mondial des services Internet 2012-2016 », par Soichi Nakajima.
Prochaine chronique « 2020 » : Le Q.I. de nos villes