De la photo à la webographie

En cette fin d’été, à ce moment particulier où nos pensées sont encore imprégnées par nos voyages et retrouvailles familiales, je retrouve sur le Net les images de ceux qui ont vécu les mêmes instants que moi, mais avec leurs regards, à travers leurs innombrables photos. Pour moi, qui ne suis pas photographe, c’est une chance que de pouvoir me faire un album grâce aux centaines de clics de mon réseau. Quand je souligne que je ne fais pas de photo, ce n’est plus tout à fait vrai. Sans vraiment le vouloir, je me suis trouvé progressivement à la tête de terminaux mobiles intégrant, pour la plupart d’entre eux,
une fonction de capture d’images. Il m’arrive donc d’en prendre, le plus souvent avec
mon smartphone qui ne me quitte jamais, mais sans rivaliser avec la frénésie qui semble tenir la plupart de mes contemporains ! Je suis donc, comme beaucoup, emporté par
cette vague de fond qui fait du XXIe siècle celui de l’image reine. Le siècle précédent,
qui fut celui des grands noms du métier et des grandes agences qui donnèrent leurs lettres de noblesse à la photographie, ferait presque pâle figure face à ce déferlement.
Car il s’agit bien d’un changement d’échelle depuis l’année 2001 où l’activité photographique mondiale argentique était encore mesurable : quelque 2,7 milliards de
films furent consommés, pour un total de plus de 80 milliards de photos. Dix ans plus tard, avec l’essor du numérique, le nombre de photos prises dans le monde pouvait atteindre les 800 milliards, dont plus de 100 milliards mises en ligne sur le seul Facebook – au rythme trépidant de 6 milliards de clichés par mois !

« Mes lunettes ne font-elles pas un excellent appareil ? Immersives, les images sont de plus en plus réalisées en très haute définition, en vision 180° ou en 3D ».

Que de prises de vue depuis cette fameuse année 1839 durant laquelle est né le procédé de reproduction photographique qui fixa une image fugace au fond de cette chambre noire. Mis au point par Niépce, touche à tout de génie, le procédé fut commercialisé par Daguerre, homme d’affaire inspiré, qui supplanta ses concurrents français ou anglais
en partant très rapidement à la conquête du monde. Cette invention marqua également
les esprits par la rapidité de sa diffusion : boutiques prises d’assaut, une heure après l’ouverture et multiplication éclair des vocations de photographes. Le procédé a ensuite évolué durant tout un siècle : très vite la couleur et de nouveaux supports comme la plaque de verre, puis le film souple, ensuite le petit format grâce aux innovations de
Leica ou d’Agfa, et le développement instantané par Polaroïd, pour finir par les raffinements extrêmes de l’électronique japonaise triomphante.
L’amplification du phénomène par la révolution digitale, déclenchée par la mise sur le marché des premiers véritables appareils photos numériques en 1995, n’est bien sûr pas seulement quantitative, mais bouscule la plupart des repères pourtant solidement établis depuis les origines. Le photojournalisme a dû se réinventer, complément, pour faire face
à la mutation des métiers de la presse et à la banalisation du scoop à portée de milliards d’objectifs : les grands noms d’aujourd’hui réinventent la photo de presse sur le Web,
en laissant derrière eux, par la qualité de leur travail, le vieux débat sur la photo retouchée. Depuis longtemps élevé au rang des arts majeurs, la photo a envahi le vaste champ de la création plasticienne en occupant de fait la place laissée vacante par la peinture lorsqu’elle accoucha de son dernier monochrome. L’espace de création semble infini, comme le montre cette artiste, Corinne Vionnet, qui produit des images troublantes à partir de la même vue postée par des milliers d’internautes. La photo se détache toujours plus du boitier traditionnel – mes lunettes ne font-elles pas un excellent appareil ? – et en même temps se libère des deux dimensions originelles : immersives, les images sont de plus en plus en très haute définition, en vision 180° ou en 3D. Cependant, et quel que soit le rythme des innovations, la part magique de nos photos reste encore irréductible, au moins tant que l’oeil et le cerveau qui les fabriquent restent aux commandes et que, comme nous l’a appris Roland Barthes dans « La chambre claire » : « Ce que la photographie reproduit à l’infini n’a lieu qu’une fois ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : e-Mémoires
Stockage et conservation des contenus
* Directeur général adjoint de l’IDATE. Sur ce thème, ne pas
manquer les Rencontres d’Arles Photographie jusqu’au
17 septembre 2011 : www.rencontres-arles.com.

Babel numérique

J’attendais avec impatience ce retour à Shangaï. Et pas seulement pour cette étrange ivresse que provoque cette plongée dans une ville unique, nimbée de l’aura que lui confère son statut de cité parmi les plus puissantes de l’économie monde e. Cette fois-ci, je débarque de l’avion bardé de nouveaux outils de traduction automatique que j’ai hâte de tester ici. Une occasion unique pour décrypter mon environnement et même communiquer sans intermédiaire. La rue est mon premier terrain d’expérimentation. Armé de mon smartphone, une application avancée de réalité augmentée – intégrant les fonctions d’un outil de type Word Lens de Quest Visual – me permet de lire tous les panneaux ou autre indication écrite. Je me retrouve comme un enfant, qui, sachant enfin lire, comprend enfin sa ville. Timidement, je teste une autre application de traduction simultanée, toujours avec l’aide de mon mobile. J’énonce une question dans ma langue que traduit aussitôt une application du type Talk to me par Flaviuapps.

« Une application avancée de réalité augmentée me permet de “comprendre” la ville, une autre – de traduction simultanée – mes interlocuteurs ».

La magie opère, puisque la réponse de mon interlocuteur me revient pas le même chemin, enfin compréhensible et manifestement juste puisque, grâce à ces indications, j’arrive à retrouver mes amis. Pour en arriver à ce niveau d’outils intuitifs et fiables, il a fallu des décennies de tâtonnement. La traduction automatique est une discipline éminemment complexe, qui bute d’ailleurs encore sur certaines ambiguïtés irréductibles lexicales, grammaticales ou sémantiques. C’est peu dire que l’humanité en a longtemps rêvé. Après le tragique épisode de Babel, les mythologies ont souvent fait appel à des solutions radicales, comme les Apôtres recevant le don des langues au cours d’un repas, afin de porter la parole du Christ de par le vaste monde. La pensée scientifique naissante, en la personne de René Descartes, a aussi jeté très tôt les bases de ce qui pourrait être une langue universelle. Tandis que les auteurs de science-fiction réglèrent le problème en dotant leurs équipages de traducteurs intergalactiques bien commodes. La réalité a bien sûr été plus complexe, mais elle passe bien en partie par les machines. La traduction automatique est née en même temps que le premier ordinateur de l’histoire, en 1946 au Royaume-Uni. Mais ce sont les Etats-Unis qui ont très vite mis les grands moyens, dès 1954, avec une démonstration très médiatisée à New-York sur un IBM 710 : 49 phrases en Russe traduites en anglais à partir de 250 mots de vocabulaire et 6 règles de grammaire. Au cœur de la Guerre froide, les Américains et les Soviétiques rivalisèrent aussi dans ce domaine au cœur des techniques d’espionnage. Dans la foulée, de nombreuses équipes universitaires se sont mises
au travail. Mais la tâche s’est avérée plus ardue que prévue. Elaborer un ensemble
de règles agrémenté d’un peu d’intelligence artificielle n’a pas suffi, et les quarante dernières années n‘ont pas été à la hauteur des espérances. L’Internet a permis d’aborder le sujet sous un nouvel angle, en multipliant des applications gratuites et dédiées à la traduction de pages web ou d’e-mails en mode text-to-text voir en text-to-speech. Avec l’approche par analogie statistique, qui reste l’une des grandes force de l’Internet, de nouvelles applications apparurent dès 2011, comme Google Translate
qui a popularisé la traduction vocale instantanée sur mobile. En adaptant souvent nos énoncés afin d’éviter les approximations. Par la suite, de réels progrès ont été obtenus par la fusion des deux approches. L’un des leaders historiques, Systran, invertit 5 années de développement dans un moteur hybride, associant un système par règles
à une approche statistique. Des espaces collaboratifs inédits ont également été libérés du côté de la face cachée du Net. Qui sont ces traducteurs de l’ombre – ces fansubs – qui s’attèlent au sous-titrage à jet continu des innombrables épisodes des séries TV ? Mais, si aujourd’hui des outils facilitent notre vie quotidienne – du voyageur
ou des étudiants des débats font rage comme celui autour duquel s’affronte ceux qui préconisent l’abandon de l’enseignement des langues étrangères à l’école, « véritable perte de temps », et les autres qui s’en tiennent à la réflexion de Johann Wolfgang von Goethe : « Celui qui ne connaît pas les langues étrangères ne connaît rien de sa propre langue ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : La photo
* Directeur général adjoint de l’IDATE.

M-Monnaie pour M-Wallet

Pendant un instant, j’ai eu un sentiment de vide. Vous savez, cette impression fugace qui vous saisit au moment de passer une porte et qui vous pousse à tapoter vos poches. D’abord mécaniquement, puis frénétiquement, au fur et à mesure que la certitude s’installe, la certitude de la perte irrémédiable
d’un portefeuille, laissant une poche vide, lestée du poids de l’habitude. Mais, cette fois-ci, ma poche est pleine. Bien à sa place, il y a mon mobile. Rassuré, je continue ma route. J’ai abandonné le portefeuille depuis quelques années ; il ne me manque pas. Il était toujours trop lourd et mal rangé, même si j’ai encore la nostalgie du premier jour : quand on découvre ces différents recoins lors du transfert du contenu de l’ancien vers le nouveau, l’occasion d’un tri drastique, jamais renouvelé. Aujourd’hui, mon smartphone a fait le vide et pris la place des pièces de monnaies, des billets, de ma carte bancaire, de nombreuses cartes de fidélité, d’un bloc-notes, de ma carte d’identité, de mon permis de conduire, des tickets de tram ou de péage, d’un plan de métro, de mes clés de voiture … De plus, ce nouveau portefeuille m’alerte sur l’état de mon compte et me rend mille autres petits services.

« Notre portefeuille fut au cœur d’une révolution monétaire, symbolisée par l’abandon progressif de la carte bancaire au profit du mobile »

Le portefeuille d’antan a bien essayé de se réinventer. Dunhill n’a-t-il pas lancé en
2011 un nouveau modèle, extérieur carbone et intérieur cuir, ne s’ouvrant qu’à la reconnaissance de l’empreinte digitale de son propriétaire et sonnant en cas de séparation grâce à une liaison Bluetooth avec le téléphone mobile ? C’était sans compter avec le terminal mobile multifonctions. Mais qui aurait pu imaginer que notre modeste portefeuille allait être au cœur de l’une des plus grandes batailles numériques : la révolution monétaire symbolisée par l’abandon progressif de la carte bancaire au profit du mobile, rendue possible par de longues et complexes négociations entre des opérateurs télécoms, des fabricants de terminaux, des géants de l’Internet, de grandes enseignes et, bien sûr, des établissements financiers.La pratique du paiement via les mobiles est, en fait, plus ancienne : avant les années 2000, on pratiquait déjà les règlements par SMS ou sur des boutiques en ligne. Il a fallu attendre la banalisation
de la technologie NFC lancée par Nokia, Philips et Sony, en 2004, pour rendre possible des paiements sécurisés sans contact par le rapprochement d’un terminal mobile avec une base dédiée chez un commerçant. Un simple geste suffit, le « touch to pay », pour effectuer un règlement.
Dès 2004, NTT DoCoMo lança avec succès son Mobile Wallet suivi par de nombreuses expérimentations, plus de 200 dans le monde en 2010, comme celle de Barclays avec
le Transport of London en 2007, ou l’initiative Cityzi des opérateurs français – Bouygues Telecom, Orange et SFR – testée à Nice en 2010. Aux Etats-Unis aussi, AT&T, T-Mobile et Verizon se sont associés pour développer une solution commune. Il leur fallait faire vite car, déjà, l’année suivante, les géants de l’Internet se mettaient en marche :
à peine annoncée, la solution Google Wallet se voyait accuser de plagiat par Paypal, alors leader des paiements sur mobile, pendant qu’Apple lançait son application E-Wallet.
En même temps que notre monnaie fiduciaire se dématérialisait encore un peu plus, apparaissaient des applications pionnières de monnaies virtuelles et privées, accompagnant les échanges dans des univers virtuels comme Second Life, des
« Social Games » comme FarmVille ou des réseaux sociaux comme Facebook. Un
pas de plus fut franchi par la création de Bitcoin, une étonnante monnaie électronique décentralisée conçue en 2009 par le mystérieux Satoshi Nakamoto. Bitcoin a connu son premier krach le 19 juin 2011, en passant en quelques heures d’environ 12 euros
à près de zéro ! Il y avait une faille dans la sécurité du réseau… Cette tendance reste encore marginale, mais il est clair que nous sommes entrés dans un nouveau cycle économique. Woody Allen ne pourrait plus nous asséner son conseil préféré : « Si votre psychanalyste s’endort devant vous, il y a un truc infaillible pour le réveiller : ouvrez doucement votre portefeuille ». Le faire sonner sera désormais sans doute tout aussi efficace ! @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : L’e-multilinguisme
* Directeur général adjoint de l’IDATE.
Sur le même thème l’Idate a publié son étude
« M-Payment : A battle of giants in a segmented market »
par Sophie Lubrano.

Fracture universelle ?

Il en va des fractures dans le monde numérique comme
de la tectonique des plaques dans le monde réel : on sait qu’elles existent et qu’elles dessinent des structures profondes, mais qu’elles sont difficiles à identifier avec précision ; elles sont sans cesse mouvantes et peuvent
se réactiver après de longues périodes de silence. Une première fracture, analogique celle-ci, fut réduite afin de permettre à la plus grande partie de la population de bénéficier sur tout le territoire
de services de téléphonie et de télévision. Dans la France des années 70, les investissements massifs dans les réseaux mis en oeuvre par des services publics offensifs ont marqué profondément cette grande période de démocratisation des moyens de communication. Depuis la libéralisation des médias audiovisuels en 1982
et des lignes téléphoniques en 1998, on s’était habitué à ces nouvelles facilités d’accès en oubliant les efforts consentis pour les obtenir. Mais, au tournant des années 2000, s’est fait jour une nouvelle fracture, numérique celle-ci.

« L’Europe a réussi, tant bien que mal, à définir une notion commune de service universel de l’accès haut débit fixe et mobile ».

Le débat fut très animé pour savoir pourquoi, par quel mystère, les Français manquaient tant d’appétence pour Internet, remisant régulièrement l’Hexagone en
fin de classement des nations les plus avancées : faiblesse de la pénétration des ordinateurs, prix élevés des abonnements, peu d’empressement initial de l’opérateur historique ayant à gérer la délicate transition de la fin du Minitel… En 2010, la France était même dans le peloton de tête en Europe, avec un taux pénétration de l’Internet
de plus de 60 %. La fracture numérique, portée sur le devant de la scène par le tandem Bill Clinton-Al Gore en 1996, s’est depuis lors extrêmement complexifiée. La notion
de digital divide recouvre en fait une réalité bien plus complexe, qui se décline en trois temps : inégalité dans l’accès, inégalité dans l’usage des outils, inégalité dans l’usage des contenus. De ce point de vue était lancée une course de fond qui ne devait plus s’arrêter. A peine atteignait-on un niveau de couverture décente en haut débit, que nous nous demandions comment combler le retard suivant dans la couverture optimale du territoire en très haut débit, en tenant compte du rôle désormais central du Mobile Broadband, devenu le véritable marqueur de l’exclusion. On ne parlait plus dès lors de « la » fracture, mais « des » fractures, en retenant en priorité les points de rupture du lien social suivant. Même si Manuel Castells nous expliqua, en son temps, que la seule véritable fracture était celle de l’âge, il n’était pas possible alors d’occulter d’autres critères très importants comme l’aménagement numérique du territoire, le niveau de revenu, le niveau d’éducation ou les handicaps.
Si à peu près toutes les politiques de réduction des fractures numériques ont été mises
en oeuvre sur la planète, il n’existe pas de contrée idéale qui aurait, en appliquant un cocktail miraculeux, résolu cette difficile équation ou péréquation. Chacun, avec sa culture, la réalité de son tissu industriel, ses options en termes de régulation et sa capacité à absorber les effets de la grande crise des dettes nationales de 2012, a administré ses propres remèdes. Les leaders asiatiques en ont très tôt fait une affaire d’Etat, à tel point que ces pays disposaient d’accès à très haut débit pour tous, alors que nous venons péniblement de dépasser, en 2020, les 40 % de ménages connectés au très haut débit. Tout le monde a mis la main à la pâte. Les opérateurs ont maintenu un niveau élevé d’investissements indispensables. L’Europe a réussi, tant bien que mal, à définir une notion commune de service universel de l’accès haut débit fixe et mobile, tandis que certains Etats mettaient en place des politiques de soutien indispensables pour s’assurer que personne ne resterait sur le côté – surtout au moment où la plupart des actes administratifs sont accessibles en ligne. Mais c’est sans doute les initiatives locales qui nous ont le plus surpris, quand des villes ont réussi le pari de dynamiser leurs écosystèmes en faisant travailler ensemble citoyens, associations, entreprises
et centres de recherche pour créer de nouveaux services solidaires basés sur les
nouvelles technologies numériques. Les systèmes éducatifs et les réseaux de médiathèques, par exemple, sont devenus des relais indispensables à l’enrichissement culturel populaire. Et ce, grâce à des programmes innovants d’enseignement en ligne. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Paiement en ligne
* Directeur général adjoint de l’IDATE.
Sur le même thème l’Idate a publié un numéro spécial
de sa revue « Communications & Stratégies » :
« Broadband for All » (www.comstrat.org).

A vos Tablettes !

A l’occasion d’une visite à la dernière grande exposition organisée par les antiquités orientales du musée du Louvre, j’ai été le témoin d’une scène troublante. Face à la statue du scribe Dudu, grand maître des tablettes d’argile qui exerçait son métier en Mésopotamie au milieu du IIIe millénaire avant J.-C., se tenait un jeune étudiant des beaux-arts le dessinant du bout des doigts sur sa tablette numérique : véritable mise en abîme de deux pratiques parallèles séparées par 5.000 ans ! Cette réinvention, ouvrant un nouvel âge d’or des tablettes quelques millénaires plus tard, nous a même surpris lorsqu’Apple lança en 2010 son iPad avec le succès que l’on sait. Ce n’était pourtant pas la première du genre, loin s’en faut. Sans parler des apparitions dans la série Star Trek, la première tablette numérique, Dynabook, fut imaginée par Alan Kay dès 1968 avec quasiment tous les attributs qui ont fait leur succès : un ordinateur sans fil de type notepad doté d’un écran tactile, disposant de capacités de stockage propres et à la portée des enfants, afin de contribuer à leur apprentissage.

« Tablette du futur : matériau redimensionnable, écran holographique avec toucher par ultrason, coque alliant nanomatériaux et photovoltaïque, scanner et caméra. Et visiophone 3D ? »

Il a cependant fallu attendre 1987 pour qu’apparaissent, bien réels, les premiers terminaux de ce type : d’un côté, le Cambridge Z88 qui était en fait un logiciel de traitement de texte équipé d’un écran LCD monochrome ; de l’autre, le Linus Write-Top qui s’apparentait à une dalle tactile à reconnaissance d’écriture avec son stylet. Les vingt années suivantes furent très actives, mais avec de rares succès. Ce fut d’abord le temps des start-up, avec GRiD Systems Corporation qui lança son GRiDPad en 1989, premier ordinateur à écran tactile, suivi dans l’aventure par des Archos ou des PaceBlade. Si certains leaders ont très tôt testé le marché, à l’instar de Fujitsu avec son PoqetPad en 1991, les choses ne se sont vraiment accélérées qu’au milieu des années 2000, avec l’entrée en lice des Asus, Samsung, Sony et autres Nokia. Même un Lenovo présentait en 2010 une vidéo montrant l’un des premiers ThinkPad, celui créé chez IBM au début des années 90.
L’iPad n’est donc pas arrivé sur une terre vierge, loin s’en faut, puisque des centaines
de tablettes préexistaient. Mais la tablette d’Apple est venue s’insérer presque naturellement dans un écosystème déjà maîtrisé avec succès : la plateforme iTunes
et le mobile multimédia iPhone.
L’ère des tabs était venue ! Une ère résolument post-PC… Si l’iPad dominait encore
en 2010 le marché des tablettes Internet, lequel passa de près de 10 à 30 milliards
de dollars de chiffre d’affaires entre 2011 et 2012, la concurrence finit enfin par être audible. Les 20 millions de tablettes vendues furent dépassées en 2011 et les 300 millions fin 2015, cannibalisation des PC et déploiement des tablettes en entreprises aidant. Pendant ce temps, la part de marché d’Apple passait progressivement d’un insolent 98 % à un toujours impressionnant 70 %. Certains fabricants se lancèrent dans le sillage du géant de Copertino, en proposant des clones avec des OS plus ouverts, comme Android de Google. D’autres cherchèrent à se différencier comme un Dell avec son Inspirion, mi-tablette/mi-laptop, ou un Ausus avec son Padfone lancé en 2012, une tablette tactile de 10 pouces pouvant accueillir un smartphone ! La tablette pouvait ainsi cumuler de très nombreux usages en remplaçant efficacement un lecteur audio, une télé portative, une console de jeu, voire un livre ou un journal. Seuls les smarphones ont résisté à l’envahisseur en restant, et de loin, les terminaux les plus vendus au monde. Les réseaux, eux, ont dû faire face à l’explosion des données numériques :
une multiplication de la consommation quotidienne par plus de 60 en Europe, passant de 187 à 12.540 téraoctets entre 2010 et 2020…
La tablette d’aujourd’hui a bien changé en puissance et fonctionnalités. Alors que de nouvelles perspectives apparaissent, matérialisant les épures du designer Tommaso Gecchelin qui imaginait en 2011 la tablette du futur : matériau redimensionnable, écran holographique avec toucher par ultrason, coque alliant nanomatériaux et photovoltaïque, scanner et caméra, … Et visiophone 3D ? @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : La fracture numérique
* Directeur général adjoint de l’IDATE.
Sur le même thème l’Idate tiendra son prochain
DigiWorld Summit (16-17 novembre 2011) sur le thème
« Will the Device be King ? » (www.digiworldsummit.com).