L’Europe prend des airs de régulateur mondial de la protection des données sur Internet

La Commission européenne va présenter autour du 28 janvier, journée mondiale des données personnelles (Data Privacy Day), deux projets de textes législatifs sur la protection des données personnelles en ligne : l’un sur la régulation, l’autre sur la nouvelle directive.

Edition Multimédi@ s’est procuré la derrière version – numérotée 56 et datée du 29/11/11 – de la proposition de la Commission européenne au Parlement européen
et au Conseil de l’Union sur l’évolution de la législation en matière de protection des données personnelles. Deux projets de textes y sont proposés que Viviane Reding, vice-présidente de la Commission européenne, présentera fin janvier : le premier sur
la régulation de la protection des données personnelles ; le second sur la directive sur la protection des données personnelles.

La décision d’une « Cnil » suffira
Dix-sept ans après la promulgation de la directive européenne sur la protection des données personnelles (1), l’Europe s’apprête à imposer aux géants du Net (Facebook, Google, Amazon, Apple, Yahoo, Microsoft, …) et à tous les acteurs du Web ou d’Internet mobile (moteurs, sites, éditeurs, médias, régies pub, agrégateurs, opérateurs, FAI, plateformes de téléchargement ou de streaming, …) des règles contraignantes pour renforcer la protection des données personnelles collectées en ligne, exploitées et transférées par-delà les frontières. Depuis l’été dernier, mais surtout depuis la version
« 56 » des propositions divulguée à quelques professionnels lors du congrès de l’IAPP (2) Europe Data Protection à Paris le 29 novembre dernier, les lobbyistes – notamment les trois de l’IAPP, dont la liste des membres n’est pas publique – s’activent à Bruxelles pour tenter d’atténuer le caractère contraignant pour eux du prochain cadre réglementaire. Dans ce double projet législatif, Viviane Reding – commissaire en charge de la Justice après l’avoir été pour le Numérique – entend ajouter aux codes
de bonne conduite existants des obligations non explicitement prévues dans la directive de 1995 mais qui ont été identifiées par le « Groupe 29 » réunissant les Cnil (3) européennes. Il s’agit de permettre aux internautes et mobinautes de (re)prendre l’initiative sur leurs données personnelles et leur vie privée sur Internet, en leur (re)donnant le pouvoir d’exercer leurs droits : du consentement explicite (explicit consent) avant que leurs données ne soient enregistrées et exploitées, jusqu’au droit à l’oubli (right to be forgotten). Et ce, même si l’entreprise du Net est basée en dehors de l’Union comme c’est souvent le cas dans le « cloud computing » par exemple (lire p. 8 et 9). « En cas du marketing direct à des fins commerciales, [cette démarche] devrait être légale seulement si la personne concernées par ces données a donné son consentement préalable (prior consent). Le consentement peut être [aussi] retiré », précise le projet de directive dans son considérant n°50. Sont notamment visés les
« cookies » déposés par les éditeurs et/ou les annonceurs sur le terminal des internautes ou des mobinautes (4) (*) (**). Cette contrainte, déjà prévue dans le Paquet télécom de 2009, a été transposée en France par l’ordonnance du 24 août dernier (5) mais avec un compromis (6).
Plus généralement, la grande réforme de la protection des données personnelles
va consister en une seule loi européenne : les entreprises n’auront plus à demander l’autorisation préalable (prior autorisation) à chacune des vingt-sept « Cnil ». « Cette fragmentation juridique est un fardeau administratif coûteux. (…) C’est nuisible à la crédibilité et à l’efficacité des autorités de protection de données », a d’ailleurs déploré Viviane Reding, qui entend harmoniser la législation et tenter de mettre un terme au patchwork communautaire. Lorsqu’une des autorités nationales en Europe approuvera des règles ou des transferts de données personnelles d’une entreprise, cette autorisation préalable devra être reconnue par les vingt-six autres Etats. « Les citoyens (…) seront protégées d’une façon semblable partout dans l’Union européenne », a promis la vice-présidente. La nouvelle législation prévoit en outre de renforcer le pouvoir de sanction des Cnil en cas d’infraction à l’encontre d’entreprises et/ou de parties tierces contrevenantes. La portée de ce nouveau cadre aura même une portée globale, s’appliquant aussi bien aux données personnelles sur le marché unique intérieur mais aussi ailleurs dans le monde. Une mise en garde pour les multinationales du Net telles que Facebook, relevant actuellement du droit irlandais, et pour les adeptes du « nuage informatique » délocalisé.

Les « nuages informatiques » visés Ainsi, les utilisateurs pourront faire valoir leur droit sur leurs données personnelles, quel que soit l’endroit dans le monde où elles sont traitées.
« Les obligations concerneront aussi les entreprises du cloud computing », a insisté Viviane Reding. L’exécutif européen espère ainsi faire école dans le monde entier en matière de protection des données, en mettant en place une législation sans précédent
et compatible mondialement. @

Charles de Laubier

Le Big Data Bang

Rien moins que le déluge ! Déluge numérique, déferlement de données, avalanche d’informations : les chiffres qui nous donnaient le tournis il y a à peine dix ans, nous semblent ridicules aujourd’hui. Pourtant, en 2010, on estimait que l’humanité – en produisant l’équivalent de 1.000 exabytes – faisait son entrée dans l’ère du zettabyte : un zettabyte équivalant à 1 milliard de terabytes. La croissance a été au rendez-vous, puisqu’en 2020 nous en sommes déjà à plus de 35 zettabytes ! Cette augmentation exponentielle est le résultat d’un emballement général. Les réseaux qui structurent le Web sont de plus en plus nombreux : après les données des institutions et des entreprises sur le Web de première génération, les données personnelles ont déferlé sur la Toile, amplifiées par la banalisation des réseaux sociaux diffusés sur tous les terminaux et les services mobile.
A cela, s’est ensuite ajouté le flux massifs d’informations libérées, comme les données publiques mises en ligne par les Etats ou les collectivités locales. Puis, ce fut au tour des milliards de « data » générés par l’Internet des objets. Nous apprenons à naviguer dans un espace numérique presque infini, composé de données hétérogènes : données non structurées, venues du monde entier, de plus en plus souvent produites en temps réel
et généralement taguées de mots-clés, de dates, de lieux, …

« Les algorithmes sont en mesure de faire émerger les motifs cachés des entrailles du Web : un Deep Web qui représente 90 % de l’ensemble du Net »

Le Web peut-il cependant se réduire à une addition vertigineuse de bytes, plus petite unité adressable d’un ordinateur ? Alors que les contenus qui le composent sont de plus en plus diversifiés : informations, textes, images ou vidéos. Aurions-nous mal apprécié la nature profonde du Web ? D’un côté, nous avons un Internet toujours plus complexe aux outils hyper sophistiqués faisant appel aux technologies du web sémantique, du web des émotions ou du web cognitif. De l’autre côté, le web des data offres déjà de nouvelles perspectives étourdissantes. Basé sur la loi des grands nombres, une nouvelle génération d’outils préfère s’appuyer sur la force brute des ordinateurs plutôt que de faire appel à des modèles bien conçus. De plus en plus nombreux sont ceux pensant que c’est perdre son temps que de chercher à comprendre, quand il est bien plus efficace d’utiliser les bonnes vieilles recettes de la statistique pour faire parler ces montagnes de données plus ou moins structurées. L’histoire semblent leur donner raison, dans la mesure où plus l’on dispose de data, plus les algorithmes sont en mesure de faire émerger les motifs cachés des entrailles du Web des profondeurs : un Deep Web qui représente 90 % de l’ensemble du Net, comme la face immergée d’un iceberg géant.
De nombreux services phares du Net bénéficient de la puissance du Big Data, comme
le search, les services de traduction ou de recherche d’images. Dans la masse des données, il y a sûrement des données similaires qu’il suffit d‘extraire pour traduire une phrase du chinois vers l’anglais ou compléter la partie manquante d’une photo. Des laboratoires y ont travaillé durant cette dernière décennie et de nombreuses entreprises se sont lancées dans cette nouvelle ruée vers l’or, que certains analystes présentent comme une quête du Graal pour la compétitivité et la productivité. Des start-up se lancèrent dans l’aventure, tandis que les géants comme IBM, Google ou Amazon multipliaient les achats stratégiques de ces briques technologiques aux noms étranges : Hadapt, Cloudera, Factual, DataStax, Pervasive DataRush, Infochimps, Citrusleaf, 1010data, … C’est finalement l’avènement d’une nouvelle informatique qui est en train
de se jouer. La mise en place d’un écosystème organisant la gestion de cette masse
de données en expansion constante dans le Cloud, stockée dans des « datacenters », véhiculée à très haut débit et traitée par des ordinateurs surpuissants. L’un des enjeux étant bien de mettre à la portée du plus grand nombre une nouvelle génération d’applications combinant, entre autre, la puissance du datamining et de la datavizualisation. Comme autant de Dédale modernes essayant de comprendre les arcanes de ce Labyrinthe planétaire numérique qu’ils ont participé à construire. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Les jeux vidéo online
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’IDATE a publié son rapport
« Le futur de l’Internet », par Vincent Bonneau.

L’échec de la carte musique devrait inquiéter la filière

En fait. Le 25 novembre, la « carte musique » – lancée il y a un an par le gouvernement pour favoriser les plateformes légales au détriment du piratage –
est rendue disponible au format d’une carte physique, faute d’avoir séduit en ligne les 12 à 25 ans : « plus de 50.000 cartes » ont été vendues.

Des ebooks plein les poches

Avant de l’être par des terminaux numériques, mes poches ont longtemps été déformées par les bouquins. Trimbalés, annotés et cornés, ces livres de poche étaient pour moi
un univers familier, facile d’accès et inépuisable. Moins intimidants que les grands formats, ils ont permis à des générations d’ados d’accéder simplement à tous les genres littéraires. Librairies, bouquinistes, bibliothèques familiales
ou collectives, étagères des copains étaient autant d’endroits où l’on pouvait découvrir un auteur en « Livre de poche ».
Et l’emporter partout avec soi, le temps d’une lecture. Pour l’adolescent d’aujourd’hui,
celui qui lit encore, la découverte d’un livre se fait le plus souvent sur la Toile, au détour d’un « search », d’un « surf » ou d’une recommandation sur les réseaux sociaux, lorsque ce n’est pas en consultant sa bibliothèque en ligne personnelle dans le « cloud ». Et son choix ne se fait plus entre deux ouvrages rivalisant de couverture attrayante sur une même étagère, mais entre un ebook, une vidéo ou une émission en direct. Le glissement
a été général et le rapport à l’écrit, la gestion du temps et les références collectives ont profondément changé. Rares sont les lecteurs de 2020 qui évoquent encore avec nostalgie le toucher et l’odeur du papier des livres d’antan.

« Les éditeurs proposent l’ebook en même temps que la sortie du livre papier grand format, mais avec une décote de plus de 35 % »

En matière d’édition, il n’y a rien de stable ni d’éternel. Les succès de Balzac, de Sue ou de Dumas ne furent-ils pas des feuilletons publiés dans la presse avant d’être les livres qui nous les ont fait connaître ? Le livre à petit prix est apparu très tôt, puisque dès 1905 les éditions Jules Talendier commercialisaient des romans populaires sous l’appellation Livre de poche, marque rachetée ensuite par Hachette. Mais c’est en Allemagne que fut lancé en 1931, par Albatross Books, ce nouveau format repris en 1935 par l’inamovible collection Penguin Books, dont le succès des premiers Paperbacks fut immédiat au Royaume-Uni. Aux Etats-Unis, c’est en 1939 que Simon & Schuster créa une collection similaire au nom devenu générique de Pocket Books. En France, le véritable lancement du label Livre de poche date de 1953 : Henri Filipacchi réussit à convaincre plusieurs éditeurs. Les concurrents lui emboîtèrent le pas. J’ai Lu, Folio, 10/18 ou Que sais-je ? sont autant de noms et de marques qui tentent aujourd’hui de continuer l’aventure dans
le monde numérique.
Il a cependant fallu du temps pour que l’on retrouve pleinement, avec l’ebook, les bénéfices du Livre de poche. Le monde bousculé de l’édition a bien essayé de mettre
en place une nouvelle hiérarchie pour tenter de gérer, sinon de contrôler, la transition inéluctable du livre papier vers le livre numérique : une véritable chronologie du livre, comme il y eu pendant longtemps une chronologie des médias pour les films. Celleci préexistait d’ailleurs à l’ebook. Jusqu’en 2010, le scénario était bien rodé : un à deux
ans après la sortie du livre en grand format, sortait la version poche, qui permettait de prolonger la vie de l’ouvrage tout en lui assurant une diffusion plus large. L’arrivée du numérique a, comme pour le cinéma, exercé une pression nouvelle, poussant au raccourcissement des délais : dès 2011, plusieurs éditeurs américains avouaient l’avoir réduit d’un an à six mois entre le grand format papier et l’ebook. A cette compétition nouvelle entre les supports s’est ajouté un réglage délicat de la hiérarchie des prix. Au début, la version électronique d’un best-seller pouvait être jusqu’à deux fois moins chère que sa version grand format. En revanche, l’ebook n’était généralement pas moins cher que le livre de poche. Mais cette position ne pouvait être tenable plus longtemps. Les éditeurs ont alors opté pour une tarification dynamique de l’ebook, en le proposant en même temps que la sortie du livre grand format avec une décote de plus de 35 %.
Au moment de la sortie du format poche, une seconde baisse du prix de l’ebook était proposée cette fois légèrement inférieure à la version papier.
Qu’aurait dit Jean-Paul Sartre d’une telle évolution, lui qui posait la question dans
Les Temps modernes: « Les Livres de poche sont-ils de vrais livres ? Leurs lecteurs sont-ils de vrais lecteurs ? »… mais pour mieux les soutenir. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : La face cachée du Web
* Directeur général adjoint de l’IDATE.
Sur le même thème,
l’IDATE publie chaque année son rapport
« ebooks : marchés et perspectives », par Sophie Lubrano.

e-Mémoires

En attendant un rendez-vous, je profite du beau temps
pour travailler dans un parc à proximité . Mon bureau portatif, une tablette et quelques accessoires indispensables, est avant tout une extension de ma mémoire, un accès simple
et instantané à mes archives, quelles qu’elles soient, professionnelles ou personnelles : texte, image, musique
ou vidéo, annuaire, agenda ou comptabilité.
Pour moi, qui n’a pas la mémoire dont j’avais rêvé, c’est
bien plus qu’une aubaine ! Il s’agit à proprement parler d’un miracle, renouvelé chaque jour, simplement, grâce à un ensemble de prothèses numériques. Pendant des millénaires, l’humanité a cultivé et enseigné les fondements
de l’Ars memoriae, en transmettant notamment la méthode des lieux, joliment appelée
« Palais de mémoire », qui consistait à découper un texte à retenir pour en ranger les parties dans différentes pièces en les associant à des images saisissantes. Ce serait
là d’ailleurs l’une des fonctions primordiales des enluminures dans les manuscrits médiévaux, selon les toutes dernières recherches en la matière. Durant tous ces siècles de rareté du livre, mémoriser était un exercice essentiel, même si, comme aujourd’hui, l’hypermnésie suscitait l’admiration, comme en son temps un Giordano Bruno qui poussa très loin cet art mémoriel. Alors que ces pratiques sont oubliées depuis longtemps, nous sommes encore loin des récits d’anticipation annonçant une extension de nos mémoires naturelles par une combinaison d’implants de puces à ADN associés à une meilleure maîtrise des performances des capacités naturelles de notre cerveau rendue enfin accessible par les progrès de la neurologie et des nanotechnologies.

« L’indexation en temps réel des “e-souvenirs” bénéficie aujourd’hui des progrès des nouveaux moteurs de recherche. »

En attendant, des projets étonnants ont vu le jour. Comme le projet Total Recall, commencé en 1998 par Gordon Bell, chercheur chez Microsoft, qui se lança dans la numérisation de sa propre vie. Avec l’aide d’un matériel léger accroché autour du cou (micro, caméra, …), cet explorateur de lui-même, garde la trace de tous ses documents (photos, annuaires, factures, livres, vidéos,…) et des événements personnels (conversations téléphoniques, messageries instantanée, entretiens, …). Cette expérience de laboratoire, et celles qui suivirent in situ, ont eu le mérite de poser toutes les questions. Techniques d’abord : pour être réalisable, il fallait compter sur le développement exponentiel de capacités de stockage ; le prix du téraoctet (1.000 Go) était déjà passé sous la barre des 100 euros en 2010, pour atteindre les 75 euros aujourd’hui pour environ 250 téraoctets (To) de mémoire. De quoi enregistrer des dizaines de milliers d’heures de vidéos et des millions de photographies. Disposer des ressources de stockage, combinant simplement le local et le « cloud », a apporté une réponse pratique à la question cruciale de la conservation de nos données. Alors que nous n’avions jamais eu autant de témoignages de nos vies, nos archives ont longtemps été vulnérables en raison du changement régulier des générations de supports fragiles : disquettes, CD, DVD, clé USB, carte SD, disque dur. Si la question technique du stockage a finalement été la plus simple à régler, l’organisation de telles quantités de données a été en revanche plus complexe : l’indexation en temps réel des « e-souvenirs » bénéficie aujourd’hui des progrès des nouveaux moteurs de recherche.
Quant aux usages, ils font l’objet d’un débat qui fait actuellement rage. Certains sont clairement vécus comme des avantages : un élève peut se repasser les moments clés d’un cours ; un patient dispose de l’enregistrement continu de ses paramètres vitaux pour faciliter le diagnostic de son médecin. D’autres posent des questions auxquelles nous n’avons pas encore de réponses : peut-on filmer notre entourage sans porter atteinte à leur droit à l’image ou même à leur vie privée ? Comment se prémunir contre le piratage
de sa « e-mémoire », ou de son utilisation à des fins policières et juridiques ? Si, à cette occasion, la notion de journal intime, de prise de notes et de verbatim a pris un caractère nouveau, nombreux sont ceux qui, d’une matière ou d’une autre, souhaiteraient faire leur cette remarque d’Alfred Jarry : « L’oubli est la condition indispensable de la mémoire ». @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : VDSL versus fibre
* Directeur général adjoint de l’IDATE.