Protection des données personnelles : Etats-Unis et Europe convergent sur tout, ou presque

L’administration Obama veut renforcer le pouvoir du régulateur du commerce,
la FTC, en matière de protection des données personnelles sur Internet et converger avec les règles proposées par la Commission européenne. Mais
les deux exécutifs divergent sur le droit à l’oubli.

Par Winston Maxwell (photo) et Christopher Wolf*, avocats associés, Hogan Lovells LLP.

Les Etats-Unis et l’Europe préparent en même temps d’importantes réformes en matière de protection des données personnelles.
La Commission européenne a proposé le 25 janvier 2012 (1)
un règlement et une directive qui seront débattues au sein du Parlement européen et du Conseil européen dans les 24 prochains mois. L’administration Obama, elle, a lancé le 23 février 2012 (2) une initiative intitulée « The Consumer Privacy Bill of Rights ». La proposition de la Maison Blanche vient d’être suivie par celle de la Federal Trade Commission (FTC), qui propose une série de mesures pour améliorer la protection du consommateur en matière de données personnelles (3).

Google et Facebook sous surveillance
Depuis longtemps, les Européens considéraient les Américains comme les parents pauvres de la protection des données personnelles. Certes, dans certains secteurs,
les Etats-Unis disposent d’une législation forte en la matière (4), mais il leur manque
une loi transversale qui accorde aux consommateurs des droits minimums de protection, quel que soit le prestataire. Même si la FTC disposait de pouvoirs généraux pour sanctionner des pratiques trompeuses, certains en Europe estimaient que ces pouvoirs n’étaient pas exercés de manière suffisamment forte, notamment vis-à-vis d’Internet. Mais, au cours de ces douze derniers mois, la FTC a montré qu’elle était capable de tenir tête aux plus grands acteurs de l’Internet. Elle a conclu à l’automne dernier deux accords transactionnels avec respectivement Google (5) et Facebook (6). Accusés de ne pas avoir respecté leurs propres engagements à l’égard des consommateurs, notamment au titre de leurs Privacy Policies (protection des données personnelles) et Safe Harbor (partenariat Etats-Unis/Europe), Google et Facebook ont fait l’objet d’une plainte par l’EPIC (Electronic Privacy Information Center), une association de défense des consommateurs et droits civiques. La FTC a lancé une enquête et a assigné les deux géants du Net en justice pour violation de l’article 5 de
la loi américaine sur la protection des consommateurs (section 5 du FTC Act). Google et Facebook ont contesté ces accusations, mais ont choisi de conclure un accord transactionnel avec la FTC, plutôt que de se battre devant les tribunaux. D’une durée de 20 ans, ces accords imposent un régime strict de protection de données personnelles au sein de chaque entreprise – un régime digne de ce qu’aurait pu imaginer une autorité européenne telle que la Cnil (7) en France ! Ces accords imposent des obligations d’ « accountability » (voir plus loin) similaires à celles envisagées par la proposition de règlement européen. La FTC devient un gendarme redoutable en matière de données personnelles, ses amendes dépassant
de loin celles imposées par les autorités européennes.
L’administration Obama souhaite aller encore plus loin : le plan dévoilé le 23 février imposerait aux Etats-Unis un régime similaire à celui envisagé en Europe. Les points
de convergence entre le plan américain et la proposition de règlement européen sont nombreux.
• Principe de la transparence : les propositions américaines et européennes soulignent, toutes les deux, la nécessité de donner aux consommateurs des informations plus claires et lisibles sur le traitement de leurs données personnelles. La pratique actuelle consiste à insérer les dispositions sur les données personnelles, au sein de conditions générales de vente longues et difficilement compréhensibles. Cette pratique doit cesser, aussi bien en Europe qu’aux Etats-Unis. Les entreprises doivent présenter des informations courtes et pertinentes, au bon endroit et au bon moment, pour que le consommateur soit réellement informé.
• Principe du consentement : pour qu’un consentement soit valable, celui-ci doit être explicite et précis. Un consentement global aux conditions générales ne suffira plus. Il faudrait prévoir des consentements ciblés, proposés au bon endroit et au bon moment. Cette obligation pèse déjà sur les prestataires d’Internet en matière de cookies.

Consentement explicite. Et implicite ?
Les révisions de 2009 au Paquet Télécom exigent dorénavant un consentement explicite du consommateur, avant le déploiement de ces « témoins électroniques »
sur son terminal. Même si le principe semble clair, sa mise en oeuvre s’avère complexe. Si on appliquait la règle à la lettre, le consommateur devrait donner des centaines de consentements (8) à chaque visite d’un site web !
Les prestataires de l’Internet et des organisations comme le W3C (9) travaillent avec
les autorités de régulation en Europe, afin de trouver des solutions pragmatiques à ce problème épineux. Le groupe des « Cnil » européennes, dit « Article 29 », s’apprête à publier un avis sur sujet. Les propositions américaines, elles, admettent que le consentement peut être implicite dans certains cas où de toute évidence le consommateur s’attend à ce que ses données personnelles soient utilisées (10).
La FTC souhaite, par ailleurs, une loi spécifique pour encadrer l’activité des « data brokers », ces marchands peu visibles qui achètent des listes de données, notamment pour les revendre aux prestataires de la publicité en ligne.
• Principe d’ « accountability » : difficilement traduisible en français, ce concept signifie l’obligation pour chaque entreprise d’organiser son propre audit interne de conformité. Ces programmes de contrôle, dits de « compliance », sont fréquents en matière comptable, anti-corruption et concurrence, surtout depuis l’affaire « Enron ». L’existence d’un tel programme constitue une circonstance atténuante pour les autorités américaines lorsqu’elles appliquent des sanctions. La proposition européenne et l’initiative Obama obligeraient les entreprises à prendre en compte la protection des données personnelles lors de l’élaboration de leurs produits ou services, tout comme elles prennent en compte les normes anti-pollution (11), et de prouver ensuite qu’elles ont mis en place des mesures de protection et que ces mesures de protection sont régulièrement mises à jour et testées pour garantir leur efficacité.
Autre point de convergence entre Américains et Européens : la notion même de données personnelles. Longtemps adeptes du concept de PII (Personally identifiable identifiable information), les Américains semblent maintenant rejoindre la notion plus large (12) de données personnelles chère aux Européens. Même l’adresse IP d’une machine constituerait une donnée personnelle, selon la proposition de la FTC (13).

Web, Cloud,… : libre circulation des données
Un autre point de convergence consiste en la recherche d’un régime international qui permettrait aux données de circuler librement sans frontières, tout en assurant une protection adéquate pour le citoyen. Cet objectif a été à l’origine même de la directive européenne de 1995 sur la protection des données personnelles (14) et a été fixé ensuite dans les accords « Safe Harbor » de 2000, entre les Etats-Unis et la Commission européenne. Mais l’ampleur des flux internationaux de données et la notion de « cloud computing » rend la recherche de nouvelles solutions indispensable. La recherche d’interopérabilité entre les régimes américain et européen de protection de données personnelles a fait l’objet d’une réunion à Washington le 19 mars 2012 (15). Cela passerait par la généralisation de codes de conduite ayant force de loi. En Europe, ces codes sont connus sous le nom Binding Corporate Rules (BCR). La Cnil en France et les autres autorités européennes mettent en avant les BCR comme le moyen le plus approprié pour fluidifier les transferts de données à travers le monde, au sein d’une même organisation. Aux Etats-Unis, l’initiative Obama prévoit la mise au point de codes de conduite ayant force de loi au sein de différents secteurs de l’industrie. Cette démarche sera supervisée par la NTIA (16), une agence au sein du département du Commerce américain. Si les codes de conduite américains commencent à ressembler aux BCR européens, la fameuse interopérabilité pourrait enfin devenir une réalité. @

* Christopher Wolf est également le fondateur
du « Future of Privacy Forum »
(www.futureofprivacy.org) à Washington DC.

Satellite : les nouveaux FAI

Vous êtes déjà en 2020, Par Jean-Dominique Séval*

Pour les amateurs de Science fiction, l’espace est bien plus que le ciel au-dessus de nos têtes ou qu’un objet d’étude repoussant les limites de l’univers aux confins de la métaphysique. C’est aussi un lieu familier où des vaisseaux spatiaux imaginaires relient entre elles de lointaines planètes. Un rêve encore, même si la conquête de l’espace a encore progressé.
Le voyage spatial séduit de plus en plus de passagers, qui embarquent dans des astroports flambant neufs. L’antique station spatiale internationale, l’IIS vient de terminer sa vie au fond d’un océan, tandis qu’une nouvelle station chinoise est en cours d’assemblage. De nombreuses sondes ont continué à être envoyées dans tout le système solaire et, au-delà, pendant que les programmes d’expéditions lunaires et martiennes continuent de mobiliser les grandes agences nord-américaine, européenne, russe et asiatique.

« Les opérateurs de satellites se sont bien transformés en FAI. Mais ils s’inscrivent – pour l’instant ? – dans une logique d’offre complémentaire pour les zones mal desservies. »

Mais, parmi les très nombreuses promesses offertes par la conquête spatiale, la plus concrète reste encore celle proposée par l’utilisation intensive d’un espace restreint au modeste périmètre de l’attraction terrestre : entre 200 et 36.000 kilomètres autour de la terre. Un espace saturé aujourd’hui par plus de 3.000 satellites, opérationnels ou non.
L’odyssée du satellite artificiel a commencé dans l’imaginaire fertile d’auteurs comme Edward Everett Hale, dans sa nouvelle The Brick Moon (1869), ou Jules Verne, dans Les 500 millions de la Bégum (1879). Moins d’un siècle plus tard, la course était lancée avec le précurseur soviétique Spoutnik I (1957), aussitôt suivi par l’américain Explorer 1 (toujours en orbite depuis 1958).

Les satellites, dans leur ronde silencieuse, ont dès lors progressivement rempli des missions de plus en plus variées : observation, localisation, télédiffusion ou communication. Mais, alors qu’ils commençaient à saturer l’espace orbital disponible, tout en atteignant une certaine maturité commerciale marquée par une diversification croissante de leur gamme de services à forte valeur ajoutée, la compétition avec des services terrestres faisait rage.
La promesse théorique du satellite est pourtant sans égale : pouvoir délivrer partout sur la planète, et quel que soit le relief, des services de télévision et de communication incluant désormais l’accès haut débit à Internet. Si la plupart des pays développés ont adopté des plans nationaux très haut débit à horizon 2020, les solutions technologiques retenues furent d’abord en faveur de réseaux terrestres fixes (FTTx) associés au réseau mobile 4G (LTE), la Corée du Sud et le Japon étant pionniers en la matière.
Seuls quelques pays, dont la France et l’Australie, envisagèrent de mettre le satellite à contribution comme solution crédible pour délivrer des services très haut débit à 50 Mbits/s à partir de 2015, privilégiant l’utilisation de la bande Q/V en substitution à la bande Ka.

Dans cette bataille qui l’opposa aux technologies mobiles terrestres, le satellite ne manquait pas d’atouts technologiques et économiques.

En retard par rapport à la concurrence terrestre en 2011, les opérateurs de satellites ont rapidement renforcé leurs offres « bundlées » en intégrant des offres TV, qui étaient un de leurs points forts historiques. Eutelsat, via sa filiale Skylogic et son satellite européen multifaisceaux Ka- Sat, développa une offre multiplay disponible (Tooway) et du haut débit à des tarifs comparables à ceux des accès ADSL ou fibre optique. Au final, les opérateurs satellite se sont bien transformés en FAI. Mais leur part de marché est encore limitée et ils s’inscrivent – pour l’instant ? – dans une logique d’offre complémentaire pour des habitants de zones mal desservies.
Le nombre d’abonnés haut débit par satellite sur l’Europe et l’Afrique du Nord est quand même, en 2020, de plus de 1 million (contre moins de 150.000 dix ans plus tôt). En regardant la place limitée qu’occupe aujourd’hui le satellite et en s’interrogeant sur la pertinence des choix techniques et économiques retenus, me prend l’envie de convoquer les mânes de William S. Burroughs qui déclarait : « Après un regard sur cette planète, n’importe quel visiteur de l’espace demanderait : ‘’je veux parler au directeur’’». @

* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son étude « Très haut débit par satellite », par Maxime Baudry.
Prochaine chronique « 2020 » : Câble : la révolte des cord-cutters

Très haut débit : la 4G va coiffer au poteau le FTTH

En fait. Le 1er mars s’est achevé à Barcelone le 17e congrès annuel mondial de
la téléphonie mobile, le Mobile World Congress, organisé sur quatre jours par la GSM Association. La téléphonie de quatrième génération – 4G – était à l’honneur. Les réseaux LTE seront-ils des concurrents pour le FTTH ?

Apps contre Web : bataille ou convergence ?

Comme l’Antiquité a été jalonnée de ces grandes guerres mémorables aux noms évocateurs – guerres médiques, puniques ou guerre des Gaules… – les premiers âges de l’Internet fixe auront également été rythmés par leurs propres conflits : guerres des portails, guerre du search ou guerre du social graph. Le basculement d’Internet vers le mobile au tournant des années 2010, à également ouvert un nouveau front. Les premiers pas du Web mobile ayant laissé à désirer, un nouvel entrant imposa à tous un raccourci plébiscité par les utilisateurs. Apple utilisa le concept d’applications comme moyen de contourner les trop lourdes adaptations des sites web au nouvel écosystème mobile.
Les Apps préexistèrent dès 2002, avec le lancement de kits pour développeurs fournis par Symbian, Brew (Qualcomm) et Java ME, mais elles restèrent globalement ignorées
du grand public.
Et c’est en 2008, à l’occasion du lancement de son iPhone 3G, que Steve Jobs déclencha la guerre des « App Stores ». L’appel d’air fut gigantesque : le nombre d’applications passa de 500 au début à plus de 500.000 quatre ans plus tard, pour atteindre un record
en février 2012 avec la 25 milliardième application téléchargée !

« Les cinq dernières années ont en fait ouvert une période passionnante de convergence entre Web et Apps. »

Google lança dans la foulée, avec Android son OS mobile triomphant, son propre magasin d’« applis ». Le succès fut au rendez-vous, dépassant même le nombre d’applications de la marque à la pomme. Les autres ont essayé de populariser leurs propres App Stores
sur le marché des smartphones : RIM avec BB App World pour maintenir son précurseur Blackberry dans la course, Nokia avec Ovi Store abandonné dans l’urgence pour Windows Phone Marketplace, ou Samsung Appstore jouant la carte d’Android Market. La contagion était telle que certains préfèrent appeler le terminal mobile « app-phones » plutôt que « smart-phones ».
La rogne des tenants d’un Internet ouvert, inquiet de voir se cloisonner l’Internet Mobile naissant, ne pesa pas lourd face au succès public. L’engouement pour la simplicité d’usage apportée par les Applis fut tel que le phénomène déborda rapidement l’univers strict du mobile. La barre de navigation des Mac s’est rapidement enrichie de liens vers les « Apps » tandis que Windows 8, lancé en 2012, embarquait Windows Store Apps. L’utilisateur retrouvait ainsi l’ensemble de ses applis dans un endroit unifié, mais dans la limite de cinq terminaux. Après les ordinateurs, les consoles s’y sont mises à leur tour à l’instar de Nintendo proposant, dès mi-2012, sa Wii U en association avec un App Store consultable via une tablette tactile fournie avec la console. Même Amazon a lancé son magasin avec sa propre tablette, tout en inaugurant un mode de rémunération innovant
où c’est l’outil qui affine le prix de vente à partir de celui fixé par le développeur et un algorithme maison.
Cette frénésie a rapidement gagné tous les écrans, y compris les TV connectées, donnant en partie raison aux Cassandres qui pronostiquaient la mort du Web. Mais les effets pervers du tout-Apps se firent sentir dès 2015. La prolifération des applications finit par engendrer une grande complexité à laquelle les « Meta-Apps » ne répondaient que partiellement. Adapter chaque application à de plus en plus d’App Stores a d’abord été
un frein pour de nombreux développeurs, malgré des outils de duplication. Enfin, la
logique « fermée » des App Stores ne se soumettaient que péniblement a la demande d’interopérabilité des utilisateurs. C’était d’ailleurs un des axes de la stratégie d’un Facebook, qui, dès 2011, avait annoncé qu’il resterait « App Store Agnostic », afin de jouer un rôle-clés dans le décloisonnement et dans la sélection des applications par la force des recommandations. Le Web ouvert avec ses qualités natives de navigation et d’interconnexion, s’est finalement complètement renouvelé grâce à la banalisation – bien avant 2015 – de l’HTLM 5, nouvel environnement de programmation du Net, adapté tout autant aux applications fixes que mobiles. Les cinq dernières années ont en fait ouvert une période passionnante de convergence entre Web et Apps. Une nouvelle bataille,
où les Apps bien à l’abri derrière leur « mur d’Hadrien » affrontent les nouvelles avancées du Web ouvert. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Librairies en ligne
* Directeur général adjoint
du DigiWorld Institute by IDATE.
Sur le même thème, l’institut vient de publier son étude
« Apps and the Mobile Internet », par Soichi Nakajima.