Président du Geste : Who’s Next ? Scherer ou Patino ?

En fait. Le 29 mars, le Groupement des éditeurs de contenus et de services en ligne (Geste) organisait une matinée prospective : « Médias en ligne : What’s Next ? ». L’événement s’est tenu chez France Télévisions… Son patron de la stratégie, Eric Scherer, pourrait être le prochain président du Geste.

En clair. Le successeur de Philippe Jannet, président du Geste depuis plus de 11 ans (1) et homme de presse écrite (2), pourrait être Eric Scherer, directeur de la prospective, de la stratégie et des relations internationales de France Télévisions (depuis fin 2006). Pour ses 25 ans, le Geste va en effet changer de président lors de la prochaine assemblée générale, qui se tiendra le 14 juin prochain. C’est ce jour-là que Philippe Jannet remettra sa démission. Les candidats devront se déclarer en mai auprès du groupement. En marge de la matinée « What’s Next ? », Edition Multimédi@ a demandé à Eric Scherer s’il se portera candidat à la présidence du Geste. « Je ne sais pas », nous a-t-il répondu, n’excluant donc pas de se présenter. Selon nos informations, Bruno Patino, directeur général délégué au développement numérique
et à la stratégie de France Télévisions n’a, quant à lui, pas (encore ?) manifesté auprès du Geste le souhait d’être candidat. Il s’est contenté d’introduire – comme hôte – les participants de la matinée prospective. La candidature d’Eric Scherer – administrateur depuis novembre 2009 du Geste où il préside le comité de pilotage de la commission
« Audiovisuel et Nouveaux médias »  – serait la bienvenue, d’autant que l’audiovisuel en ligne est devenu depuis 2011 une préoccupation majeure du Geste (3). L’interaction entre la télévision et les réseaux sociaux, sur fond de multiplication des écrans (TV connectée incluse), fut justement au cœur du débat de la matinée avec la Social TV,
ou Smart TV. Le Geste devrait « tourner la page » de la presse écrite en pleine crise et entrer pleinement dans le monde de l’audiovisuel en plein boom. Un membre du bureau du Geste a indiqué à EM@ que le candidat devra représenter « un groupe français d’envergure, présent sur tous les écrans ».
Parmi les vice-présidents du Geste, aucun ne semble avoir le profil, sauf peut-être Isabelle André qui était, jusqu’à début mars, directrice de la stratégie et du développement du groupe Amaury (4). Mais elle a déjà succédé à Philippe Jannet à
la direction du Monde Interactif. « En quittant le Monde Interactif, avait écrit ce dernier début mars, j’ai aussi choisi de ne pas renouveler ma candidature à la tête du Geste. (…) En devenant consultant, en prenant la direction générale du GIE E-Presse, (…) il me semble compliqué de rester l’interlocuteur des pouvoirs et de l’industrie ». @

Protection des données personnelles : Etats-Unis et Europe convergent sur tout, ou presque

L’administration Obama veut renforcer le pouvoir du régulateur du commerce,
la FTC, en matière de protection des données personnelles sur Internet et converger avec les règles proposées par la Commission européenne. Mais
les deux exécutifs divergent sur le droit à l’oubli.

Par Winston Maxwell (photo) et Christopher Wolf*, avocats associés, Hogan Lovells LLP.

Les Etats-Unis et l’Europe préparent en même temps d’importantes réformes en matière de protection des données personnelles.
La Commission européenne a proposé le 25 janvier 2012 (1)
un règlement et une directive qui seront débattues au sein du Parlement européen et du Conseil européen dans les 24 prochains mois. L’administration Obama, elle, a lancé le 23 février 2012 (2) une initiative intitulée « The Consumer Privacy Bill of Rights ». La proposition de la Maison Blanche vient d’être suivie par celle de la Federal Trade Commission (FTC), qui propose une série de mesures pour améliorer la protection du consommateur en matière de données personnelles (3).

Google et Facebook sous surveillance
Depuis longtemps, les Européens considéraient les Américains comme les parents pauvres de la protection des données personnelles. Certes, dans certains secteurs,
les Etats-Unis disposent d’une législation forte en la matière (4), mais il leur manque
une loi transversale qui accorde aux consommateurs des droits minimums de protection, quel que soit le prestataire. Même si la FTC disposait de pouvoirs généraux pour sanctionner des pratiques trompeuses, certains en Europe estimaient que ces pouvoirs n’étaient pas exercés de manière suffisamment forte, notamment vis-à-vis d’Internet. Mais, au cours de ces douze derniers mois, la FTC a montré qu’elle était capable de tenir tête aux plus grands acteurs de l’Internet. Elle a conclu à l’automne dernier deux accords transactionnels avec respectivement Google (5) et Facebook (6). Accusés de ne pas avoir respecté leurs propres engagements à l’égard des consommateurs, notamment au titre de leurs Privacy Policies (protection des données personnelles) et Safe Harbor (partenariat Etats-Unis/Europe), Google et Facebook ont fait l’objet d’une plainte par l’EPIC (Electronic Privacy Information Center), une association de défense des consommateurs et droits civiques. La FTC a lancé une enquête et a assigné les deux géants du Net en justice pour violation de l’article 5 de
la loi américaine sur la protection des consommateurs (section 5 du FTC Act). Google et Facebook ont contesté ces accusations, mais ont choisi de conclure un accord transactionnel avec la FTC, plutôt que de se battre devant les tribunaux. D’une durée de 20 ans, ces accords imposent un régime strict de protection de données personnelles au sein de chaque entreprise – un régime digne de ce qu’aurait pu imaginer une autorité européenne telle que la Cnil (7) en France ! Ces accords imposent des obligations d’ « accountability » (voir plus loin) similaires à celles envisagées par la proposition de règlement européen. La FTC devient un gendarme redoutable en matière de données personnelles, ses amendes dépassant
de loin celles imposées par les autorités européennes.
L’administration Obama souhaite aller encore plus loin : le plan dévoilé le 23 février imposerait aux Etats-Unis un régime similaire à celui envisagé en Europe. Les points
de convergence entre le plan américain et la proposition de règlement européen sont nombreux.
• Principe de la transparence : les propositions américaines et européennes soulignent, toutes les deux, la nécessité de donner aux consommateurs des informations plus claires et lisibles sur le traitement de leurs données personnelles. La pratique actuelle consiste à insérer les dispositions sur les données personnelles, au sein de conditions générales de vente longues et difficilement compréhensibles. Cette pratique doit cesser, aussi bien en Europe qu’aux Etats-Unis. Les entreprises doivent présenter des informations courtes et pertinentes, au bon endroit et au bon moment, pour que le consommateur soit réellement informé.
• Principe du consentement : pour qu’un consentement soit valable, celui-ci doit être explicite et précis. Un consentement global aux conditions générales ne suffira plus. Il faudrait prévoir des consentements ciblés, proposés au bon endroit et au bon moment. Cette obligation pèse déjà sur les prestataires d’Internet en matière de cookies.

Consentement explicite. Et implicite ?
Les révisions de 2009 au Paquet Télécom exigent dorénavant un consentement explicite du consommateur, avant le déploiement de ces « témoins électroniques »
sur son terminal. Même si le principe semble clair, sa mise en oeuvre s’avère complexe. Si on appliquait la règle à la lettre, le consommateur devrait donner des centaines de consentements (8) à chaque visite d’un site web !
Les prestataires de l’Internet et des organisations comme le W3C (9) travaillent avec
les autorités de régulation en Europe, afin de trouver des solutions pragmatiques à ce problème épineux. Le groupe des « Cnil » européennes, dit « Article 29 », s’apprête à publier un avis sur sujet. Les propositions américaines, elles, admettent que le consentement peut être implicite dans certains cas où de toute évidence le consommateur s’attend à ce que ses données personnelles soient utilisées (10).
La FTC souhaite, par ailleurs, une loi spécifique pour encadrer l’activité des « data brokers », ces marchands peu visibles qui achètent des listes de données, notamment pour les revendre aux prestataires de la publicité en ligne.
• Principe d’ « accountability » : difficilement traduisible en français, ce concept signifie l’obligation pour chaque entreprise d’organiser son propre audit interne de conformité. Ces programmes de contrôle, dits de « compliance », sont fréquents en matière comptable, anti-corruption et concurrence, surtout depuis l’affaire « Enron ». L’existence d’un tel programme constitue une circonstance atténuante pour les autorités américaines lorsqu’elles appliquent des sanctions. La proposition européenne et l’initiative Obama obligeraient les entreprises à prendre en compte la protection des données personnelles lors de l’élaboration de leurs produits ou services, tout comme elles prennent en compte les normes anti-pollution (11), et de prouver ensuite qu’elles ont mis en place des mesures de protection et que ces mesures de protection sont régulièrement mises à jour et testées pour garantir leur efficacité.
Autre point de convergence entre Américains et Européens : la notion même de données personnelles. Longtemps adeptes du concept de PII (Personally identifiable identifiable information), les Américains semblent maintenant rejoindre la notion plus large (12) de données personnelles chère aux Européens. Même l’adresse IP d’une machine constituerait une donnée personnelle, selon la proposition de la FTC (13).

Web, Cloud,… : libre circulation des données
Un autre point de convergence consiste en la recherche d’un régime international qui permettrait aux données de circuler librement sans frontières, tout en assurant une protection adéquate pour le citoyen. Cet objectif a été à l’origine même de la directive européenne de 1995 sur la protection des données personnelles (14) et a été fixé ensuite dans les accords « Safe Harbor » de 2000, entre les Etats-Unis et la Commission européenne. Mais l’ampleur des flux internationaux de données et la notion de « cloud computing » rend la recherche de nouvelles solutions indispensable. La recherche d’interopérabilité entre les régimes américain et européen de protection de données personnelles a fait l’objet d’une réunion à Washington le 19 mars 2012 (15). Cela passerait par la généralisation de codes de conduite ayant force de loi. En Europe, ces codes sont connus sous le nom Binding Corporate Rules (BCR). La Cnil en France et les autres autorités européennes mettent en avant les BCR comme le moyen le plus approprié pour fluidifier les transferts de données à travers le monde, au sein d’une même organisation. Aux Etats-Unis, l’initiative Obama prévoit la mise au point de codes de conduite ayant force de loi au sein de différents secteurs de l’industrie. Cette démarche sera supervisée par la NTIA (16), une agence au sein du département du Commerce américain. Si les codes de conduite américains commencent à ressembler aux BCR européens, la fameuse interopérabilité pourrait enfin devenir une réalité. @

* Christopher Wolf est également le fondateur
du « Future of Privacy Forum »
(www.futureofprivacy.org) à Washington DC.

FOCUS

Point d’achoppement Etats-Unis/Europe : le droit à l’oubli
Si les positions américaine et européenne s’accordent désormais sur l’essentiel,
elles achoppent sur un point sérieux : le droit à l’oubli. Selon la Commission européenne, le droit à l’oubli consiste seulement à rendre plus clairs des droits qui existent déjà – et notamment le droit d’exiger l’effacement de données, lorsque celles-ci ne sont plus nécessaires. Pour certains Américains, le droit à l’oubli est l’une des plus grandes menaces à la liberté d’expression sur l’Internet de notre époque. Selon le professeur Rosen (17) à la George Washington University, le droit à l’oubli ouvre la porte à de nombreuses actions par des individus contre des plateformes d’accès à l’information, telle que Wikipedia et Google, afin de bloquer l’accès à des informations peu flatteuses (18). Les Américains voient dans le « droit à l’oubli » une dérive dangereuse vers la censure et la réécriture de l’histoire (19).

Satellite : les nouveaux FAI

Vous êtes déjà en 2020, Par Jean-Dominique Séval*

Pour les amateurs de Science fiction, l’espace est bien plus que le ciel au-dessus de nos têtes ou qu’un objet d’étude repoussant les limites de l’univers aux confins de la métaphysique. C’est aussi un lieu familier où des vaisseaux spatiaux imaginaires relient entre elles de lointaines planètes. Un rêve encore, même si la conquête de l’espace a encore progressé.
Le voyage spatial séduit de plus en plus de passagers, qui embarquent dans des astroports flambant neufs. L’antique station spatiale internationale, l’IIS vient de terminer sa vie au fond d’un océan, tandis qu’une nouvelle station chinoise est en cours d’assemblage. De nombreuses sondes ont continué à être envoyées dans tout le système solaire et, au-delà, pendant que les programmes d’expéditions lunaires et martiennes continuent de mobiliser les grandes agences nord-américaine, européenne, russe et asiatique.

« Les opérateurs de satellites se sont bien transformés en FAI. Mais ils s’inscrivent – pour l’instant ? – dans une logique d’offre complémentaire pour les zones mal desservies. »

Mais, parmi les très nombreuses promesses offertes par la conquête spatiale, la plus concrète reste encore celle proposée par l’utilisation intensive d’un espace restreint au modeste périmètre de l’attraction terrestre : entre 200 et 36.000 kilomètres autour de la terre. Un espace saturé aujourd’hui par plus de 3.000 satellites, opérationnels ou non.
L’odyssée du satellite artificiel a commencé dans l’imaginaire fertile d’auteurs comme Edward Everett Hale, dans sa nouvelle The Brick Moon (1869), ou Jules Verne, dans Les 500 millions de la Bégum (1879). Moins d’un siècle plus tard, la course était lancée avec le précurseur soviétique Spoutnik I (1957), aussitôt suivi par l’américain Explorer 1 (toujours en orbite depuis 1958).

Les satellites, dans leur ronde silencieuse, ont dès lors progressivement rempli des missions de plus en plus variées : observation, localisation, télédiffusion ou communication. Mais, alors qu’ils commençaient à saturer l’espace orbital disponible, tout en atteignant une certaine maturité commerciale marquée par une diversification croissante de leur gamme de services à forte valeur ajoutée, la compétition avec des services terrestres faisait rage.
La promesse théorique du satellite est pourtant sans égale : pouvoir délivrer partout sur la planète, et quel que soit le relief, des services de télévision et de communication incluant désormais l’accès haut débit à Internet. Si la plupart des pays développés ont adopté des plans nationaux très haut débit à horizon 2020, les solutions technologiques retenues furent d’abord en faveur de réseaux terrestres fixes (FTTx) associés au réseau mobile 4G (LTE), la Corée du Sud et le Japon étant pionniers en la matière.
Seuls quelques pays, dont la France et l’Australie, envisagèrent de mettre le satellite à contribution comme solution crédible pour délivrer des services très haut débit à 50 Mbits/s à partir de 2015, privilégiant l’utilisation de la bande Q/V en substitution à la bande Ka.

Dans cette bataille qui l’opposa aux technologies mobiles terrestres, le satellite ne manquait pas d’atouts technologiques et économiques.

En retard par rapport à la concurrence terrestre en 2011, les opérateurs de satellites ont rapidement renforcé leurs offres « bundlées » en intégrant des offres TV, qui étaient un de leurs points forts historiques. Eutelsat, via sa filiale Skylogic et son satellite européen multifaisceaux Ka- Sat, développa une offre multiplay disponible (Tooway) et du haut débit à des tarifs comparables à ceux des accès ADSL ou fibre optique. Au final, les opérateurs satellite se sont bien transformés en FAI. Mais leur part de marché est encore limitée et ils s’inscrivent – pour l’instant ? – dans une logique d’offre complémentaire pour des habitants de zones mal desservies.
Le nombre d’abonnés haut débit par satellite sur l’Europe et l’Afrique du Nord est quand même, en 2020, de plus de 1 million (contre moins de 150.000 dix ans plus tôt). En regardant la place limitée qu’occupe aujourd’hui le satellite et en s’interrogeant sur la pertinence des choix techniques et économiques retenus, me prend l’envie de convoquer les mânes de William S. Burroughs qui déclarait : « Après un regard sur cette planète, n’importe quel visiteur de l’espace demanderait : ‘’je veux parler au directeur’’». @

* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son étude « Très haut débit par satellite », par Maxime Baudry.
Prochaine chronique « 2020 » : Câble : la révolte des cord-cutters

L’ADSL renforce sa 2e place dans la réception de la TV

En fait. Le 23 mars, la 10e édition du Guide des chaînes numériques a été publié conjointement par le CSA, la DGMIC, le CNC, l’ACCeS et le SNPTV : à fin 2011,
la France compte 229 chaînes de télévision numérique, dont 28 chaînes de la TNT autorisées, 141 conventionnées et 60 déclarées auprès du CSA.

En clair. Depuis le 30 novembre 2011, c’est-à-dire il y a moins de six mois, le PAF est
100 % numérique. Mais la TNT (1) n’est pas le seul mode diffusion à profiter de l’extinction de la diffusion analogique. Le fil de cuivre boosté à l’ADSL en profite pleinement aussi. La TV sur ADSL, qui va fêter ses 10 ans l’an prochain, gagne en effet encore du terrain et conforte sa deuxième place comme mode de réception de la télévision numérique. Cette situation audiovisuelle est unique au monde, car 92,2 % des accès (très) haut débit (fibre comprise) en France se font par l’ADSL. Or, selon nos constatations, l’Observatoire de l’équipement des foyers pour la réception de la télévision numérique – créé en 2008 sous l’égide du CSA, en partenariat avec le CSN (2), la DGMIC (ministère de la Culture) et France Télé Numérique – semble sous-estimer la TV sur ADSL comme deuxième moyen de réception télévisuel. D’après le Guide des chaînes numériques, qui cite ses chiffres semestriels (3), seuls 7,4 millions de foyers – soit 27,5 % d’entre eux – recevraient la télévision sur ADSL. Pourtant, d’après l’Arcep qui a publié le 5 avril son dernier relevé arrêté au 31 décembre 2011, le nombre d’accès TV sur ADSL dépasserait les 12 millions – à 12.255.000 exactement – avec une croissance annuelle à deux chiffres (14,7 % entre fin 2010 et fin 2011). Toujours d’après l’Arcep, le taux d’abonnement à la TV par la boucle locale de cuivre s’approche ainsi des 60 % des abonnements ADSL ( 58,4 % des 21.002 précisément au 31 décembre). Comment expliquer cet écart – de 4,6 millions tout de même – entre l’Observatoire et l’Arcep ? Edition Multimédi@ avance deux explications.
La première concerne les méthodologies différentes de l’un et l’autre : l’Observatoire, lui, s’appuie sur deux enquêtes de Médiamétrie (22 entretiens à domicile et 40.916 entretiens téléphoniques), avec toute la marge d’erreur statistique que cela comporte ; l’Arcep, elle, s’en tient aux déclarations des opérateurs télécoms et fournisseurs d’accès à Internet (FAI), et englobe ainsi les abonnements triple play ou quadruple play « éligibles » à un service de télévision sur ADSL, que les abonnés ont la possibilité d’activer ou pas.
La réalité de la réception de la TV sur ADSL se situerait donc entre les deux : probablement autour de 10 millions d’abonnements et/ou foyers, contre 16,8 millions
de foyers pour la TNT. @

Jean-Paul Baudecroux, groupe NRJ : « D’ici à trois ans, la télévision pèsera autant que la radio »

C’est l’une des rares fois que le président fondateur du groupe NRJ s’exprime
dans la presse sur l’avenir audiovisuel de son groupe, sur la 2e radio de France,
sur Chérie HD prévue fin 2012, sur la RNT et sur le potentiel des 150 webradios.
Il évoque aussi pour EM@ ses 30 ans de « radio libre ».

Propos recueillis par Charles de Laubier

Edition Multimédi@ : La libéralisation de la bande FM a
30 ans et vous avez, à l’époque, créé la radio libre NRJ dans une chambre de bonne du XXe à Paris : quel regard portezvous sur ces trois décennies ?
Jean-Paul Baudecroux :
Je n’ai pas l’impression que cela fait 30 ans, mais plutôt 10 ans ! Car tout s’est enchaîné très vite et, pris par l’action, je n’ai pas vu le temps passer. J’éprouve une relative satisfaction, parce que mon analyse s’est révélée exacte. Au début, personne ne croyait en l’avenir des radios libres. C’est vrai que, lorsque la publicité était interdite au début, cela n’était pas évident. Il fallait d’abord survivre. Puis, tout est allé très vite. Il a fallu développer l’entreprise – avec beaucoup de difficultés quand même. J’ai dû me battre évidemment contre les concurrents, les grandes radios RTL et Europe 1 de l’époque, qui faisaient tout pour nous écraser dans l’œuf, me battre aussi contre les autorités qui n’ont pas toujours été très visionnaires… Mais je ne pensais pas en arriver à un groupe de cette taille-là (1), car chaque jour était une victoire. Pour finir, la ténacité, ça paye toujours. Comme quoi, si c’est une leçon qui peut servir à de jeunes entrepreneurs, il faut croire en ses idées, « Never give up ! », comme disent les Américains, ne jamais abandonner, ne jamais lâcher prise et puis se battre.