Musique et vidéo : la bataille mondiale des métadonnées et de la recommandation en ligne

La société Gracenote veut devenir le standard dans la gestion des métadonnées décrivant les musiques et les vidéos numériques. Mais, au-delà de la reconnaissance des œuvres, se joue une bataille cruciale pour les industries culturelles : la recommandation en ligne auprès des utilisateurs.

ITunes d’Apple, Google Play, le could d’Amazon, les smartphones de HTC, le nouveau Napster de Rhapsody ou encore les TV connectées de Sony et de Toshiba : ils ont tous en commun de faire appel à la méga-base de métadonnées de la société américaine Gracenote. Y sont décrits plus de 180 millions de titres de musiques de part le monde. Cette mine d’informations sur les œuvres musicales (titre, genre, artiste, droits d’auteur, référence, illustration, paroles, …), consultée en temps réel à raison de plusieurs centaines de millions de requêtes par jour (plusieurs milliards par mois), permet aux plates-formes de musique sur Internet, aux fabricants de terminaux ou aux éditeurs
de boutiques en ligne, de proposer aux internautes ou aux mobinautes des services
de reconnaissance de musique.

AllMusic, The Echo Nest, MusicBrainz, …
Dès qu’un utilisateur insère un CD/DVD, choisit une musique en streaming ou regarde un clip vidéo sur sa télévision connectée, il peut avoir des informations sur ce qu’il écoute. Au-delà de l’identification et de la description d’œuvres musicales, Gracenote permet une prestation cruciale : la recommandation, grâce à une expertise éditoriale et algorithmique s’appuyant sur sa vaste base de données musicales. La qualification de contenus est un élément décisif aujourd’hui au regard de l’évolution du marché de la musique en ligne, où le streaming et le flux audio (webradio, smart radio, playlists, …) prennent le pas sur le téléchargement. Sur le mode « Vous avez aimé tel morceau ; vous adorerez tel autre »,
la recommandation – émanant d’une boutique en ligne ou d’amis sur les réseaux sociaux – est devenue stratégique pour les industries culturelles et facteur de différenciation pour les plates-formes numériques (1). Les fournisseurs d’accès à Internet (FAI) s’y mettent aussi, comme le montre en France Free, qui a affirmé être « le premier opérateur au monde à proposer le service de reconnaissance musical Music ID de Gracenote » (2). Les métadonnées montent même en voiture avec Ford, Toyota ou Chrysler. Gracenote, qui appartient depuis 2008 à Sony, est en passe d’être vendu au groupe de médias américain The Tribune Compagny, pour 170 millions de dollars. Ce dernier compte rapprocher Gracenote, qui a aussi développé une base de métadonnées dans la vidéo,
de sa propre base données sur les programmes de télévision et de films de cinéma TMS (Tribune Media Services). Cette reconnaissance automatique de contenus audiovisuels devient essentielle. Ainsi, Gracenote compte LG, Sony et Philips parmi ses clients en télévision connectée, Syfy Sync de NBC Universal ou Zeebox dans la synchronisation du second écran et Vudu du groupe Walmart, entre autres, dans les services de cloud vidéo, en plein boom. Appelé anciennement CDDB (Compact Disc Data Base), Gracenote est loin d’être le seul à donner le « la » dans les métadonnées musicales. La concurrence s’organise. La société américaine AllMusic (ex-All Media Guide), rachetée en 2007 par Rovi et basée dans le Michigan, commercialise aussi une base de métadonnées de 30 millions de musiques. Parmi ses clients : de nouveau iTunes, Yahoo, eMusic ou encore AOL. AllMusic rivalise avec une société du Massachusetts, The Echo Nest, revendiquant une base de plus de 35 millions de titres référencés qu’utilisent Vevo, Spotify, Rdio, MTV, Warner Music, Yahoo ou encore Nokia (3). Il y a aussi MusicBrainz (utilisé par la BBC)
et Freedb (racheté par l’allemand Magix), qui ont tous les deux la particularité d’avoir été créés pour prendre le contre-pied de Gracenote, devenu payant (sous licence), en rendant libres leurs bases de métadonnées musicales. Si les gestionnaires de métadonnées sont essentiellement anglo-saxons, la diversité musicale européenne est-elle suffisamment bien couverte par les algorithmes mélomanes ? En France, il y a la société Music Story, créée en 2008 et basée à Lille. Elle gère une base de métadonnées musicale de près de 130.000 artistes francophones et près de 500.000 photos d’artistes, pour plus de 1,1 million d’enregistrements. Ses clients : Deezer, VirginMega.fr, Lagardère, Priceminister ou encore la webradio Radionomy.

Music Story : métadonnées francophones
En plus de la qualification des titres de musiques francophones, l’équipe éditoriale
de Music Story y ajoute des notes biographiques, des chroniques d’albums, des discographies, des informations commerciales (disponibilité, prix, support, …), ainsi
que les comptes sociaux des artistes sur Twitter, Facebook ou YouTube. C’est que la recommandation proposée par les Facebook, Twitter et autres Dailymotion serait devenue l’une des principales sources d’audience des plates-formes de contenus culturels en ligne. Internet devient ainsi un jukebox géant, fonctionnant sur recommandations. @

Charles de Laubier

TVR,VOD,TVC : recommandation contre programmation

En fait. Le 14 juin, la commission TV connectée du Groupement des éditeurs de contenus et de services en ligne (Geste) s’est réunie sous la présidence d’Eric Scherer, directeur de la prospective, de la stratégie et des relations internationales de France Télévisions. Vers la fin de la programmation ?

En clair. La télévision de rattrapage (TVR), la vidéo à la demande (VOD) et la télévision connectée (TVC) sont en train de bousculer les grilles de programmation des chaînes. Les télénautes, de plus ne plus nombreux, prennent le contrôle de « leur » télévision sur
le mode « Atawad » (1) pour une consommation en mobilité. « Il y a de moins en moins de vrais directs. Nous sommes au début d’un point d’inflexion. La VOD devient une chaîne. Le public se moque du tuyau, peu importe que cela soit de la télévision, de l’Internet ou
de la vidéo », constate Eric Scherer. Les fonctions de replay, de time-sharing, de reprise de programme en cours depuis le début (2), la navigation en avance et retour rapide ou
la mise en pause sont autant de ruptures dans l’usage que des utilisateurs se font de la télévision. Et l’on est qu’au début de cette dé-linéarisation qui prendra une autre dimension avec le cloud et l’enregistrement vidéo numérique, ou DVR (Digital Video Recorder).
Alors que l’innovation pour le second écran relègue au second plan le téléviseur, les moteurs et les algorithmes deviennent de vrais programmateurs de chaînes personnalisées. Face à cette fragmentation des programmes et de l’audience, les chaînes sont en train de perdre leur pouvoir de contrôle audiovisuel. C’est là que tout se joue :
la recommandation prend le pas sur la programmation. Netflix n’a-t-il pas plus de 900 développeurs pour améliorer sans cesse la pertinence de ses recommandations et en y consacrant un budget de 350 millions de dollars par an ? Des sociétés se sont spécialisé dans la recommandation « content centric » comme le français Spideo, l’israélien Jinni ou l’américain Fanhattan. Fondée en 2010 et en cours de levée de fonds, la start-up Spideo
a déjà apporté son savoir-faire en moteurs de recommandations à CanalPlus Infinity, le service de SVOD de Canal+. « Avec le “content centric”, nous offrons une pertinence à 100 % des recommandations là où les recommandations par statistiques n’obtiennent
que 90 % », affirme Gabriel Mandelbaum, fondateur de Spideo. Mais son ambition est de s’imposer sur toutes les plates-formes avec sa propre application Spideo, s’appuyant sur les catalogues iTunes et Netflix aux Etats-Unis, seulement iTunes en France et bientôt Lovefilm. Apple l’apprécie beaucoup. Au point de le racheter à terme ? « C’est envisageable ! », répond sans rire Gabriel Mandelbaum. @

Bolloré derrière la révision stratégique de Vivendi

En fait. Le 26 février, Vivendi a présenté ses résultats 2012 : chiffre d’affaires
stable à 28,9 milliards d’euros (+ 0,6 %) et résultat net en chute à 164 millions d’euros (- 94 %), à cause d’une provision exceptionnelle (litige avec Liberty
Media aux Etats-Unis) et d’une dépréciation (Canal+ France).

En clair. Vivendi a toujours une idée fixe, depuis un an maintenant : « Nous voulons revaloriser le groupe dans son ensemble que la décote du conglomérat ne se justifie
plus », a redit Jean-François Dubos, président du directoire de Vivendi. Le cours de Bourse de la « holding » Vivendi oscille autour de 15 euros depuis un an. Mais Jean-René Fourtou, président du conseil de surveillance, est décidé à recréer de la valeur pour les actionnaires. Or, depuis le 10 octobre 2012, Vincent Bolloré est devenu le premier actionnaire du groupe de médias et de télécoms en franchissant le seuil des 5 % du capital et des droits de vote, après avoir cédé ses deux chaînes gratuites Direct 8 et Direct Star (1) à Canal+, filiale de Vivendi.
Et le 15 novembre, l’homme d’affaires breton a regroupé l’ensemble de sa participation dans Vivendi (66 174 684 actions) dans sa Compagnie de Cornouaille. Puis, sur proposition de Jean-René Fourtou, il a été coopté le 13 décembre pour entrer au conseil de surveillance de Vivendi – ce qui devra être ratifié lors de la prochaine assemblée générale (AG) du 30 avril.
Dans quelle mesure ce nouvel actionnaire de référence et membre du conseil de surveillance influence-t-il la « révision stratégique » du conglomérat, dont la feuille de
route devrait être clarifiée à l’AG justement ? Une chose est sûre, Jean- René Fourtou semble moins pressé de se débarrasser des télécoms pour se recentrer sur les médias
et les contenus (2). « SFR n’est pas à vendre pour l’instant », a insisté Jean- François Dubos, en ajoutant : « Rien ne sert de courir si l’on n’est pas pressé ». Et aucun commentaire sur l’intérêt que porteraient les actionnaires de Numericable – Carlyle, Cinven et Patrick Drahi – sur SFR (3).
C’est que l’esprit Bolloré, caractérisé par la prudence, semble influencer les autres membres du conseil de surveillance. Vincent Bolloré a l’habitude de se hâter lentement, surtout pour laisser le temps à son « portefeuille de participations » de 2 milliards d’euros de générer d’importantes plus-values. Ses 5 % dans Vivendi – et donc dans SFR – n’échappera pas à cette logique financière, à l’instar de ses 37,05 % dans Havas, ses 16,7 % dans Bigben interactive, 14 % dans Harris interactive, 9,6 % dans Gaumont, ou encore 6,4 % dans Aegis. Quitte à bousculer ses hôtes (Havas en 2005) ou à se retirer après un bras de fer (Bouygues en 1998). @

Tarifs télécoms : même pas peur !

Armé de mon seul smartphone associé à sa tablette, me voici prêt à communiquer sans limite, à surfer ad libitum
sur mes contenus préférés et à parcourir le monde sans me soucier de mon abonnement Internet… Nous sommes bien en 2020, mais cette situation tarifaire idéale n’est pas encore totalement réalité. S’il existe bien aujourd’hui des formules d’abonnement très simples, complètes et à coût raisonnable, la vigilance reste de mise. La simplicité réclamée par les utilisateurs se heurte encore et toujours à des évolutions multiples, parfois opposées. La grande rupture heurta de plein fouet les opérateurs télécoms au tournant de l’an 2000. Jusque-là, ils commercialisaient des minutes d’appels via des téléphones fixe et mobile, ou des SMS. Dès 2010, plus des
80 % des communications se faisaient désormais via l’e-mail, la messagerie instantanée, la voix sur IP, les blogs ou les forums. Ces formes alternatives de communication échappent encore et toujours aux opérateurs et à toute forme de monétisation. Cette véritable révolution des usages s’inscrit dans un contexte plus général : baisse tendancielle des prix, augmentation vertigineuse des trafics et préservation des investissements conséquents dans les réseaux très haut débit, fibre ou LTE.

« Certaines stratégies tarifaires propres au marché mobile s’appliquent désormais au fixe, notamment le traffic cap »

Nous ne sommes plus dans la situation de tâtonnement qui prévalait encore en 2012, année où une habitante de Perth (Etats-Unis) reçut une facture de 160.000 dollars à la suite d’un séjour en Italie malgré son abonnement à 29 dollars par mois ! Les régulateurs ont émis des recommandations pour éviter ce bill shock. Après l’Europe qui a imposé aux opérateurs une limite de roaming, la FCC a obtenu que les abonnés soient avertis par des messages gratuits lorsqu’ils dépassent le plafond de leur abonnement.
Mais la nouveauté en matière de tarification tient à la fusion des tarifications fixe et mobile, sur fond de généralisation des offres quadruple-play. Certaines stratégies tarifaires propres au marché du mobile s’appliquent désormais au fixe, notamment le traffic cap :
les opérateurs proposent des offres structurées selon le volume consommé, même si certains opérateurs challengers continuent à proposer de l’illimité. Les Etats-Unis furent pionniers en la matière, avec notamment les volume caps des câblo-opérateurs et d’AT&T. Mais certains opérateurs européens (Virgin Media, BT, Deutsche Telekom, …)
ont très tôt mis en place ce type de restriction. Certaines pratiques sur le fixe ont été adaptées au mobile. La voix s’est ainsi définitivement banalisée : autrefois séparée, elle est désormais incluse dans les offres d’accès Internet fixe d’entrée de gamme. De leur côté, les opérateurs mobiles contrecarrent les offres OTT (Over-The-Top) avec des forfaits illimités de voix et de SMS, y compris à l’international. Les offres d’accès fixe, plus que jamais structurées par niveau de débit depuis que les offres d’accès en fibre optique se banalisent, sont dupliquées aux services de données mobiles comme l’offre très innovante de Swisscom lancée dès 2012. Mais ce sont sans doute les offres de Data Sharing qui se sont le plus rapidement développées à la forte demande des utilisateurs. Lancées par les précurseurs Verizon et AT&T, ces forfaits permettent de partager un abonnement entre plusieurs terminaux ou utilisateurs, pour un individu multi-équipé et/ou les membres de son groupe, connectés également à un réseau WiFi. La complexité tarifaire s’est portée sur la valorisation des contenus. Les marges y sont faibles pour un opérateur, à moins de disposer de contenus intégrés, à l’instar de Time Warner Cable ou de Comcast. Les opérateurs valorisent la qualité de service de leurs réseaux en faisant payer à l’abonné des niveaux de services, ce qui permet de valoriser l’explosion des usages OTT, ou en faisant payer les fournisseurs de contenu pour la distribution sur réseau managé. Au-delà, la nouvelle frontière vise à valoriser un ensemble de services, regroupés sous le terme générique de Smart Access (Rich Communication, Digital Home, Secure Access). Ainsi, les politiques de tarifications sont encore pour longtemps condamnées à la complexité. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Services de communication
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut a publié son rapport
« Stratégies tarifaires des Telcos : Quelles politiques tarifaires
pour monétiser des trafics en explosion ? »,
par Sophie Lubrano.

Voyage aux Data Centers de la Terre

En ce mois étouffant de juin 2020, une manifestation d’un nouveau genre passe sous mes fenêtres grandes ouvertes aux cris de « Rendez-nous nos données, elles nous appartiennent ! ». Des slogans descendus dans la rue après avoir inondé la Toile et qui marquent une prise de conscience initiée dix ans plus tôt. Le nouvel écosystème numérique fait la part belle à des terminaux très sophistiqués connectés en continu et utilisant de manière croissante les ressources du « cloud » : nos données personnelles, nos photos, nos factures, sans parler de nos traces laissées sur le Net, tout autant que la musique et les vidéos que nous avons cessé d’archiver puisqu’ils sont toujours disponibles à la demande quelque part. Et ce, grâce à la mise en place progressive d’une nouvelle infrastructure constituée d’un ensemble de data centers, véritable réseau de « fermes informatiques » au niveau mondial.

« le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs ».

Ce basculement vers toujours plus de dématérialisation provoque de nouveaux débats qui conduisent certains à remettre en cause cette nouvelle ère de la décentralisation virtuelle. Ce mouvement fait en réalité partie de toute l’histoire de l’informatique. Dès les années 1960, les réseaux d’entreprises oscillent entre architecture centralisée – où le poste de l’utilisateur ne contient que très peu de fichiers et où tout est stocké dans un serveur dit mainframe – et structure décentralisée – où à l’inverse les ressources sont concentrées dans le poste utilisateur, les données étant stockées sur un serveur partagé. Avec Internet, qui signait un retour à une ère « centralisée » où les ordinateurs envoyaient
des requêtes à une multitude de serveurs pour récupérer une partie de leurs données,
le cloud computing induit donc une certaine décentralisation, les applications et les données tendant désormais à être séparées de leurs utilisateurs. Cette évolution est rendue possible par le retour du gigantisme en informatique, convoquant par là même
les mânes du premier ordinateur de tous les temps, Colossus, installé en 1943 dans plusieurs pièces d’un appartement londonien. Nos data centers actuels occupent
chacun l’équivalent de la surface de plus de 15 terrains de football ! Et leur nombre n’a cessé d’augmenter depuis 2012 où on en comptait déjà plus de 510.000 dans le monde, dont près de 140 dans un pays de la taille de la France. La tendance n’est pas prête de s’inverser tant la demande est forte. Les investissements s’accélèrent et les pays d’accueil se battent pour attirer sur leurs terres ces entrepôts d’un nouveau genre. Les choix d’implantation se font toujours en tenant compte d’un besoin de proximité des utilisateurs, de la nécessité de disposer de réseaux de communication puissants et de contenir la facture énergétique qui dévore les charges d’exploitation. Il faut savoir qu’un data center moyen consomme l’équivalent d’une ville de 25.000 habitants, tout autant
pour le faire fonctionner que pour le refroidir. C’est ainsi devenu un élément essentiel de
la compétitivité des géants de l’Internet. Google, Amazon, Microsoft, Facebook et Apple disposaient à eux seuls, en 2012 déjà, de plus de 100 data centers en activité sur la planète. Quand Facebook mit en route, en 2014 son premier centre européen, ce fût en Suède, à moins de cent kilomètres du cercle arctique. Le premier data center de la firme
à la pomme, destiné à iCloud, utilise, lui, 100 % d’énergies renouvelables. Mais c’est la Chine qui dispose aujourd’hui du parc de stockage le plus important, construit avec l’aide d’un IBM d’abord, puis par ses champions Huawei et ZTE. Ce marché stratégique est également le terrain d’affrontement de nombreux autres acteurs comme les hébergeurs, parmi lesquels OVH ou Telehouse, les intégrateurs comme Cisco ou IBM, les Content Delivery Networks (CDN) comme Akamaï, les éditeurs de logiciels comme Oracle ou SAP, sans oublier les opérateurs télécoms comme Orange ou AT&T qui n’en finissent
pas de voir la frontière s’effriter entre eux et le monde de l’informatique. Et pendant que
la planète entière se couvre d’entrepôts dépositaires des données du monde, des ingénieurs, lointains héritiers d’un Jules Verne, rêvent déjà à de nouveaux data centers tenant dans le creux de la main. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Géolocalisation
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’institut publie chaque année son rapport
« Cloud & Big Data », produit par Julien Gaudemer, consultant.