La fin des programmes ?

Enfin une pause télé en vue ! Un bon fauteuil et un écran connecté, avec en option un grignotage toujours un peu compulsif. Jusque-là, ça n’a pas vraiment changé. Mais pour regarder quoi ? En s’allumant, mon téléviseur m’a reconnu
et me fait trois propositions simultanées : la sélection du
« Top 5 » de mes programmes préférés, des propositions
de programmes « découverte » correspondants à mes goûts, ou un espace de recherche me permettant de rapidement trouver une vidéo sur Internet. En général, et en seulement deux clics, j’accède à un programme qui m’intéresse. La télé simple d’antan
est en fin de retour, après des années de calvaires et de systèmes complexes et peu intuitifs. Mais là où la simplicité des débuts était liée à la faiblesse de l’offre, la simplicité d’aujourd’hui repose sur des technologies logicielles sophistiquées pour guider nos choix dans le maquis des contenus et des programmes. Sur l’écran d’accueil, les logos des chaînes brillent de plus en plus par leur absence ! Rétrospectivement, la période de transition pour en arriver là a été longue, favorisant les aventures industrielles de startup, les développements des leaders d’Internet, des opérateurs télécoms et bien sûr des chaînes de télévision. Chacun développant une interface ou une plate-forme spécifique pour présenter, qui sa propre offre de programmes comme les chaînes, qui des offres
de VOD à l’acte (comme Vudu) ou par abonnement (comme Netflix). Au total, un maquis foisonnant de propositions toujours incomplètes.

« Après les blogs qui ont démocratisé l’accès à la publication de l’écrit, de nouveaux outils démocratisent
la production de la télévision ».

L’affrontement entre les chaînes et distributeurs de programmes, d’une part, et les géants de l’Internet et les fabricants de téléviseurs, d’autre part, a finalement conduit à un équilibre encore instable aujourd’hui. Les seconds sont montés régulièrement à l’assaut des bastions de la TV pour tenter de mettre la main sur leur triple magot : leur audience, leur espaces publicitaires et leurs contenus premium. Les géants de la « Vallée enchantée » s’y sont en effet repris à plusieurs fois : que ce soit Apple TV, d’abord limitée à la diffusion sur le téléviseur de l’offre de vidéos d’iTunes, ou Google TV, tentant d’imposer
la recherche comme mode d’accès privilégié aux vidéos. La firme de Cupertino a ajouté des contenus à son offre pour vendre toujours plus d’équipements, tandis que celle de Mountain View a fait de même pour vendre plus de publicités. A force, les positions
des chaînes se sont effritées sous les coups de boutoir de la concurrence. Les nouveaux entrants ont finalement réussi à imposer de nouveaux standards de navigation : une partie de l’offre des chaînes, lesquelles continuent de créer des programmes très attractifs désormais accessibles via des App Store, est encore visibles sur ces nouvelles interfaces. L’autre partie, noyée dans le grand bain des vidéos, est accessible via un moteur de recherche puissant, seule manière de garantir à l’utilisateur de trouver effectivement ce qu’il souhaite regarder. Et ce, en fonction des informations- clés l’aidant dans ce choix : éditeur, date, longueur, qualité, recommandations, gratuit ou payant, critiques et commentaires. La recherche et la recommandation sont ainsi devenues l’alpha et l’oméga, remplaçant les grilles de programme qui firent les beaux jours des magazines TV. Maintenant que la télévision linéaire n’est plus le modèle dominant, on parle plus aujourd’hui d’un vaste marché de la vidéo. Quelques chaînes à forte identité émergent encore, mais elles ne sont plus les seules capables d’investir dans des créations originales et dans le financement de la retransmission directe d’événements. Le marché audiovisuel est par ailleurs majoritairement alimenté par une infinité de contenus mis en ligne pas les producteurs de toutes natures, monétisant où non leur contenus : une salle d’opéra célèbre propose ses propre rediffusion en qualité HD ; un magazine d’information diffuse ses propre reportages ; des particuliers peuvent lancer leur propre émission en espérant la financer par des recettes de publicité hyper ciblée. Après les blogs qui ont démocratisé l’accès à la publication de l’écrit, ces nouveaux outils démocratisent la production de la télévision. Cela fait un an qu’une quasi inconnue réalise de chez elle l’émission culinaire la plus regardée du PAF ! @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
Financement de la création par
les opérateurs télécoms
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’IDATE publie son service de veille
« Connected TV Watch Service », par Jacques Bajon.

Jouer avec les nuages (II)

Ce Noël, rien sous le sapin ! Rien qui ne rappelle, de près ou de loin, les traditionnelles boîtes de jeux vidéo qui venaient s’y empiler, d’une année sur l’autre. Entre temps, la dématérialisation de la filière des jeux vidéo continuait avec obstination à vider la hotte du Père Noël et les magasins spécialisés. Et ce n’est pas terminé. D’abord, parce que les consoles résistent en trouvant, génération après génération, de nouvelles ressources d’innovation justifiant encore leur attractivité : un équipement à domicile s’avère toujours indispensable pour jouer en 3D et ultra haut-débit sur écran géant, en faisant appel aux nouvelles ressources du web des émotions, prometteuses de sensations inédites. Si la console n’est pas (encore) morte, c’est aussi pour la simple raison que, pour les jeux, le processus de dématérialisation est autrement plus complexe que pour la musique, les films ou les livres. Il ne s’agit plus de simplement télécharger des fichiers mais de pouvoir jouer en ligne et en temps réel. Il est question ici de Gaming on Demand (GoD) ou de Cloud Gaming : grâce aux ressources du « cloud computing », toutes les opérations de calcul ne sont plus réalisées sur une machine à domicile mais sur de puissants serveurs distants. Cela concerne un chapitre de plus en plus important du catalogue de jeux, à la complexité accrue mais désormais compatibles avec les performances croissantes des réseaux à très haut-débit. Finie la course des foyers aux micro-ordinateurs survitaminés.

« Au moment où les chronologies des médias de la vidéo ou du livre sont mises à mal, une chronologie des jeux vidéo se met en place ! »

La guerre est désormais déclarée entre les acteurs en mesure de dominer cette nouvelle scène de diffusion des jeux vidéo. Les acteurs historiques du secteur s’y sont finalement lancés pour assurer leur survie. Mais il faut se souvenir qu’ils n’y entrèrent qu’à reculons, laissant à d’autres le soin de défricher devant eux. Les early adopters se sont familiarisés avec des jeux sur navigateurs proposés par des développeurs audacieux. On se souvient en particulier des succès des studios lillois 3DDuo, avec Leelh et Ankama avec Dofus lancé en 2004. Mais c’est Crytek, puissant studio indépendant de Frankfurt, qui, dès 2005, a investi dans une solution en mode GoD pour son jeu-phare Crysis, avant d’abandonner les recherches deux ans plus tard faute de réseaux à niveau. Le véritable lancement commercial du jeu online ne date en réalité que de 2010, avec l’arrivée très remarquée de la plateforme de distribution OnLive, lancée après plus de sept années de recherche par le pionnier Steve Perlman. Elle permet aux joueurs d’accéder à plus de 150 jeux de tout premier plan, instantanément et sur tous les terminaux, de la « télé » à l’ « ordi » en passant par les tablettes et les smartphones. Le tout, pour moins de 10 dollars par mois sans engagement et en s’appuyant dès le départ sur des opérateurs comme AT&T ou BT. Un autre californien lança en 2011 Gaikai, en misant pour sa part sur sa compatibilité avec Linux et en proposant de rémunérer les éditeurs de sites partenaires en fonction du temps passé sur un jeu. Depuis, de nombreuses sociétés ont mis en place ces nouvelles plates-formes de diffusion de jeux basées sur le nuage informatique multi-terminaux comme Playcast Media, Otoy, GameStop, G-cluster, Transgaming, Spoon, Darkworks, Gamestring, ou encore iSwifter. Autant de start-up qui, aujourd’hui, ont disparu ou ont été reprises par les géants du Net pour lesquels les catalogues de jeux sont devenus une part de l’offre de base de leurs services. L’expérience pour les joueurs réguliers ou occasionnels fut très positive et leur adhésion très rapide.
Pour les acteurs de la filière, il a fallu repenser une part importante de la distribution et stabiliser de nouveaux business models. Mais il est intéressant de noter, au moment où les traditionnelles chronologies des médias de la vidéo ou du livre sont mises à mal et drastiquement raccourcies, qu’une chronologie des jeux vidéo se met peu à peu en place – là où elle était initialement absente ! Les éditeurs ont en effet dû organiser de manière progressive une distribution de leurs titres « AAA », en privilégiant une sortie initiale sur les consoles avant d’autoriser leur diffusion sur les plates-formes de GoD. Preuve de la maturité nouvelle d’une industrie qui n’en finit pas de s’imposer, définitivement, en tant que Dixième Art aux côtés du Septième (le cinéma) ou du Quatrième (la musique). @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
Programmes audiovisuels à l’heure du web
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’IDATE publie en 2012 son rapport
« Cloud Gaming », par Laurent Michaud.

Les nouveaux nababs

Dans les coulisses de la 73e édition du Festival de Cannes, s’agitent dans l’ombre de nouveaux venus dans le monde, pourtant réputé très fermé, de la production culturelle : Orange, Telefonica, Verizon ou Vodafone. Bien sûr, les films en compétition et le ballet des stars sur le tapis rouge des marches mythiques attirent toujours autant les flashs et les projecteurs. Mais pour tenir leurs rangs et continuer à nous présenter leurs créations, les réalisateurs ont dû composer avec un monde de la production en pleine mutation. Aujourd’hui comme hier, faire un film, réaliser un programme de télévision, créer un jeu vidéo ou enregistrer une création musicale reste un parcours du combattant. La révolution numérique, en bouleversant les circuits de distribution des contenus, a également bousculé les sources habituelles de financement de la production : un effet domino qui
a touché, tour à tour, la musique, la presse, la vidéo, les jeux, l’édition et le cinéma. Les créateurs impuissants, au cœur d’un cyclone qui les malmène, ont dû retrouver les bons partenaires capables de financer leur travail. Dans cette vaste réorganisation, les opérateurs télécoms ont joué un rôle particulier, plus ou moins directement, plus ou moins contre leur gré. Si les plus puissants se sont directement impliqués dans le contrôle des plates-formes de distribution de contenus, en mettant en place leur propre système de diffusion de VOD, d’autres sont allés plus loin : Orange en prenant tour à tour le contrôle de Deezer pour la musique ou de Dailymotion pour la vidéo, ou AT&T en prenant le contrôle de Netflix aux Etats-Unis…

« Audiovisuel : les opérateurs télécoms ont joué un rôle particulier, plus ou moins directement, plus ou moins contre leur gré. »

En revanche, l’implication directe et offensive dans la production est beaucoup plus rare. Certains, comme Belgacom et Deutsche Telekom, se sont dans un premier temps limités à l’acquisition de droits de retransmission pour le football national au profit de leur propre chaîne de télévision sportive. Les plus offensifs, comme Telefonica et Telecom Italia, ont créé leurs propres filiales médias et interviennent aussi bien dans l’acquisition de droits,
la production de contenus que dans l’édition de chaînes.
Or, au tournant des années 2010, les opérateurs en étaient encore aux premiers tâtonnements, les stratégies oscillant entre implication et désengagement. Orange a, début 2011, opéré un véritable revirement stratégique en rapprochant ses chaînes cinéma avec la chaîne TPS Star et en stoppant l’acquisition de droits en 2012. Et ce, après s’être hissé à la place de numéro deux de la télévision à péage en France, derrière Canal+,
mais très nettement devant le câblo-opérateur Numericable et les autres FAI. De même, Telefonica – qui était sorti du secteur audiovisuel après avoir revendu ses participations dans le bouquet satellite Digital+, la chaîne commerciale Antena 3 et la société de production Endemol – a fait un retour remarqué en 2011 dans la production avec la création de Telefónica Producciones. Mais le retour de l’opérateur historique espagnol dans la production audiovisuelle s’explique surtout par l’obligation légale faite aux acteurs de la distribution TV d’investir 5 % de leurs revenus totaux dans le financement du cinéma et des programmes audiovisuels. D’autres pays ont estimé aussi qu’il était du ressort
des opérateurs télécoms de trouver de nouvelles sources de financement à la filière audiovisuelle. En France, la solution mise en place a d’abord été celle d’une taxe
« Cosip », suivie d’une hausse de la TVA sur la partie télévisuelles des offres triple play. Ces mesures sont controversées, soit par la Commission européenne, soit par les opérateurs eux-mêmes (ou les deux). Free, par exemple, sépara l’option TV du reste de son offre afin de ne s’acquitter de sa part que sur les 1,99 euro par mois de cette option.De nos jours, au-delà des taxes et règlements, rares sont encore les opérateurs télécoms à tenter l’aventure de l’investissement « créatif » en direct. Mais l’enjeu n’a jamais été aussi fort : les programmes premium représentent la véritable ressource rare de cette nouvelle économie dématérialisée du divertissement. Jouer les nababs sur la Croisette pour faire la conquête des stars reste encore aujourd’hui une aventure très risquée, mais très tentante… @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
Applications mobiles
* Directeur général adjoint du DigiWorld Institute by
IDATE, lequel a publié l’étude « Les stratégies TV
des opérateurs télécoms », par Florence Le Borgne.

Consoles inconsolables (I)

En cette veille de fêtes de fin d’année, je suis inconsolable… Le compagnon de jeu numérique de notre jeunesse serait, selon certains, proche de la mort clinique. Après presque
un demisiècle de bons et loyaux services, les consoles seraient, en effet, en train de disparaître. Les raisons en
sont multiples, même si, à l’instar de l’ensemble des autres contenus (musique, presse, vidéo, livres), la lame de fond
de la dématérialisation a fini par transformer profondément l’industrie des jeux vidéo. Pour les seules consoles de salon, le mouvement s’est accéléré : alors qu’en 2010, les éditeurs et les « consoliers » ne commercialisaient qu’à peine 10 % de leurs jeux via leurs « app stores », cette part
est montée rapidement à 50 % en 2015 pour représenter les deux tiers de leur chiffre d’affaires actuel. Malgré tout, les consoles ont résisté. Vendus neufs ou d’occasion en magasins principalement, les équipements et leurs jeux faisaient partie d’un écosystème très structuré autour des géants du domaine, des grands distributeurs et des boutiques spécialisées. En 2004, les consoles représentaient encore près de 60 % de l’ensemble des revenus du marché mondial des jeux vidéo. En 2015, cette part était tombée à moins de 40 %, pour ne plus compter que pour un bon tiers aujourd’hui, le marché lui-même continuant de croître globalement.

« Les consoles résistent, en intégrant dans le jeu vidéo des émotions du joueur par le biais de capteurs biométriques
ou de commande cérébrale ! »

Quelle histoire ! Commencée en 1972 avec la toute première console, Odyssée de Magnavox. Son créateur, Ralph Baer, avait imaginé que l’on pourrait jouer sur son téléviseur, l’ordinateur personnel n’existant pas encore, grâce à un système de… calques apposés sur l’écran. Mais, c’est le fameux Pong d’Atari qui, en 1975, fit entrer ces consoles dans nos foyers. Nous étions tout autant fascinés par le pouvoir hypnotique de cette petite balle carrée renvoyée inlassablement par deux raquettes symboliques, que par la possibilité de jouer à domicile d’interminables parties de tennis virtuel. Cela n’était auparavant possible que dans nos cafés préférés, lorsque les premières machines de jeux électroniques permettaient, entre deux parties de flippers, de nous lancer des défis sur un casse-briques impitoyable ou de résister à l’invasion d’extra-terrestres extrêmement déterminés. L’arrivée des PC aurait pu sonner le glas pour ces consoles. Mais un matériel dédié – spécialement conçu pour le jeu et intégrant des innovations techniques généralement en avance sur les équipements informatiques du marché – avait toute sa place. Le dynamisme du développement du parc installé de consoles l’a prouvé : le seuil des 400 millions de consoles installées dans le monde a été dépassé vers 2010, pour atteindre les 700 millions dix ans plus tard. Le rythme des innovations ne s’est jamais interrompu, les échecs non plus, comme Apple et sa console « Pipp!n » lancée en 1996. Avec un cycle de cinq ans en moyenne, les fabricants ont régulièrement proposé leurs nouveaux produits. Aujourd’hui, la neuvième génération de consoles, représentée par la Wii U de Nintendo, la PS4 de Sony et la Xbox Next de Microsoft commercialisée entre 2012 et 2013, est en train de laisser la place à la dixième génération. Les joueurs sont désormais habitués à l’immersion en 3D ou aux commandes directes par la voix ou les mouvements. Mais les consoliers proposent toujours de nouvelles possibilités, comme l’intégration des émotions du joueur dans le jeu par le biais de capteurs biométriques ou l’interconnexion des jeux eux-mêmes et des univers. Mon avatar peut désormais me suivre d’un jeu à l’autre. Le défi reste immense pour des consoles qui doivent défendre leur place dans un environnement complexe. Les jeux, désormais dématérialisés et ubiquitaires, doivent être accessibles sur tous les terminaux – fixes et nomades – et via de nouvelles extensions telles que des casques bardés de capteurs sensoriels ou une commande cérébrale ! Le joueur accède avec un compte unique à ses jeux, disponibles sur des plateformes différentes. Si la disparition des boîtes préfigure la fin du concept même de console, la création reste toujours aussi dynamique, conférant à cette industrie de l’étonnement, son statut désormais incontesté de 10e Art. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » :
Jeux online et Cloud Gaming (II)
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’IDATE publie régulièrement
son rapport « Le marché mondial des jeux vidéo »,
par Laurent Michaud.

Le Big Data Bang

Rien moins que le déluge ! Déluge numérique, déferlement de données, avalanche d’informations : les chiffres qui nous donnaient le tournis il y a à peine dix ans, nous semblent ridicules aujourd’hui. Pourtant, en 2010, on estimait que l’humanité – en produisant l’équivalent de 1.000 exabytes – faisait son entrée dans l’ère du zettabyte : un zettabyte équivalant à 1 milliard de terabytes. La croissance a été au rendez-vous, puisqu’en 2020 nous en sommes déjà à plus de 35 zettabytes ! Cette augmentation exponentielle est le résultat d’un emballement général. Les réseaux qui structurent le Web sont de plus en plus nombreux : après les données des institutions et des entreprises sur le Web de première génération, les données personnelles ont déferlé sur la Toile, amplifiées par la banalisation des réseaux sociaux diffusés sur tous les terminaux et les services mobile.
A cela, s’est ensuite ajouté le flux massifs d’informations libérées, comme les données publiques mises en ligne par les Etats ou les collectivités locales. Puis, ce fut au tour des milliards de « data » générés par l’Internet des objets. Nous apprenons à naviguer dans un espace numérique presque infini, composé de données hétérogènes : données non structurées, venues du monde entier, de plus en plus souvent produites en temps réel
et généralement taguées de mots-clés, de dates, de lieux, …

« Les algorithmes sont en mesure de faire émerger les motifs cachés des entrailles du Web : un Deep Web qui représente 90 % de l’ensemble du Net »

Le Web peut-il cependant se réduire à une addition vertigineuse de bytes, plus petite unité adressable d’un ordinateur ? Alors que les contenus qui le composent sont de plus en plus diversifiés : informations, textes, images ou vidéos. Aurions-nous mal apprécié la nature profonde du Web ? D’un côté, nous avons un Internet toujours plus complexe aux outils hyper sophistiqués faisant appel aux technologies du web sémantique, du web des émotions ou du web cognitif. De l’autre côté, le web des data offres déjà de nouvelles perspectives étourdissantes. Basé sur la loi des grands nombres, une nouvelle génération d’outils préfère s’appuyer sur la force brute des ordinateurs plutôt que de faire appel à des modèles bien conçus. De plus en plus nombreux sont ceux pensant que c’est perdre son temps que de chercher à comprendre, quand il est bien plus efficace d’utiliser les bonnes vieilles recettes de la statistique pour faire parler ces montagnes de données plus ou moins structurées. L’histoire semblent leur donner raison, dans la mesure où plus l’on dispose de data, plus les algorithmes sont en mesure de faire émerger les motifs cachés des entrailles du Web des profondeurs : un Deep Web qui représente 90 % de l’ensemble du Net, comme la face immergée d’un iceberg géant.
De nombreux services phares du Net bénéficient de la puissance du Big Data, comme
le search, les services de traduction ou de recherche d’images. Dans la masse des données, il y a sûrement des données similaires qu’il suffit d‘extraire pour traduire une phrase du chinois vers l’anglais ou compléter la partie manquante d’une photo. Des laboratoires y ont travaillé durant cette dernière décennie et de nombreuses entreprises se sont lancées dans cette nouvelle ruée vers l’or, que certains analystes présentent comme une quête du Graal pour la compétitivité et la productivité. Des start-up se lancèrent dans l’aventure, tandis que les géants comme IBM, Google ou Amazon multipliaient les achats stratégiques de ces briques technologiques aux noms étranges : Hadapt, Cloudera, Factual, DataStax, Pervasive DataRush, Infochimps, Citrusleaf, 1010data, … C’est finalement l’avènement d’une nouvelle informatique qui est en train
de se jouer. La mise en place d’un écosystème organisant la gestion de cette masse
de données en expansion constante dans le Cloud, stockée dans des « datacenters », véhiculée à très haut débit et traitée par des ordinateurs surpuissants. L’un des enjeux étant bien de mettre à la portée du plus grand nombre une nouvelle génération d’applications combinant, entre autre, la puissance du datamining et de la datavizualisation. Comme autant de Dédale modernes essayant de comprendre les arcanes de ce Labyrinthe planétaire numérique qu’ils ont participé à construire. @

Jean-Dominique Séval*
Prochaine chronique « 2020 » : Les jeux vidéo online
* Directeur général adjoint de l’IDATE.
Sur le même thème, l’IDATE a publié son rapport
« Le futur de l’Internet », par Vincent Bonneau.