L’intelligence artificielle s’immisce dans l’industrie du livre, assise sur un tas d’or : ses données

La 22e édition des Assises du livre numérique, organisées le 6 décembre par le Syndicat national de l’édition (SNE), a pour thème « l’application de l’intelligence artificielle (IA) dans l’édition de livres ». Avec comme « invité inaugural » : Tom Lebrun, co-auteur en 2020 d’un livre blanc sur l’IA.

Ce n’est pas la première fois que les Assises du livre numérique (1) traitent de la question de l’intelligence artificielle (IA) dans l’industrie du livre. Déjà en 2017, lors de l’édition de 2017, une table-ronde avait été consacrés à ce sujet et avait fait l’objet d’une synthèse (2). Celle-ci relevait plus d’un défrichage de la part de la commission numérique que préside depuis plus de sept ans Virginie Clayssen (photo) au sein du Syndicat national de l’édition (SNE), elle-même étant par ailleurs directrice du patrimoine et de la numérisation chez Editis (groupe Vivendi).

Apprivoiser les data de l’IA
Quatre ans après cette table-ronde, le SNE muscle son approche de l’IA en lui consacrant pour la première fois – le 6 décembre pour cette 22e édition et « uniquement en distanciel » – la totalité du programme de ses Assises du livre numérique. « Comment l’intelligence artificielle peut-elle intervenir dans les différentes étapes de la chaîne du livre, de la traduction à la diffusion en passant par la fabrication ? », s’interrogent l’industrie du livre. Un invité inaugural de cette journée doit répondre à la question plus sensible : « Comment l’intelligence artificielle peut-elle transformer le monde de l’édition ? ». Cet intervenant est Tom Lebrun (photo page suivante), juriste et doctorant à l’université Laval (UL), au Québec (Canada), spécialiste en droit et intelligence artificielle, ainsi que co-auteur avec René Audet du livre blanc « L’intelligence artificielle dans le monde de l’édition » publié en septembre 2020 sous licence libre creative commons (3). Tom Lebrun est spécialisé en droit du numérique et en droit d’auteur. Ses travaux de recherche portent actuellement sur la question de « la génération de textes par intelligence artificielle ». Il publie régulièrement sur les questions de droit d’auteur, de culture numérique et de rapport entre droit et IA. Ses recherches sont financées par un fonds québécois (4). « L’intelligence artificielle fait l’objet de fantasmes et de craintes souvent irraisonnées. Elle trouve à s’insérer dans toutes les sphères de notre société : consommation, médecine, industrie, vie quotidienne, … Pourtant, encore peu de travaux ont été consacrés à sa mobilisation par les différents acteurs de l’écosystème du livre. Ce manque est d’autant plus critique que les grands acteurs du numérique – Amazon en tête – s’engouffrent très largement dans cette voie depuis un certain nombre d’années », font justement remarquer Tom Lebrun et René Audet dans l’introduction de leur livre blanc d’une trentaine de pages et mis en ligne gratuitement (5). Contacté par Edition Multimédi@, Tom Lebrun indique que depuis sa parution il y a un an, « les différences sont mineures et strictement quantitatives ». Et aujourd’hui, « les systèmes sont simplement plus performants et plus convaincants ». Les deux auteurs relèvent que le monde de l’édition – habitué jusqu’alors à la « rétroaction entre ses différents acteurs (le libraire informant le diffuseur, ce dernier informant l’éditeur, etc.) » – évolue désormais dans « un contexte de pressurisation économique croissante provoquée par la mainmise de quelques acteurs de la vente en ligne, particulièrement Amazon ». Aussi, la raison d’être de ce livre blanc est d’esquisser pour l’écosystème du livre « une possible piste à suivre », à savoir « l’idée d’une concertation de certains de ses acteurs sur l’utilisation d’IA (voire l’éventuelle mise en commun des données collectées) ». Dans leur conclusion, les deux auteurs québécois appellent toute la filière du livre (maisons d’édition, distributeurs, librairies, plateformes, …) à investir dans les technologies IA si elle n’a pas déjà commencé à le faire car « face à cette concurrence [des acteurs comme Amazon], chacun des acteurs de la chaîne du livre doit se demander comment faire face à ce mouvement de fond, qui s’apprête à modifier en profondeur de nombreux métiers du livre ». Le mieux pour l’introduction d’IA dans les différents maillons de la chaîne est, d’après eux, d’exploiter les différentes « données déjà disponibles et que ne possède pas la concurrence, quitte à nouer des accords asymétriques entre les différents acteurs intéressés pour y accéder ».

La chaîne du livre impactée
D’autant que ces données existent – statistiques centralisées des distributeurs, données des éditeurs ou encore celles collectées par les bibliothèques et les libraires – et sont des actifs précieux que tous les acteurs du milieu du livre possèdent, en particulier dans les bibliothèques, car « diversifier ses ressources en données peut constituer une stratégie payante ». Ces data constituent en tant que telles des ressources stratégiques considérables. Cela suppose que les maisons d’édition et l’ensemble des acteurs qui gravitent autour d’elles se mettent à « récolter » de façon optimale la data du livre, y compris les données qui ne sont pas « moissonnées » car, rappellent les auteurs du livre blanc de l’Université Laval, « le fonctionnement des applications d’IA [est] lié au volume et à la qualité des données disponibles ». Le succès des solutions d’IA dépendra surtout de la compatibilité des données entre elles. Pour ce faire, les auteurs recommandent d’« établir un protocole de normalisation des données en accord avec tous les acteurs concernés est un préalable nécessaire, sur lequel les pouvoirs publics ont un rôle à jouer ».

L’IA se met à écrire livres et articles !
Encore faut-il « catégoriser et étiqueter les données en fonction des objectifs visés », sans quoi, préviennent-ils, « les données collectées sont à peu près inutiles sans cette étape fondamentale de préparation des données ». Cela passe aussi par des chantiers communs entre des acteurs de la filière du livre, y compris avec des plateformes numériques, ainsi que par la mobilisation d’institutions et d’acteurs gouvernementaux pour contribuer au financement du développement de prototypes ou d’éléments logiciels partagés.« La mise en commun de données appelle une concertation, notamment dans le développement de ressources logicielles (aussi rendu possible par la création d’un cadre réglementaire favorable) », est-il souligné. Mais qui dit data dit cyberattaque : la cybersécurité des données « livrées » va devenir primordiale pour l’industrie du livre jusqu’alors épargnée par sa matière première historique qu’est le papier. La dématérialisation des ouvrages en tout genre fait basculer les maisons d’édition, parfois centenaires, dans le nuage informatique et ses fléaux.
Même si le livre blanc n’aborde pas le sujet du nuage informatique liés à l’IA, le cloud va pourtant permettre à l’industrie du livre de créer elle aussi des « lacs de données », des « Data Lake », à savoir le stockage des données dans leurs formats originaux ou peu modifiés, et à partir duquel leur analyse et leur valorisation peuvent s’opérer sous plusieurs formes révolutionnaires pour l’édition : data mining, text and data mining, marchine learning, business intelligence, cognitive search, master data management, etc. Encore fautil que l’industrie du livre sache ce qu’elle veut faire de cet « or noir du XXIe siècle » : des algorithmes de recommandation de livres ? de la traduction automatique d’ouvrage pour l’international (comme avec DeepL, l’IA utilisée par l’éditeur scientifique Springer) ? de l’animation de robots conversationnels (chatbots) pour interagir avec les lecteurs à la place de l’auteur et/ou de l’éditeur ? des réseaux de neurones artificiels afin par exemple de connaître les lecteurs d’un livre ? de la fouille intelligente de textes numérisés ? ou encore de la génération de romans ou d’essais à l’aide d’une IA créative ? Sur cette dernière possibilité, le juriste Tom Lebrun travaille justement en ce moment sur la question de la génération de textes par intelligence artificielle. « Au-delà du fantasme, beaucoup d’outils actuels permettent déjà d’écrire », écrit-il dans le livre blanc. La maîtrise du langage naturel – « et donc de l’écriture » – ne relève plus de la science-fiction. Et le livre blanc de mentionner la société OpenAI qui, cofondée par le milliardaire sud-africano-canadoaméricain Elon Musk il y a six ans, a développé en 2019 une IA nommée « GPT-2 » – devenue le 18 novembre dernier « GPT-3 » (6) – et capable de générer des textes de fiction ou de journalisme. Si la bêta 2 donnait des résultats « à peu près crédibles pour une lecture rapide et superficielle », la bêta 3 devrait avoir appris de ses erreurs. Et du livre à la presse, il n’y a qu’un pas : « L’écriture générée par IA est également utilisée dans le journalisme. Environ un tiers des dépêches publiées par [l’agence de presse] Bloomberg est ainsi générée par des machines », affirment les auteurs. Tom Lebrun signale à EM@ un modèle de génération de texte francophone développé par la société suisse Coteries et appelé Cedille, en version bêta (7). Le livre blanc aurait pu évoquer Dreamwriter, un algorithme conçu par le chinois Tencent, qui avait même écrit un article financier reproduit ensuite sans autorisation par un tiers. Un tribunal de Shenzhen en Chine avait reconnu fin 2019 et pour la première fois que Dreamwriter pouvait bénéficier de la protection du droit d’auteur (8). « L’IA pourrait conduire à développer des assistants créatifs personnifiés, de façon à aider à écrire ou même de dessiner “à la manière” d’un auteur, par exemple », estiment Tom Lebrun et René Audet. Tout au long de la vie d’un livre, de son écriture à sa lecture en passant par son édition, l’intelligence artificielle est amenée à y mettre son grain de sel, voire plus si affinités. Dans son roman « Exemplaire de démonstration » (Fayard, 2002), son auteur Philippe Vasset imaginait Scriptgenerator, un logiciel rédacteur de best-sellers, personnalisable par l’éditeur en fonction d’un public lecteur cible (9).

Encore beaucoup de progrès à faire
« Le risque d’une écriture entièrement algorithmisée existe bel et bien, mais pas exactement de la manière dont on l’imagine. Les auteurs de nouvelles strictement informatives, de récits tenant du divertissement, ont peutêtre effectivement du souci à se faire », ont déjà prévenu Tom Lebrun et René Audet dans une interview accordée en octobre 2020 à la Faculté des lettres et des sciences humaines (FLSH). Mais d’ajouter : « A l’inverse, celles et ceux qui pratiquent du journalisme d’investigation, celles et ceux qui travaillent à un art littéraire (…), en bref, toutes celles et ceux qui proposent un rapport critique et construit au texte, celles et ceux-là entrent dans une catégorie de production textuelle que la machine a encore du mal à investir » (10). Ouf ! @

Charles de Laubier

Deepfake : les vidéos truquées à l’intelligence artificielle sous l’œil du Parlement européen

Le création « deepfake » – consistant à manipuler des contenus vidéo, des images et/ou de l’audio – permet d’obtenir des résultats ultra-réalistes grâce à l’intelligence artificielle. Parodies ou désinformations, ces « hypertruquages » seront encadrés par le futur règlement européen AIA.

Le futur « Artificial Intelligence Act » que le Parlement européen examine actuellement en commissions aura un droit de regard sur les vidéos truquées et les contenus manipulés relevant de la pratique très en vogue du « deepfake » (1) – nom composé à partir de deep learning et de fake news. La commission « marché intérieur et protection des consommateurs » (Imco), tête de file dans le processus législatif de ce projet de règlement européen (2), a comme rapporteur l’eurodéputé italien Brando Benifei (photo). Selon nos informations, « un échange de vues avec les représentants de la Commission européenne » a eu lieu avec lui le 27 octobre dernier.

Article 1er du Artificial Intelligence Act
Prochaines réunions de la commission Imco : les 1er et 9 décembre prochains. Le projet de règlement Artificial Intelligence Act (AIA) sera à nouveau à l’ordre du jour et vient en complément des deux autres projets législatifs du numérique, les Digital Services Act (DSA) et Digital Markets Act (DMA), eux aussi en cours d’examen (lire p. 6 et 7). Il y sera aussi question de deepfake car dès l’article 1er du projet de législation sur l’intelligence artificielle, il est fait explicitement mention des « systèmes d’IA utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo » qui devront être soumis à « des règles harmonisées en matière de transparence ».
Celles-ci sont précisées ensuite à l’article 52 du projet AIA : « Les utilisateurs d’un système d’IA – qui génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques (“hypertrucage”) – précisent que les contenus ont été générés ou manipulés artificiellement ». Si les deepfakes ne sont pas les seuls systèmes d’IA qui seront soumis à des obligations « en raison des risques spécifiques de manipulation qu’ils présentent » – les chatbots/robots conversationnels et les détecteurs biométriques automatisés d’émotions ou de catégorie sociale sont eux aussi dans le collimateur –, les « hypertrucages » audiovisuels occupent une place importante tant leur pratique se répand comme une traînée de poudre sur Internet, réseaux sociaux en tête. « Si un système d’IA est utilisé pour générer ou manipuler des images ou des contenus audio ou vidéo afin de produire un résultat qui ressemble sensiblement à un contenu authentique, il devrait être obligatoire de déclarer que le contenu est généré par des moyens automatisés, sauf pour certaines finalités légitimes faisant l’objet d’exceptions (domaine répressif, liberté d’expression) », précise le projet de règlement AIA dans ses motifs (3). La difficulté du Parlement européen va être d’encadrer la pratique de ces trucages vidéo ultra-réalistes sans pour autant porter atteinte à la liberté d’expression et à la liberté créative. Leurs auteurs de ces « photomontages » nouvelle génération dopés à l’IA ne seront théoriquement pas soumis à la censure ni victimes de chasse aux fausses informations, même si le projet de règlement n’évoque pas le droit à la critique, à la citation, à la caricature, à la parodie et au pastiche (relevant des exceptions au droit d’auteur). Pour autant, « [si] la ressemblance avec des personnes, des lieux ou des événements existants pourrait porter à croire qu’il s’agit de documents authentiques », les créateurs de deepfakes devront les déclarer. « Les deepfakes peuvent soulever des questions de droit d’auteur », indique à Edition Mulimédi@ Olivier Japiot, président du CSPLA (4).
Mais avant que le règlement AIA n’entre en vigueur en Europe, probablement en même temps les règlements DSA et DMA dont les adoptions par les eurodéputés sont attendues au printemps prochain durant la présidence française de l’Union européenne, les deepfakes n’en font qu’à leur tête. Le dernier Web Summit, grand-messe annuelle du numérique qui s’est déroulée début novembre à Lisbonne au Portugal, les a évoqués comme « un danger » mais aussi comme une révolution des médias et du divertissement. Des applications à portée de grand public (gratuites ou payantes) ont fait parler d’elles : Reface, Face Swap Live Lite, FaceApp, Mug Life ou encore Motionleap.

Deepfakes, effets spéciaux et copyright
Les truquages hyperréalistes sont aussi de mise sur TikTok ou Snapchat. Le studio hollywoodien cinquantenaire Lucasfilm, filiale de Disney, a même recruté en juillet dernier un YouTuber spécialiste du genre, un « deepfaker » déchaîné surnommé Shamook (5). Il commettra ses détournements vidéo au sein de la division Industrial Light and Magic (ILM) créée en 1975 pour les effets spéciaux par George Lucas, lequel aujourd’hui injecte dans ses films et séries de l’IA et du machine learning. La révolution « deepfake » n’a pas fini de singer l’audiovisuel et le droit d’auteur. @

Charles de Laubier

Création d’une œuvre ou d’une invention par une IA : la justice commence à faire bouger les lignes

C’est un peu le paradoxe de l’oeuf et de la poule : qui est apparu le premier ? Dans le cas d’une création ou d’une invention par une intelligence artificielle, qui est l’auteur : la personne humaine ou la technologie créatrice ? Cette question existentielle commence à trouver des réponses, en justice.

Par Boriana Guimberteau (photo), avocatE associéE, cabinet Stephenson Harwood

L’intelligence artificielle (IA) fait l’objet de développements exponentiels dans des domaines aussi variés que les voitures autonomes (et les données générées par celle-ci), la rédaction d’articles ou la création de musiques. Au-delà de la compréhension de son fonctionnement, l’intelligence artificielle soulève la question de la paternité et de la titularité des œuvres créées ou des inventions générées par elle.

Vers un « Artificial Intelligence Act »
Avant d’explorer plus en amont cette question, il convient de fournir une définition de l’intelligence artificielle. Selon l’Organisation mondiale de la propriété intellectuelle (OMPI), l’intelligence artificielle désigne une branche de l’informatique qui a pour objet de concevoir des machines et des systèmes à même d’accomplir des tâches faisant appel à l’intelligence humaine, avec un intervention humaine limitée ou nulle. Cette notion équivaut généralement à l’intelligence artificielle spécialisée, c’est-à-dire aux techniques et applications programmées pour exécuter des tâches individuelles. L’apprentissage automatique (machine learning) et l’apprentissage profond (deep learning) font tous deux parties des applications de l’intelligence artificielle (1).
L’IA peut ainsi produire différents résultats dont certains pourraient être qualifiés de créations ou d’inventions, les premières protégeables par le droit d’auteur et les secondes par le droit des brevets d’invention. La question est alors de savoir qui sera titulaire des créations ou des inventions générées par l’IA, et si l’IA pourrait être qualifiée d’auteur ou d’inventeur par le droit positif français.
En matière de droit d’auteur tout d’abord, de nombreux auteurs se sont penchés sur la question de savoir si l’intelligence artificielle pouvait bénéficier de la qualité d’auteur. La majorité d’entre eux reconnaissent la conception personnaliste et humaniste du droit français qui considère comme auteur la personne qui crée une œuvre. Par définition, un fait créatif est un fait matériellement imputable à une personne humaine. Cette conception s’impose également par le seul critère d’admission à la protection des œuvres de l’esprit qu’est l’originalité, laquelle se caractérise par l’empreinte de la personnalité de l’auteur (2). Eu égard à la personne de l’auteur, le professeur Christophe Caron a pu affirmer que « le duo formé par la notion de création et de personne physique est indissociable » et donc que « le créateur est forcément une personne physique ». Si la définition de l’auteur est absente du code de propriété intellectuelle (CPI), on y retrouve néanmoins diverses références : « Est dite de collaboration l’œuvre à la création de laquelle ont concouru plusieurs personnes physiques » (3) ; « Ont la qualité d’auteur d’une œuvre audiovisuelle la ou les personnes physiques qui réalisent la création intellectuelle de cette œuvre » (4). Dans le cadre de l’œuvre radiophonique, « ont la qualité d’auteur d’une œuvre radiophonique la ou les personnes physiques qui assurent la création intellectuelle de cette œuvre » (5). La seule exception à la naissance ab initio du droit d’auteur sur la tête d’une personne physique : l’œuvre collective (6).
De plus, la nécessité d’une intervention consciente de l’homme implique qu’un animal ou une machine ne peuvent être considérés comme auteurs. L’intelligence artificielle ne peut alors être qu’un outil de création supplémentaire.

L’approche « création intellectuelle »
Dans le cadre du projet de réglementation européenne sur les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle – l’« Artificial Intelligence Act » actuellement en cours d’examen en commissions au sein du Parlement européen (7) –, une résolution du 20 octobre 2020 du Parlement européen précisait sa teneur en affirmant ceci : « Les œuvres produites de manière autonome par des agents artificiels et des robots pourraient ne pas bénéficier de la protection par le droit d’auteur, afin de respecter le principe d’originalité, qui est lié à une personne physique, et étant donné que la notion de “création intellectuelle” porte sur la personnalité de l’auteur » (8). Cette approche se retrouve également dans les pays du système juridique dit Common Law. En 2012, la cour fédérale d’Australie affirmait la nécessité d’une intervention humaine en jugeant qu’une base de données générée automatiquement par un système d’intelligence artificielle n’est pas protégeable par le copyright dans la mesure où l’effort d’extraction des données n’était pas le fait d’une personne ou d’un groupe de personnes (9). Aux Etats-Unis, une position identique ressortait de l’affaire médiatisée du macaque Naruto ayant pris un selfie. La cour américaine n’a pas manqué de rappeler qu’une photographie prise par un animal n’est pas susceptible de protection eu égard à l’absence d’intervention humaine (10).

L’IA créatrice demande protection
L’AIPPI – association Internationale pour la protection de la propriété intellectuelle (11) – s’est également penchée sur cette question et a adopté, après d’âpres discussions, une résolution (12) lors de son congrès de septembre 2019. Selon cette résolution, les œuvres générées par une IA pourraient bénéficier de la protection par le droit d’auteur à condition qu’une intervention humaine ait lieu lors de leur création. Néanmoins, pour la première fois, le tribunal de Shenzhen en Chine a jugé qu’un article financier écrit par Dreamwriter, un algorithme conçu par Tencent, avait été reproduit sans autorisation reconnaissant ainsi que la création d’une intelligence artificielle peut bénéficier de la protection du droit d’auteur (13). Si diverses réflexions sont en cours pour faire émerger de nouveaux concepts juridiques appréhendant l’IA dans le cadre de la propriété intellectuelle, nulles n’ont connu de réels aboutissements législatifs jusqu’à présent. La protection des réalisations de l’IA s’opère ainsi notamment par la voie contractuelle. A titre illustratif, l’entreprise Aiva Technologies, connue pour son IA capable de composer de la musique, offre le choix entre une utilisation gratuite pour une exploitation privée des résultats créatifs et une utilisation payante pour une exploitation commerciale de ceux-ci.
Parallèlement, la problématique de l’IA-inventeur se pose également dans le cadre du droit des brevets. En effet, en France, le CPI prévoit que le droit au titre de propriété industrielle « appartient à l’inventeur ou à son ayant cause. Si plusieurs personnes ont réalisé l’invention indépendamment l’une de l’autre, le droit au titre de propriété industrielle appartient à celle qui justifie de la date de dépôt la plus ancienne » (14).
Ainsi, l’on retrouve en matière de brevets la même dimension humaniste dont est empreint le droit d’auteur. La question a néanmoins été posée aux offices et aux juridictions de savoir si une IA pouvait être l’inventeur d’un brevet. Les demandes déposées par « Dabus » ont ainsi pu illustrer cette problématique et les solutions retenues actuellement. Dabus est un réseau de neurones artificiel développé par le chercheur américain Stephen Thaler qui (l’IA neuronale) a notamment conçu, de manière autonome, un récipient pour boissons basé sur la géométrie fractale et un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage. Depuis, l’équipe de « The Artificial Inventor Project » a amorcé une quête visant à faire reconnaître Dabus comme inventeur d’un brevet dans divers pays.
En décembre 2019, l’Office européen des brevets (EPO) a refusé deux demandes d’enregistrement de brevets européens (15) soumises au nom de Dabus dans la mesure où seule une personne physique peut être inventeur d’un brevet européen (16).
Le bureau américain des brevets et des marques de commerce (USPTO) a, lui, rejeté le 22 avril 2020 la demande de brevet indiquant Dabus comme inventeur pour les mêmes motifs (17). Le 2 septembre 2021, le tribunal du district Est de Virginie statuait lui aussi « qu’un système d’intelligence artificielle (IA) ne peut pas déposer de brevet » (18).
De l’autre côté de l’Atlantique, la cour d’appel de Londres suivit l’office des brevets britanniques (IPO) qui avait rejeté une même demande, le 21 septembre 2021. La juge Elisabeth Laing affirma ainsi que « seule une personne peut avoir des droits. Pas une machine » (19).
Néanmoins, au mois de juillet 2021, l’office des brevets sud-africain (CIPC) a reconnu Dabus comme inventeur lors d’un dépôt de brevet pour la première fois (20), suivi de près par la Cour fédérale australienne qui jugea que « Dabus pouvait être un inventeur au sens de la loi australienne » (21).

Vers des règles ad hoc ?
En conclusion, la question de l’intelligence artificielle et de la titularité des droits de propriété intellectuelle demeure globalement dominée par le principe de prééminence de l’humain, le droit français ne se démarquant pas tant de ses voisins européens et anglo-saxons. Toutefois, les développements de l’IA sont encore à un stade peu avancé et il faudrait suivre son évolution pour apprécier la nécessité d’une adaptation des règles juridiques en conséquence, notamment celles relatives à la protection des investissements ayant abouti à l’IA. @

* Boriana Guimberteau est avocate experte en
propriété intellectuelle, que cela soit dans les
domaines des marques de commerce, du droit
d’auteur, des dessins et modèles et des brevets. Elle
vient d’intégrer le cabinet Stephenson Harwood en tant
que partner, après dix ans chez FTPA Avocats.

Mis à part Google et YouTube, le groupe Alphabet va-t-il gagner de l’argent avec ses « autres paris » ?

« Other bets » : ce sont les investissements d’Alphabet dans d’autres domaines d’innovation que les services de Google (YouTube compris). Si leur revenus sont embryonnaires, ils s’acheminent petit à petit vers le milliard de dollars de chiffre d’affaires. Mais leur déficit est encore abyssal.

« Alphabet est un ensemble d’entreprises – dont la plus grande est Google – que nous déclarons sous deux segments : Google Services et Google Cloud. Nous déclarons toutes les entreprises non- Google collectivement en tant qu’”autres paris”. Ces other bets comprennent des technologies à un stade plus précoce, qui sont plus éloignées de notre cœur de métier Google. Nous adoptons une vision à long terme et gérons le portefeuille des “autres paris” avec la discipline et la rigueur nécessaires pour générer des rendements à long terme », assure la maison mère de Google, dirigée par Sundar Pichai (photo) depuis décembre 2019.

Diversification encore très déficitaire
Si 92,3 % du chiffre d’affaires 2020 du groupe Alphabet dépend des revenus de la galaxie « Google » (Google Search, YouTube, Android, Chrome, Google Maps, Google Play ou encore Google Network), et même 99,5 % si l’on inclut Google Cloud, le reliquat est généré par les « autres paris » d’Alphabet à hauteur de 657 millions de dollars. C’est une goutte d’eau pour la firme de Mountain View (Californie), mais elle espère en tirer des bénéfices au cours des prochaines années. Bien que la croissance des recettes générées par ces other bets n’ait pas été au rendez-vous entre 2019 et 2020 (- 0,3 %), le premier semestre de l’année 2021 (au 30 juin) fait meilleure figure avec un bond de 37,8 % du chiffres d’affaires des « autres paris », à 390 millions de dollars sur six mois, par rapport à la même période un an auparavant.
Selon les prévisions de la banque américaine Goldman Sachs, qui a annoncé mi-septembre la couverture du titre Alphabet (1), les « autres paris » pourraient frôler à fin 2022 la barre du milliard de dollars de chiffre d’affaires (à savoir 910 millions de dollars l’an prochain, contre une estimation supérieure à 800 millions cette année). Pour autant, Alphabet doit en contrepartie consentir à d’importantes pertes opérationnelles sur ses « autres paris » : plus de 2,5 milliards de pertes sur les six premiers mois de cette année (aggravé de 13,6 % sur un an), alors que l’année 2020 dans son ensemble accusait déjà plus de 4,4 milliards de dollars de déficit opérationnel dans ces other bets (mais cette fois en amélioration de 7,2 % par rapport à 2019). Cela dit, Alphabet consacre beaucoup d’argent annuellement à sa R&D : plus de 15 % de chiffre d’affaires global, soit 27,5 milliards de dollars en 2020 (et rien que sur le premier semestre 2021 une enveloppe de 15,1 milliards de dollars). Et au cas où cela ne suffirait pas, notamment pour faire de nouvelles acquisitions stratégiques et de start-up, Alphabet dispose en plus (au 30 juin 2021) de 135,9 milliards de cash disponible (2). Pour l’heure, le « G » de GAFA fondé par Larry Page et Sergey Brin – restructuré en octobre 2015 sous la holding Alphabet (3) – tient à rassurer sur ses coûteux et risqués investissements diversifiés – dont certains ont été abandonnés, nous le verrons, faute de viabilité. « L’investissement d’Alphabet dans notre portefeuille “autres paris” comprend des entreprises émergentes à divers stades de développement, allant de celles en phase de recherche et développement à celles qui en sont aux premiers stades de commercialisation, et notre objectif est qu’elles deviennent prospères, à moyen et à long terme. Bien que ces entreprises en démarrage connaissent naturellement une grande incertitude, certaines d’entre elles génèrent déjà des revenus et font d’importants progrès dans leurs industries », tente de rassurer Alphabet dans son rapport annuel 2020.
Quatre filiales sont le plus avancées dans leur développement et réalisation ; elles sont aussi les seules filiales de la nébuleuse « autres paris » à être mentionnées dans ses tout derniers rapport financiers (annuel 2020 et semestriel 2021), sans pour autant mentionner de résultats pour chacune d’elle.

Des acquisitions et des levées de fonds
Waymo travaille à rendre les transports plus sécurisés et plus faciles pour tous, en particulier avec la voiture autonome ; Verily élabore des outils et des plateformes pour améliorer les résultats en matière de santé ; Fitbit, dont l’acquisition annoncée il y a près deux ans pour 2,1 milliards de dollars a été finalisée en janvier dernier, est présent sur le marché des objets connectés d’activités physiques ou wearables ; DeepMind Technologies, société britannique et consacrée à la recherche en intelligence artificielle et en réseaux neuronaux pour imiter la mémoire du cerveau humain, a été créée en 2010 et est devenue quatre ans après une filiale d’Alphabet. Parmi elles, la filiale de véhicules autonomes Waymo, qui fait circuler depuis 2017 des robotaxis sans chauffeur à Phoenix (Arizona) et depuis février dernier à San Francisco (Californie), appuie sur l’accélérateur après avoir levé en juin 2,5 milliards de dollars – après les 3 milliards obtenus l’an dernier. D’autres actifs moins connus sont dans le portefeuille d’investissement d’Alphabet tels que la filiale Calico (Calico Life Sciences) spécialisée dans le contrôle biologique du vieillissement humain pour permettre aux gens de mener une vie plus longue et en bonne santé (4).

Des échecs aussi : Loon, Makani, Quayside…
La start-up Wing, elle, est spécialisée dans les drones de livraison et existe en tant que société depuis 2018 après avoir été incubée en tant qu’un des projets « X » – de l’ex-Google X – il y a près de dix ans. Autre filiale d’Alphabet : Intrinsic, issue elle aussi des projets X, est devenue une société en juillet dernier pour poursuivre le développement et la commercialisation de solutions de robotique industrielle boostées au machine learning et à l’IA, flexibles et à prix abordables. Dans l’urbanisme et les smart cities, la filiale newyorkaise Sidewalk Labs créée en 2010 œuvre, elle, à l’amélioration de l’infrastructure urbaine pour réduire le coût de la vie dans le transport, le parking et la consommation d’énergie.
Mais les paris peuvent se traduire par des échecs, c’est le jeu : en janvier dernier, Alphabet a annoncé la fermeture sa filiale Loon – créé en 2018 après être sortie du laboratoire Google X, et l’abandon de son projet d’apporter l’accès Internet à haut débit dans les zones les plus reculées du globe à l’aide de ballons stratosphériques. L’opérateurs télécoms du Kenya en avait été le premier et seul client. Alphabet a aussi jeté l’éponge en fermant en février 2020 sa filiale Makani Technologies, société californienne créée en 2006, acquise en 2013, et spécialisée dans la fabrication d’éoliennes aéroportées – des « cerfs-volants énergétiques » qui devaient être destinés au plus grand nombre (les codes et les brevets ayant néanmoins été mis dans le domaine public).
Du côté de la filiale newyorkaise Sidewalk Labs, le projet « Quayside » de futur quartier intelligent et durable créé ex-nihilo dans la ville canadienne de Toronto, a dû être abandonné en mai 2020 – soit au bout de trois ans de gestation – car jugé trop technologique et peu viable économiquement. Plus récemment, Google a confirmé fin septembre avoir renoncé à lancer Plex, un projet de banque en ligne avec Citigroup (Citi) ou la Banque de Montréal (BMO) comme partenaires.
D’autres projets sont encore en gestion dans l’incubateur X Development (ex-Google X) qui encourage les moonshots, comprenez les rêves impossibles, les grandes ambitions :
• Mineral met au point de nouvelles technologies pour aider à bâtir un système alimentaire plus durable, plus résilient et plus productif (foodtech) ;
• Tidal développe un système de caméras sous-marines doté d’outils de perception et de visibilité des écosystèmes océaniques pour mieux les comprendre et les protéger ;
• le Everyday Robot Project fabrique des robots qui peuvent fonctionner en toute sécurité dans le quotidien des humains grâce au machine learning ;
• Taara teste dans des zones rurales d’Inde et d’Afrique une technologie d’accès haut débit à Internet qui utilise des faisceaux lumineux ;
• Glass Enterprise Edition est le développement (par l’ex-Google X) et la fabrication (par Foxconn) de lunettes de réalité augmenté pour le monde professionnel (au-delà donc des Google Glass grand public lancées en 2013 puis arrêtées en 2015) ;
• Malte construit une technologie de stockage d’énergie (gridscale) qui stocke l’électricité à partir de sources d’énergie renouvelables sous forme de chaleur à l’intérieur de grands réservoirs de sel fondu ;
• Project Foghorn cherche à créer du carburant propre à partir de l’eau de mer ;
• Dandelion (qui veut dire pissenlit) veut réduire les coûts de chauffage et les émissions de carbone grâce à l’énergie géothermique ;
• BrainBrain vise à apporter les avantages de l’IA et de l’apprentissage automatique à tous ;
• Chronique consiste à aider les entreprises à trouver et à arrêter les cyberattaques.
Cet inventaire à la Prévert de la diversification d’Alphabet est, depuis septembre dernier, présenté et censé être actualisé sur le nouveau site web de la société X Development (5) et non plus sur le blog de la « Team X » (6). La filiale « X » d’Alphabet recrute à tour de bras, surtout des ingénieurs, des scientifiques et des inventeurs pour ses différents actifs incubés (7). A condition que les candidats aient la culture « moonshot », afin de repousser les limites de l’impossible.

Google reste la vache-à-lait d’Alphabet
Pendant ce temps-là, la galaxie « Google » a profité de la crise sanitaire pour être plus que jamais la vache à lait d’Alphabet : Goldman Sachs table sur un chiffre d’affaires mondial du géant du Net dans son ensemble (« autres paris » compris) pour cette année 2021 dépassant la barre des 200 milliards de dollars, à plus de 206,3 milliards, contre 182,5 milliards l’an dernier (8) où le bénéfice net était de 40,2 milliards de dollars. Ce qui permet donc à Sundar Pichai de faire par ailleurs des paris risqués et onéreux. @

Charles de Laubier

Vers une régulation harmonisée des systèmes d’intelligence artificielle (IA) à risque en Europe

Le projet de règlement européen « Régulation harmonisée de l’IA », qui a entamé son parcours législatif, est ambitieux puisque la proposition est assortie d’une application extraterritoriale, à l’instar du RGPD. Très redouté par les GAFAM, ce cadre établie une échelle de risques des « systèmes d’IA ».