Boosté par le cloud et l’IA, Microsoft conteste à Apple sa première place mondiale des capitalisations boursières

Le capitalisme a ses icônes, et la seconde est Microsoft. La valorisation boursière de la firme de Redmond, que dirige Satya Nadella depuis près de dix ans, atteint – au 1er décembre 2023 – les 2.816 milliards de dollars et pourrait bientôt détrôner Apple de la première place mondiale. Merci aux nuages et à l’IA.

(Cet article est paru le lundi 4 décembre 2023 dans Edition Multimédi@. L’AG annuelle des actionnaires de Microsoft s’est déroulée comme prévu le 7 décembre)

La prochaine assemblée générale annuelle des actionnaires de Microsoft, qui se tiendra le 7 décembre et cette année en visioconférence (1), se présente sous les meilleurs auspices. L’année fiscale 2022/2023 s’est achevée le 30 juin avec un chiffre d’affaires de 211,9 milliards de dollars, en augmentation sur un an (+ 7 %). Le bénéfice net a été de 72,4 milliards de dollars, en légère diminution (- 1 %). Et les résultats du premier trimestre de l’année 2023/2024, annoncé en fanfare le 24 octobre dernier, ont encore tiré à des records historiques le cours de Bourse de Microsoft – coté depuis plus de 37 ans. A l’heure où nous bouclons ce numéro de Edition Multimédi@, vendredi 1er décembre, la capitalisation boursière du titre « MSFT » – actuelle deuxième mondiale – affiche 2.816 milliards de dollars (2) et talonne celle du titre « AAPL » d’Apple dont la première place, avec ses 2.954 milliards de dollars (3), est plus que jamais contestée. Depuis la nomination il y a près de dix ans de Satya Nadella (photo) comme directeur général (4) pour succéder à Steve Ballmer, Microsoft a ainsi vu sa capitalisation boursière multiplié par presque dix. Les actionnaires de la firme de Redmond (Etat de Washington, près de Seattle) en ont pour leur argent (voir graphique), depuis vingt ans qu’elle s’est résolue à leur distribuer des dividendes – ce qui n’était pas le cas avec son cofondateur et premier PDG Bill Gates.

Assemblée générale annuelle le 7 décembre
Après avoir mis Microsoft sur les rails du cloud en faisant d’Azure – dont il était vice-président avant de devenir directeur général du groupe (5) – sa première vache à lait (87,9 milliards de dollars de chiffre d’affaires lors du dernier exercice annuel), Satya Nadella a commencé à faire de l’IA générative le moteur de tous ses produits et services. « Avec les copilotes, nous rendons l’ère de l’IA réelle pour les gens et les entreprises du monde entier. Nous insufflons rapidement l’IA dans chaque couche de la pile technologique et pour chaque rôle et processus métier afin de générer des gains de productivité pour nos clients », a déclaré fin octobre cet Indo-américain (né à Hyderabad en Inde), qui est aussi président de Microsoft depuis près de deux ans et demi (6). « Copilotes » (copilots) est le terme qu’il emploie volontiers pour désigner les outils alimentés par l’IA destinés à être intégrés à tous les produits et services de l’éditeur du système d’exploitation Windows, des logiciels Office 365, du cloud Azure et des serveurs associés, du navigateur Edge, du moteur de recherche Bing, de la console de jeux vidéo Xbox et de son Cloud Gaming, ou encore du réseau social professionnel LinkedIn.

La Française Catherine MacGregor
Bref, Microsoft mise plus que jamais sur l’IA générative, directement issue de son partenariat à quelque 13 milliards de dollars (49 % du capital inclus) avec la société californienne OpenAI que redirige à nouveau Sam Altman depuis le 22 novembre (7), grâce aux interventions intéressées de Satya Nadella (8). Ces « copilotes » sont appelés à devenir la nouvelle interface des utilisateurs, particuliers ou entreprises. A 56 ans, le PDG de Microsoft présidera le 7 décembre une assemblée générale annuelle des actionnaires qui s’annonce la plus révolutionnaire et « intelligente » en termes technologique pour l’entreprise, laquelle fêtera son demi-siècle d’existence en avril 2025. Mais Satya Nadella devra aussi donner des gages à ses actionnaires sur la bonne utilisation de l’IA déployées tous azimuts. « Nous reconnaissons également [notre] responsabilité de veiller à ce que cette technologie[de l’IA] qui change le monde soit utilisée de façon responsable. Le travail de Microsoft sur l’IA est guidé par un ensemble de principes fondamentaux : l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusion, la transparence et la responsabilité », ont déclaré les membres du conseil d’administration dans une lettre aux actionnaires datée du 19 octobre (9), en prévision de la prochaine assemblée générale. D’ailleurs, quatre jours avant d’évincer – le 17 novembre et à la surprise générale – son patron Sam Altman (10), l’ancien conseil d’administration d’OpenAI avait reçu une lettre de chercheurs l’avertissant que « l’IA pouvait menacer l’humanité » (11), alors que son patron (réintégré le 22 novembre) développe un projet de super-IA baptisé « Q* » (prononcez « Q-Star ») et relevant de la catégorie des surpuissantes AGI (Artificial General Intelligence). Quoi qu’il en soit, OpenAI aura plus que jamais besoin des superordinateurs de Microsoft accessibles dans le cloud pour lui apporter la puissance de calcul nécessaire.
Plus largement, la gouvernance de Microsoft joue la carte de la diversité des activités et des profils. Sur les 12 membres du conseil d’administration, la plupart candidats au renouvellement de leur mandat, 11 sont indépendants. Parmi les deux nouveaux administrateurs indépendants soumis au vote des actionnaires le 7 décembre : une Française, en la personne de Catherine MacGregor (51 ans), née Catherine Fiamma au Maroc, directrice générale de l’énergéticien français Engie, ex-GDF Suez (dans le capital duquel l’Etat français détient toujours une golden share et compte deux administrateurs). Ingénieure CentraleSupélec, elle a passé onze ans chez Schlumberger (devenu SLB). « [Catherine MacGregor] apportera à Microsoft des informations importantes et une expérience mondiale », se félicite déjà le conseil d’administration. C’est la première personnalité française qui entre au conseil d’administration du « M » de GAFAM. Mais elle n’aura pas de rôle opérationnel au sein de la firme de Redmond, dont le seul « Frenchie » à avoir atteint le plus haut niveau de direction chez Microsoft est JeanPhilippe Courtois (près de 40 ans de maison), actuel viceprésident en charge des partenariats nationaux de transformation et membre du comité exécutif. Il fut le deuxième dirigeant le mieux payé de Microsoft (12)
Les actionnaires de Microsoft auront, le 7 décembre, un tout premier bilan de la stratégie IA de Microsoft depuis l’accord financier et technologiques avec OpenAI annoncé en janvier dernier (13). Du « ChatGPT » a été injecté partout dans les produits Microsoft, y compris avec l’offre « OpenAI Service ». Avec l’IA, Satya Nadella pense pouvoir atteindre son objectif de «faire d’Azure “l’ordinateur du monde” », le chiffre d’affaires de l’activité cloud ayant dépassé les 110 milliards de dollars sur l’exercice 2022/2023 et Azure représentant plus de 50 % du total. @

Charles de Laubier

Pour la protection de leurs œuvres, les auteurs ont un droit d’opt-out, mais est-il efficace ?

Les IA génératives sont voraces et insatiables : elles ingurgitent de grandes quantités de données pour s’améliorer sans cesse. Problème : les ChatGPT, Midjourney et autres Bard utilisent des œuvres protégées sans avoir toujours l’autorisation. Pour les auteurs, l’opt-out est une solution insuffisante.

Par Anne-Marie Pecoraro*, avocate associée, UGGC Avocats

L’utilisation de l’intelligence artificielle (IA) dans les domaines artistiques tend à révolutionner la manière dont nous analysons, créons et utilisons les œuvres cinématographiques, littéraires ou encore musicales. Si, dans un premier temps, on a pu y voir un moyen presque anecdotique de créer une œuvre à partir des souhaits d’un utilisateur ayant accès à une IA, elle inquiète désormais les artistes.

Des œuvres utilisées comme inputs
Les algorithmes et les AI peuvent être des outils très efficaces, à condition qu’ils soient bien conçus et entraînés. Ils sont par conséquent très fortement dépendants des données qui leur sont fournies. On appelle ces données d’entraînement des « inputs », utilisées par les IA génératives pour créer des « outputs ». Malgré ses promesses, l’IA représente cependant un danger pour les ayants droit, dont les œuvres sont intégrées comme données d’entraînement. A titre d’exemple, la version 3.5 de ChatGPT a été alimentée avec environ 45 téraoctets de données textuelles. On peut alors se poser la question de la protection des œuvres utilisées comme inputs : l’ayant droit peut-il s’opposer ? La législation a prévu un droit d’« opt-out », que peuvent exercer les auteurs pour s’opposer à l’utilisation de leurs œuvres par une IA. A travers le monde, l’IA est encore peu règlementée.
Aux Etats Unis, il n’existe pas encore de lois dédiées portant spécifiquement sur l’IA, mais de plus en plus de décisions font office de « guidelines ». Au sein de l’Union européenne (UE), l’utilisation croissante de l’IA, à des fins de plus en plus variées et stratégiques, a conduit à faire de son encadrement une priorité. En effet, dans le cadre de sa stratégie numérique, l’UE a mis en chantier l’ « AI Act », un projet de règlement (1) visant à encadrer « l’usage et la commercialisation des intelligences artificielles au sein de l’UE » qui a été voté le 14 juin 2023 par le Parlement européen (2). Son adoption est prévue pour fin 2023 ou début 2024, avec une mise application 18 à 24 mois après son entrée en vigueur. A travers ce texte, le principal objectif du Parlement européen est d’établir un cadre juridique uniforme permettant l’innovation via l’IA, et de garantir que les systèmes d’intelligence artificielle utilisés dans l’UE soient sécurisés, transparents, traçables, non discriminatoires et respectueux de l’environnement. Au niveau national, l’encadrement de l’IA fait également couler beaucoup d’encre comme en témoigne, en France, la proposition de loi visant à encadrer l’intelligence artificielle par le droit d’auteur (3), déposée mi-septembre 2023. Trouver un équilibre entre deux objectifs – à savoir la protection des œuvres par le droit d’auteur et la libre utilisation des données nécessaire au bon fonctionnement des IA – constitue le but que cherche à atteindre l’UE, notamment à travers sa directive « Droit d’auteur dans le marché unique numérique » (4) de 2019, où elle établit un cadre qui permet aux IA de se développer – droit de fouilles de données – tout en offrant un contrôle aux auteurs sur leurs données – droit d’opt-out. Mais ce dernier droit suffit il à assurer la protection des œuvres ?
L’article 4 de cette directive dédiée au droit d’auteur permet les reproductions et les extractions d’objets protégés accessibles de manière licite, aux fins de la fouille de textes et de données, ou TDM (5). Elle permet la fouille de textes et de données tout en recherchant « un équilibre entre deux éléments : protéger les droits, et faciliter l’exploration de textes et de données ». En effet, la directive prévoit en son article 3 les fouilles de données dans un but scientifique tandis que l’article 4 prévoit la fouille effectuée par toute autre personne, peu importe la finalité. A la différence de l’article 3, l’article 4 prévoit une exception permettant aux auteurs de s’opposer à la fouille de données prévue dans ce même article : le droit d’opt-out (6). Précisons que les données utilisées peuvent être « conservées aussi longtemps que nécessaire aux fins de la fouille de textes et de données » (7).

Plaintes contre les IA « non autorisées »
On connaît le cas de Radio France qui a interdit l’accès d’OpenAI – la société californienne à l’origine de ChatGPT – à ses contenus, suivi par d’autres médias tels que France Médias Monde ou TF1. L’écrivain américain de science-fiction et de fantasy George R.R Martin, ainsi que d’autres auteurs tels que John Grisham, ont également porté plainte contre OpenAI pour avoir utilisé leurs œuvres pour se développer. Plus récemment, entre autres cas, la Sacem a utilisé ce droit afin de conditionner l’utilisation des données de ses membres par une IA à une « autorisation préalable et à une négociation financière » (8). Quant à la transposition de la directive « Droit d’auteur » de 2019 en droit français par une ordonnance de 2021 (9), elle rend l’exercice du droit d’opt-out plus restrictif. En effet, l’article L. 122-5-3 du code de la propriété intellectuelle (CPI) réserve ce droit aux auteurs alors que la directive ouvre ce droit aux ayants droits.

L’opt-out est-il efficace pour protéger ?
La propriété littéraire et artistique peut-elle protéger contre l’utilisation des données par les IA ? Il y a tout d’abord les difficultés de mise en œuvre du droit d’opt-out. La directive « Droit d’auteur » de 2019 a été votée à une époque où le législateur ne mesurait pas encore pleinement l’importance qu’allait prendre l’IA, et le système d’opt-out semble désormais insuffisant pour protéger les auteurs car il est difficile à appliquer. Tout d’abord, il existe une insuffisance d’information relative aux moyens d’exercer ce droit. Ensuite, Internet permet une multiplication des occurrences d’un même contenu en ligne, donc exercer son droit d’opt-out, alors que l’œuvre a déjà été diffusée et relayée par des internautes, semble inefficace. De surcroît, il a été mis en place en 2019, après qu’un nombre gigantesque d’œuvres aient déjà été rendues accessibles sur de nombreuses bases de données. Se pose donc la question du sort des œuvres qui ont déjà été utilisées précédemment par autrui ou par une IA pour générer un autre élément. Le droit d’opt-out n’a-t-il d’effet que sur les utilisations futures ?
Devant la difficulté d’exercer ce droit, certains acteurs tentent de mettre en place des solutions pour pallier ce problème, notamment en assurant une meilleure transparence quant au fonctionnement de l’IA. Google, par exemple, a mis en avant « Google-Extended » pour permettre aux auteurs d’avoir un meilleur contrôle sur leur contenu et sur la manière dont il pourrait être utilisé par des IA génératives (10). Il faut aussi sécuriser les droits d’auteur dans l’ère de l’intelligence artificielle : discernement, transparence, contreparties, protections de l’humain, … Les artistes et ayants droit réclament un droit d’accès leur permettant de savoir quelles œuvres et quelles données sont utilisées dans la fouille de données. Et ce, quand bien même ils auraient consenti à l’utilisation de certaines de leurs œuvres – leur autorisation ne couvrant pas nécessairement toutes leurs œuvres ni tous les systèmes d’IA. Dans le cas où ils se seraient opposés, ce dispositif d’information leur permettrait aussi de s’assurer qu’une autorisation n’a pas été accordée indûment par des tiers. La plupart des ayants droit estiment que, dans la mesure où le fonctionnement des algorithmes d’IA implique une reproduction d’objets protégés, « l’humain doit rester prioritaire et la titularité des droits doit revenir en priorité aux humains » (11). C’est d’ailleurs dans cette logique que s’est inscrite la table ronde de la Federal Trade Commission (FTC) sur l’« économie créative et les IA génératives » (12), organisée le 4 octobre 2023 pour que le législateur américain et les différentes autorités compétentes prennent en considération, dans leur mission de régulation, le point de vue des artistes, auteurs, compositeurs, réalisateurs et de toute personne dont les œuvres pourraient être utilisées par une IA générative.
Des syndicats américains tels que SAG-AFTRA ou WGA, rassemblant des centaines de milliers d’acteurs et de professionnels des médias, étaient présents lors de cette table ronde pour défendre une utilisation de l’IA saine, qui soit bénéfique à l’ensemble de leurs membres, aux travailleurs d’autres industries et au public en général. Pour s’assurer que l’ensemble des individus de cette industrie soient justement payés pour leur travail, plusieurs syndicats n’ont pas hésité à faire une grève générale de plusieurs mois à Hollywood (13) pour s’assurer du bon équilibre entre l’utilisation des IA génératives et les intérêts des individus car « les humains ont beau essayer de créer des IA de plus en plus intelligentes, elles ne remplaceront jamais la créativité humaine ». La grève – historique – a d’ailleurs porter ses fruits dans la mesure où elle a abouti sur un accord qui « permettra de construire des carrières de façon durable ». Outre des compensations financières obtenues des studios, le SAG-AFTRA affirme qu’ils ont négocié des « provisions sans précédent pour s’assurer du consentement et de la compensation [des acteurs], afin de protéger [ses] membres de la menace de l’IA » (15). @

* Anne-Marie Pecoraro est avocate spécialisée
en droit de la propriété intellectuelle,
des médias et des technologies numériques.

ZOOM

L’IA générative : quésaco ?
ChatGPT, Dall-E, Midjourney, Bard, Claude, … On connaît des exemples d’intelligence artificielle générative qui produisent de nouvelles données à partir de celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique. L’IA générative se concentre sur la création de données, de contenu ou de productions artistiques, de façon indépendante, tandis que l’IA classique se concentre, elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA, qu’elle soit générative ou classique, repose sur l’apprentissage automatique (machine learning) et donc sur des algorithmes conçus de sorte que leur comportement évolue dans le temps en fonction des données qui leur sont fournies. L’IA générative utilise la puissance d’un modèle de langage naturel (GPT-3 et GPT-4 pour ChatGPT, par exemple). On parle d’« invite » pour une simple instruction donnée à l’IA générative en langage naturel (texte ou voix), sinon d’« ingénierie rapide » (prompt engineering, en anglais) lorsque les demandes sont plus élaborées. @

Médias sociaux : l’Unesco tiendra sa première Conférence mondiale des régulateurs en juin 2024

L’agence de l’ONU pour l’éducation, la science et la culture organisera mi-2024 sa toute première Conférence mondiale des régulateurs. Au moment où les plateformes numériques en Europe font la chasse aux « contenus illicites », l’Unesco veut des garde-fous pour la liberté d’expression.

Audrey Azoulay (photo), directrice générale de l’Unesco, l’a annoncé le 6 novembre dernier : l’agence des Nations unies pour l’éducation, la science et la culture organisera mi-2024 – en juin, selon les informations de Edition Multimédi@ – sa toute première Conférence mondiale des régulateurs, en vue de mettre en œuvre les mesures préconisées pour « mettre fin à ce fléau » qu’est « l’intensification de la désinformation et des discours de haine en ligne » sur les médias sociaux. Ce prochain rendez-vous concernera non seulement les gouvernements et les autorités de régulation, mais aussi la société civile et les plateformes numériques.

Préserver la liberté d’expression
« Il y a une exigence cardinale qui a guidé nos travaux : celle de préserver toujours la liberté d’expression et tous les autres droits humains. Contraindre ou brider la parole serait une terrible solution. Des médias et des outils d’information libres, de qualité et indépendants, constituent la meilleure réponse sur le long terme à la désinformation », a mis en garde Audrey Azoulay.
L’Unesco, qui revendique son rôle « pour la promotion et la protection de la liberté d’expression et de l’accès à l’information », a présenté à Paris – où est basé son siège social – les « Principes pour la gouvernance des plateformes numériques », détaillés dans un document d’une soixantaine de pages (1). Ils sont le fruit d’une consultation multipartite engagée en septembre 2022 et au cours de trois consultations ouvertes qui ont eu lieu respectivement entre décembre 2022 et janvier 2023, entre février et mars 2023 et entre avril et juin 2023, soit au total 1.540 contributions provenant de 134 pays et ayant généré plus de 10.000 commentaires. « Préserver la liberté d’expression et le droit d’accès à l’information, tout en luttant contre la désinformation, les discours de haine et les théories du complot, nécessite une approche multipartite », justifie l’Unesco, qui a aussi tenu compte des conclusions de sa conférence mondiale de février 2023 consacrée à la régulation des plateformes numériques (2). La protection de la liberté d’expression dans le monde est la première préoccupation de l’Unesco, alors que dans les vingt-sept Etats membres de l’Union européenne (UE) les très grandes plateformes en ligne et très grands moteurs de recherche en ligne – au nombre de dix-neuf (3) – doivent se conformer depuis le 25 août au règlement sur les services numériques qui leur impose de lutter contre les « contenus illicites » (fausses informations, discours haineux, messages à caractère terroriste, …). Selon certaines organisations, ce Digital Services Act (DSA) – applicable à toutes les plateformes numériques à partir du 17 février 2024 – présentent une menace pour la liberté d’expression des Européens (4) – notamment en cas de censure abusive, voire d’interprétation contestée de la part du commissaire au Marché intérieur, Thierry Breton (5).
Si l’Unesco ne mentionne pas dans son document les avancées de l’UE dans ce domaine, elle n’en met pas moins en garde les Etats du monde entier contre les atteintes à la liberté d’expression et aux droits humains. « Les Principes [pour la gouvernance des plateformes numériques] commencent par décrire l’environnement propice nécessaire pour sauvegarder la liberté d’expression, l’accès à l’information et d’autres droits humains, tout en garantissant un environnement ouvert, sûr et sécurisé pour les utilisateurs et les non-utilisateurs des plateformes numériques », explique l’Unesco dans son document. Sont ainsi définies les responsabilités des différentes parties prenantes, et ce n’est pas un hasard si celles-ci commencent par « les devoirs des Etats de respecter, protéger et appliquer les droits humains » :
Les Etats doivent respecter et promouvoir les droits humains, y compris le droit à la liberté d’expression et le droit d’accès à l’information. Les restrictions à la liberté d’expression ne sont admissibles que dans les conditions prévues aux articles 19 et 20 du PIDCP [Pacte international relatif aux droits civils et politiques (6), adopté par les Nations Unies en 1966 et entré en vigueur en 1976, ndlr].

Les Etats ne doivent ni censurer…
Les Etats ont des obligations positives de protéger les droits humains contre les ingérences injustifiées des acteurs privés, y compris les plateformes numériques, car ils ont la responsabilité de créer un environnement réglementaire qui facilite le respect des droits humains par les plateformes numériques et de donner des orientations aux plateformes numériques sur leurs responsabilités.
Les Etats sont tenus d’être pleinement transparents et responsables quant aux exigences qu’ils imposent aux plateformes numériques pour assurer la sécurité et la prévisibilité juridiques, qui sont des conditions préalables essentielles à l’Etat de droit. Plus précisément, les Etats doivent notamment : garantir les droits des utilisateurs des plateformes numériques à la liberté d’expression, à l’accès à l’information, à l’égalité et à la non-discrimination, et protéger les droits à la vie privée, à la protection des données, d’association et de participation publique des utilisateurs ; veiller à ce que toute restriction imposée aux plateformes respecte systématiquement le seuil élevé fixé pour les restrictions à la liberté d’expression, sur la base de l’application des Articles 19 et 20 du PIDCP.

…ni couper le réseau Internet
Les Etats doivent s’abstenir, notamment
: d’imposer des mesures qui empêchent ou perturbent l’accès général à la diffusion de l’information, en ligne et hors ligne, y compris les coupures d’Internet ; d’imposer une obligation générale de surveillance ou, pour les plateformes numériques, l’obligation générale de prendre des mesures proactives en relation avec les contenus considérés comme illégaux dans une juridiction spécifique ou avec les contenus qui peuvent être restreints de manière admissible en vertu des normes et de la législation internationales en matière de droits humains.
L’année 2024, au cours de laquelle se tiendra la première Conférence mondiale des régulateurs organisée par l’Unesco, sera d’autant plus décisive pour la régulation des plateformes numérique que 2 milliards de personnes sur la planète seront appelées à voter lors d’une cinquantaine d’élections dans plusieurs pays. Or, selon une étude réalisée l’été dernier par l’institut Ipsos pour l’agence « éducation, science et culture » de l’ONU, 87 % des personnes interrogées (sur un total de 8.000 dans 16 pays où se dérouleront une élection en 2024) craignent que la propagation de fausses informations en ligne ait un impact majeur sur les élections dans leur pays, et autant (87 % également) en appelle à une meilleure régulation des médias sociaux.
Les Facebook, YouTube, TikTok et autres Snapchat sont devenus dans de nombreux pays « la première source d’information des citoyens, en même temps que le principal vecteur de désinformation et de manipulation », relève la directrice générale de l’Unesco. La prochaine année électorale débutera avec les élections parlementaires au Bengladesh en janvier 2024, suivies par l’élection présidentielle au Sénégal en février 2024 et bien d’autres rendez-vous électoraux dans d’autres pays (El Salvador, Indonésie, Inde, Afrique du Sud, République dominicaine, Belgique, Mexique, Croatie, Autriche, Roumanie, Ghana), et se terminera avec l’élection présidentielle en Algérie en décembre 2024, précédée de l’élection présidentielle aux Etats-Unis en novembre 2024. « La régulation des réseaux sociaux constitue d’abord un enjeu démocratique. Bien sûr, la libération de la parole et de la participation démocratique par le numérique a représenté d’immenses progrès à certains égards, a expliqué Audrey Azoulay. Mais ces réseaux sociaux ont aussi accéléré et amplifié, parfois délibérément et à une échelle quasi-industrielle, la diffusion de fausses informations, voire de discours de haine et de théories complotistes – et ceux-ci tendent à se renforcer mutuellement ». Tout en appelant à la « modération » des contenus illicites sur Internet, elle appelle aussi à la « modération » de la régulation pour préserver la liberté d’expression. « Je voudrais souligner une exigence essentielle, qui a servi de boussole pour nous : la préservation de la liberté d’expression et de tous les autres droits de l’homme. Limiter ou restreindre la parole serait une fausse solution – une solution terrible, en fait – pour un problème très réel », a prévenu la directrice générale de l’Unesco, dont le second mandat s’achèvera en novembre 2025.
Les gouvernements et les autorités de régulation auront-ils la main lourde dans la chasse aux fake news ? C’est à craindre, alors que les pouvoirs publics (gouvernements et régulateurs justement) sont considérés – par le plus grand nombre de personnes interrogées dans le monde par Ipsos pour l’Unesco (29 %) – « comme les principaux responsables de l’identification et de la lutte contre la désinformation en ligne ». Et ce, devant les internautes eux-mêmes (23 %), les nouveaux médias (20 %), les médias sociaux (19 %), les organisations internationales (5 %) et les politiciens (4 %). En outre, à l’affirmation selon laquelle « les organisations internationales comme les Nations unies ou l’Unesco ont un rôle majeur à jouer dans la lutte contre la désinformation et les “fake news” », 75 % des sondés disent « Oui » (7).

La recommandation sur l’IA a deux ans
L’Unesco, dont le mandat confié par l’ONU est aussi de défendre et de promouvoir la liberté d’expression, l’indépendance et le pluralisme des médias (régulation globale des médias comme la radio ou la télévision), s’affirme de plus en plus dans la régulation d’Internet et l’éthique des nouvelles technologies. Elle a ainsi émis une recommandation sur l’éthique de l’intelligence artificielle, adoptée en novembre 2021 par les 193 Etats membres, pour fixer un cadre humaniste aux développements de cette innovation qui a depuis explosée avec les IA génératives (8). Tandis que la Convention de l’Unesco de 2005 sur la protection et la promotion de la diversité des expressions culturelles (9) intègre de plus en plus de directives opérationnelles élargies au numérique. @

Charles de Laubier

Tuned Global tire les ficelles du streaming musical

En fait. Le 11 novembre, Virginie Chelles, vice-présidente et directrice marketing communication de Tuned Global, a confirmé à Edition Multimédi@ que le spécialiste australien des applications de streaming musical en marque blanche, ou via API, poursuit son déploiement en Europe, y compris en France.

En clair. Ils ont leur propre application de streaming : Coca Cola, Delta Airlines, Pizza Hut, Lululemon, Samsung et même Universal Music, Warner Music et Sony Music. Sans avoir les inconvénients et les coûts des Spotify, Deezer et autres Apple Music, lesquels doivent négocier directement auprès des multiples producteurs de musique et labels. Se sont aussi lancées facilement les « applis » de streaming musical Tieme Music et Waw Musik, conçues en France pour l’Afrique, respectivement au Ghana et en Côte d’Ivoire.
En Allemagne, Sony Music propose son appli audio Hörspiel Player pour raconter des histoires. Au Royaume-Uni, trois services de musique en ligne ont vu le jour sans difficultés : Reactional Music pour développeurs de jeux vidéo, MediMusic pour soigner avec de la musique, et Pure Energy pour faire des exercices sportifs en musique. Autre exemple : au Danemark, l’opérateur télécoms Tusass (1) va à son tour lancer son propre service de musique en streaming. Quel est le point commun entre ces différents services ? Tous sont clients de Tuned Global, fournisseur australien de solutions clé-en-main, pour entreprises et organisations, de streaming de musique, d’audio voire de vidéo. Pour lancer son propre « Spotify », une société peut ainsi se procurer auprès de Tuned Global un service de streaming en marque blanche, ou les API (2) et les flux de métadonnées (3)) nécessaires à son développement.
Bien que le nouveau service à la demande n’aura pas l’autorisation des maisons de disques pour être disponible dans le monde entier, il pourra néanmoins accéder à un catalogue de plus de 100 millions de titres (4). « Nos clients accèdent à ces catalogues à condition d’avoir signé des accords de licences avec ces labels, et nous pouvons les aider dans cette démarche », nous précise Virginie Chelles. Le fournisseur australien, basé à Melbourne et cofondé en 2010 par son actuel directeur général Con Raso, s’est déployé à San Francisco, Londres et maintenant à Paris. « Nous sommes présents en France depuis janvier 2023, à la suite de ma relocalisation et après avoir travaillé en Australie pour Tuned Global depuis 2014 », indique Virginie Chelles. Par ailleurs, en mars dernier, l’australien a racheté la société suédoise Pacemaker, un de ses clients ayant développé pour DJ une appli de mixage fonctionnant à l’IA. Tuned Global investit aussi le Web3 : NFT et métavers. @

Un an après avoir lancé ChatGPT, aux airs de « Google-killer », OpenAI prépare un « smartphone-killer »

La start-up californienne OpenAI, cofondée par son actuel DG Sam Altman et devenue licorne valorisée presque 100 milliards de dollars, défraie la chronique depuis le lancement de ChatGPT il y a un an. Après avoir déstabilisé Google, elle veut lancer un petit terminal « smartphone-killer » boosté à l’IA.

(Vendredi 17 novembre 2023 au soir, heure de Paris, soit peu après le bouclage du n°310 de Edition Multimédi@ faisant sa Une sur OpenAI et Sam Altman, nous apprenions le limogeage surprise de ce dernier par son conseil d’administration. Vingt-quatre heure après, OpenAI revenait sur sa décision… Après avoir hésité à rejoindre Microsoft prêt à l’embaucher, Sam Altman a finalement trouvé le 22 novembre un accord avec OpenAI – avec le soutien du bailleur de fonds Microsoft – pour finalement y retourner !)

Google et Apple pourraient bien être les prochaines victimes collatérales d’OpenAI. Car la licorne à l’origine de l’IA générative ChatGPT, lancée il y a un an presque jour pour jour, accélère son offensive technologique. D’une part, elle a organisé le 6 novembre sa toute première conférence des développeurs, OpenAI DevDay, où ont notamment été lancés un « GPT-4 Turbo » et des interfaces de programmation (API) pour créer des agents conversationnels personnalisés intégrables dans des applications ou pour développer son propre « ChatGPT » autonome sans codage (1).
En mettant le turbo, OpenAI veut faire une super-IA tout-en-un capable de générer par elle-même aussi bien du texte et des images, mais aussi de l’audio et de la vidéo. Le 9 novembre, un programme open source baptisé « OpenAI Data Partnerships » (2) a même été lancé pour exploiter tous azimuts des données publiques et privées afin de former encore plus largement les IA génératives. Ce qui positionne la future plateforme IA intégrée d’OpenAI comme un potentiel « Google-killer ». D’autre part, son PDG cofondateur Sam Altman (photo) avait confirmé dès fin septembre être en « discussions avancées » avec l’ancien designer de l’iPhone chez Apple, l’Américano-britannique Jony Ive, et le PDG fondateur du conglomérat Softbank, le Japonais Masayoshi Son, autour d’un projet de lancement d’un terminal à intelligence artificielle susceptible de remplacer à terme les smartphones (3).

Un trio de rêve : OpenAI-Softbank-LoveFrom
Parallèlement, mais sans lien a priori avec ce projet d’appareil, Sam Altman a dit le 13 novembre au Financial Time qu’il demandait à Microsoft des fonds supplémentaires, en plus des 10 milliards de dollars déjà accordés sur plusieurs années par ce dernier, afin de rendre l’IA encore plus intelligente – vers le futur ChatGPT-5 et au-delà (4). Il faudra en tout cas attendre de nombreux mois avant que ne voit le jour le terminal IA grand public rêvé par OpenAI, LoveFrom (société de design créée en 2019 par Jony Ive (5) qui a recruté d’anciens collègues d’Apple comme Marc Newson) et Softbank, dont la filiale britannique ARM pourrait produire les puces. Mais les trois entrepreneurs ont sûrement dû suspendre leur brainstorming, le temps de suivre le lancement d’un petit terminal boosté à l’IA conversationnelle et sans écran (à épingler ou à magnétiser sur un vêtement ou un sac), baptisé Ai Pin. Présenté le 9 novembre et en précommande depuis le 16 novembre aux Etats-Unis, sa disponibilité est prévue début 2024 – sans encore de date pour l’Europe.

Avec son « Ai Pin », Humane montre la voie
Son concepteur : la start-up californienne Humane, cofondée en 2017 par deux anciens dirigeants d’Apple (l’exdirecteur design Imran Chaudhri et l’ex-directrice logiciel Bethany Bongiorno), mari et femme dans la vie. Respectivement président et directrice générale, ils se sont entourés de dizaines d’anciens employés de la marque à la pomme spécialistes de design, d’écran ou encore de cloud – tous placés sous la houlette de Patrick Gates ancien directeur ingénierie d’Apple et actuel Chief Technology Officer (CTO) de Huname. Et parmi sa dizaine d’investisseurs, auprès desquels Humane a levé à ce jour 230 millions de dollars, il y a… Sam Altman, sans que l’on sache combien le patron d’OpenAI a mis de sa poche aux côtés de Kindred Ventures, SK Networks, LG Technology Ventures, Microsoft, Volvo Cars Tech Fund, Tiger Global ou encore Qualcomm Ventures. Et comme le monde est décidément petit : la licorne OpenAI et les start-up LoveFrom et Humane, avec lesquelles elle croit en une sorte de « smartphone-killer », sont toutes les trois basées à San Francisco, en Californie.
De la taille d’une petite boîte d’allumettes, Ai Pin de Humane répond au doigt et à la voix grâce à respectivement son micro et son pavé tactile intuitif. En faisant des gestes ou en interagissant via l’écran à encre laser projeté sur sa paume, l’épingle IA peut être utilisée aisément au quotidien et lors des déplacements. Son prix – moitié moins élevé qu’un iPhone – est de 699 dollars (6) auquel s’ajoute un abonnement de 24 dollars par mois comprenant : un numéro de téléphone portable dédié au Ai Pin – grâce à une carte eSIM intégrée – et un nombre illimité de conversations, de SMS et de data, avec un stockage dans le cloud.
Le 9 novembre, Humane a annoncé aussi être un opérateur mobile virtuel (MVNO) aux Etats-Unis et en partenariat exclusif avec T-Mobile US – le troisième plus grand opérateur télécoms américain, derrière AT&T et Verizon. D’après ses spécifications (7), le petit bijou de technologie de Humane prend des photos à 13 mégapixels (4.208 x 3.120 px) et des vidéos (dont la résolution n’est en revanche pas encore indiquée). Mais comment sans écran savoir si le sujet est bien cadré ? L’IA (AI-Powered Photographer) et la projection laser sur la main du photographe pourraient faire l’affaire. Côté musique, la plateforme de streaming Tidal (d’origine norvégienne et ex-plateforme musicale du rappeur Jay-Z) est accessible et optimisée à l’IA. Sam Altman ne manquera sûrement pas de s’inspirer de l’Ai Pin pour son futur « OpenAI device », qui a l’ambition d’être à l’IA ce que l’iPhone fut à l’écran tactile – ce qui pourrait être… une vraie épine dans le pied d’Apple. Le multimilliardaire Masayoshi Son, 69e fortune mondiale (8), serait prêt à investir 1 milliard de dollars – sans doute via l’un de ses deux Vision Funds (9) – dans une joint-venture avec le patron de ChatGPT (OpenAI) et le designer Jony Ive (LoveFrom), d’après le Financial Times (10).
A l’instar de Humane qui a pris de l’avance avec son Ai Pin, le trio Altman-Son-Ive vise aussi à ne plus être dépendant des écrans et à accroître l’interaction entre l’homme et l’IA. Une fois l’appareil IA conçu, la licence OpenAI deviendrat-elle aussi un MVNO ? Pour peu que le « device » d’OpenAI ait lui aussi son eSIM intégrée. Il se trouve que le géant japonais Softbank de Masayoshi Son est aussi actionnaire minoritaire de T-Mobile US (3,3 % du capital après avoir fusionné Sprint avec T-Mobile US) et, en Europe, de Deutsche Telekom (4,5 %) : cela pourrait aider par la suite… « Google-killer », « Apple-killer », « smartphone-killer », … Cette nouvelle génération d’AI wearables (dispositifs portables basés sur l’intelligence artificielle) pourrait faire des ravages si le grand public décidait de se les approprier. Le moteur de recherche classique de Google, dont la toute première mise en ligne de la version bêta date d’il y a un quart de siècle, a déjà été court-circuité par les Assistant (Google), Alexa (Amazon) et autres Siri (Apple). Avec les IA génératives et la commande vocale assistée par l’IA, sa position dominante va être sérieusement contestée. Pour tenter d’assurer ses arrières la filiale d’Alphabet est prise d’agitations : non seulement Google pousse son IA générative Bard, mais a aussi investi 300 millions de dollars pour prendre 10 % du capital d’Anthropic (11), un rival d’OpenAI.

Sam Altman, le futur « Steve Jobs » ?
Depuis le succès planétaire de son iPhone et de son système d’exploitation iOS, lancés il y a plus de quinze ans par Steve Jobs, Apple n’a pas vraiment innové depuis avec un nouvel appareil disruptif. Comme si le PDG de la firme de Cupertino depuis fin août 2011, Tim Cook, s’était endormi sur les lauriers de Steve Jobs décédé début octobre de la même année. Les nombreux transfuges d’Apple partis chez Humane ou chez LoveFrom en disent long : la marque à la pomme ne fait plus rêver. Avec son épingle Ai Pin et son système d’exploitation Cosmos (« AIby-design »), Humane prend des airs d’« Apple-killer » voire d’« iOS-killer ». A moins que le trio Altman-Son-Ive ne donne le coup de grâce au « capitaine » Cook. @

Charles de Laubier