Tariq Krim dénonce le « suprémacisme numérique »

En fait. Le 9 juillet, se sont tenues les 13e Assises du Très haut débit, organisées
à Paris par l’agence Aromates. Parmi les intervenants, l’entrepreneur Tariq Krim (Netvibes, Jolicloud, …) a expliqué la philosophie de son projet de « slow web » engagé il a plus d’un an maintenant et concrétisé par Dissident.ai.

La question n’est plus de savoir si la Commission européenne va enquêter sur Apple, mais quand

L’actuelle Commission européenne, dont le mandat va s’achever fin octobre, pourrait lancer une enquête antitrust dès cet été à l’encontre d’Apple. Si la plainte déposée par Spotify mi-mars en est à l’origine, c’est tout l’écosystème de la marque à la pomme qui se retrouverait dans le collimateur.

La commissaire européenne à la concurrence, la Danoise Margrethe Vestager (photo de gauche), n’a pas dit son dernier mot avant la fin de la mandature de la Commission « Juncker » (1). Son dernier fait d’armes pourrait être le lancement d’une enquête sans précédent sur l’écosystème d’Apple de plus en plus contesté. Au-delà de la plainte de Spotify, c’est l’ensemble de la position dominante de la marque à la pomme qui pourrait se retrouver sur le banc des accusés.

Risques d’abus et de conflits d’intérêts
Car il n’y a pas que la plateforme musicale suédoise qui a maille à partir avec l’environnement fermé et verrouillé de la firme du Cupertino. D’autres acteurs économiques formulent eux aussi des griefs envers la chasse gardée du fabricant d’iPhone, d’iPad et de Mac, qui, d’après son PDG Tim Cook (photo de droite), aurait franchi pour la première fois
la barre des 2 milliards d’appareils sous iOS vendus. C’est par exemple le cas de la presse, qui se plaint des royalties que s’arroge Apple News+. Ce kiosque numérique a été lancé au printemps dernier aux Etats-Unis et au Canada et arrive à l’automne en Grande-Bretagne et en Australie (sur iOS 13) – mais pas encore en France – comme cela a été annoncé début 3 juin lors de la fameuse WWDC (2).
Au lieu d’appliquer à la presse sa sacro-sainte répartition de valeur à 70/30, laquelle est déjà perçue comme trop élevée aux yeux de beaucoup d’éditeurs d’applications (3), Apple News+ impose la règle du 50/50 en se gratifiant de la moitié. Certains journaux américains comme le New York Times ou le Washington Post ont refusé d’y être référencés, tandis que ceux qui ont pris le risque d’y aller se plaignent de la rétention des données – la data, le nerf de la guerre – pratiquée par la marque à la pomme qui semble prendre les éditeurs pour des poires… Cette perte de contrôle des abonnés n’est pas du goût de ces derniers (4). A part au Royaume-Unis, Apple News+ n’est pas encore lancé en Europe. En revanche, les négociations auraient commencé dans certains pays européens, dont la France, mais elles achopperaient sur la rémunération ainsi que sur le partage de la valeur et des données. Quelle qu’en soit l’issue, gageons que les éditeurs européens se laisseront moins faire que leurs homologues américains – quitte à agiter le spectre de la plainte devant la Commission européenne… Un autre GAFA, Google en l’occurrence, est bien placé sur le Vieux Continent pour le savoir, après avoir écopé – de la part de très déterminée Margrethe Vestager – de trois sanctions pécuniaires pour abus de position dominante de Google (5) – soit un total de 8,25 milliards d’euros pour pratiques concurrentielles illégales ! Concernant le différend entre Spotify et Apple, porté devant la Commission européenne, le Financial Times croit savoir depuis le 7 mai dernier qu’une enquête pour abus de position dominante va être lancée prochainement par Margrethe Vestager. A moins que cela ne soit la prochaine présidente de la Commission européenne, l’Allemande Ursula von der Leyen,
qui s’en chargera à l’automne. Quoi qu’il en soit, la Danoise prend très au sérieux les griefs formulés par Spotify. Le numéro un mondial des plateformes de streaming musical reproche à la firme de Cupertino de prélever de façon injustifiée 30% sur la vente de ses abonnements. Spotify explique que ce surcoût – « cette taxe » – le contraint à relever son prix pour l’amortir. Ce qui met son abonnement premium au-dessus de celui d’Apple Music. D’où l’accusation de conflit d’intérêt portée à l’encontre du géant californien, lequel s’est inscrit en faux dans son courrier envoyé mi-juin à la Commission européenne et révélé le
24 juin par Music Business Worldwide.
Selon Apple, l’« app tax » de 30 % ne s’applique que sur la première année sur l’App Store pour être ramenée 15 % ensuite, et elle ne porte que sur seulement 0,5 % environ du parc total d’abonnés payants de Spotify (soit sur seulement 680.000 abonnés sur le total des 100 millions au niveau mondial). Si la firme de Cupertino devait être condamnée par la Commission européenne pour abus de position dominante, elle pourrait écoper d’une amende pouvant aller jusqu’à 10 % de son chiffre d’affaires global.

Le monopole d’App Store aussi contesté
Aux Etats-Unis, le 4 juin dernier, des développeurs d’applications mobile ont déposé plainte contre la marque à la pomme (6) pour pratique anticoncurrentielles sur sa boutique App Store. En cause : toujours ces 30 % d’« app tax » mais aussi les 99 dollars exigés par Apple aux développeurs pour être distribué. Par ailleurs, des utilisateurs d’iPhone ont obtenu l’aval de la Cour suprême américaine pour attaquer le fabricant sur la gestion monopolistique de l’App Store. @

Charles de Laubier

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.

Après Netflix, Disney est désigné comme le nouvel épouvantail du cinéma et de l’audiovisuel français

La veille de l’ouverture du 72e Festival de Cannes, le président de la République
a reçu à l’Elysée les industries culturelles pour lesquelles est créé un fonds
« Bpifrance » de 225 millions d’euros. Emmanuel Macron les a surtout exhortés
à « s’organiser collectivement » face à Netflix mais aussi Disney.

Il n’y a pas que Netflix qui fait trembler « l’exception culturelle » chère au cinéma et à l’audiovisuel français, lesquels ne s’estiment plus protégés par la ligne Maginot réglementaire nationale devenue obsolète face ces acteurs globaux. The Walt Disney Compagny est aussi perçue comme une menace pour le 7e Art et le PAF (1) de l’Hexagone. Netflix et Disney ont été les deux épouvantails américains les plus évoqués lors du déjeuner culturel de l’Elysée le 13 mai dernier.

« Face aux grands champions américains » (Macron)
La presque centenaire major d’Hollywood, dirigée avec succès par Robert Iger (photo), « Bob » pour les intimes, inquiète de plus en plus en France le cinéma et la télévision, jusqu’au plus haut sommet de l’Etat. « Si nous n’arrivons pas à nous organiser, nous Français, la bataille est perdue. Face aux défis du numérique, c’est un engagement collectif dont nous avons besoin. Je suis convaincu que si nous restons divisés, nous ferions une erreur face aux grands champions américains », a lancé Emmanuel Macron à plus d’une centaine de convives venus de toutes les industries culturelles (y compris musique, jeu vidéo, médias, livre, etc.). A la veille de l’ouverture du 72e Festival de Cannes et de son 60e Marché du Film (2), le propos présidentiel visait plus particulière Netflix mais aussi Disney (3).
Le géant hollywoodien du divertissement et des médias est lui aussi montré du doigt, tant il a repris du poil de la bête depuis quinze ans que Bob Iger en a les rênes (4). Aujourd’hui, ne faudrait-il pas accoler le « D » de Disney pour parler désormais de GAFAD comme on le fait avec le «N» de Netflix pour faire GAFAN (ou avec le « M » de Microsoft pour GAFAM) ? Une chose est sûre : la Walt Disney Company se positionne plus que jamais comme le principal rival de Netflix, dont il veut damer le pion avec Disney+, sa plateforme de vidéo à la demande par abonnement (SVOD). Elle est annoncée pour novembre 2019 et sera « moins cher que Netflix », à 6,99 dollars par mois, avec des contenus pour toute la famille. Disney+ sera d’abord disponible à la fin de l’année aux Etats-Unis, avant son lancement en Europe prévu pour 2020. C’est que les dommages collatéraux pourraient toucher en France l’écosystème du cinéma et
de la télévision, déjà impacté par l’arrivée de Netflix en septembre 2014. Pour des programmes plus adultes, Disney vient de prendre le contrôle opérationnel de Hulu – autre plateforme de streaming vidéo – après avoir racheté le 20 mars dernier la participation de Fox – la 21st Century Fox (de Rupert Murdoch), dont la plupart des actifs ont été dans le même temps acquis par Disney pour plus de 71 milliards de dollars. Disney est maintenant l’actionnaire majoritaire de Hulu avec 60 % des actions (contre 30 % auparavant), avec la possibilité de monter à 100 % à partir de 2024. L’opérateur télécoms AT&T avait cédé en avril aux deux actionnaires restants de Hulu (Disney et Comcast) les 9,5 % qu’il détenait dans le capital de cette plateforme de SVOD (5) valorisée 27,5 milliards de dollars. Aux Etats-Unis, Disney a en outre lancé
il y a un an sa plateforme de streaming de programmes sportifs ESPN+.
Intégrant les actifs issus de Fox, la Walt Disney Company est tout de même devenue
le plus grand groupe de médias et de divertissement au monde ! Il faut dire qu’en cinq ans, le groupe dirigé par Bob Iger s’était emparé de studios de cinéma et d’animation indépendants, et non des moindres : Pixar en 2006 (dont « Toy Story»), Marvel en 2009 (dont « Spider-Man »), et Lucasfilm en 2011 (dont « Star Wars »). En rachetant les studios Marvel il y a dix ans, Disney profite de leurs blockbusters. Le dernier-né des films aux superhéros sorti cette année, « Avengers: Endgame » (22e et dernier film de la saga des Avengers), pourrait dépasser le record des recettes mondiales en salles de cinéma détenu par « Avatar » coproduit par Lightstorm Entertainment (2,79 milliards de dollars) – après avoir coiffé au poteau « Star Wars-Le réveil de la fore » de Disney (2,07 milliards) et « Titanic » coproduit lui aussi par Lightstorm Entertainment (2,18 milliards). Le catalogue de films et d’animations de Disney, aux budgets dépassant parfois chacun les 100 millions de dollars (350 millions de dollars pour le dernier « Avengers »), n’a rien à envier au catalogue de séries de Netflix.

Après DisneyLife en Europe, Disney+ et Hulu ?
L’exception culturelle à la française se retrouve ainsi prise en étau entre une presque centenaire du film (Disney, valorisé en Bourse 238,8 milliards de dollars au 24-05-19), multimilliardaire du box-office, et un jeune conquérant de la série d’une vingtaine d’année (Netflix, valorisé 153,9 milliards après avoir dépassé un temps Disney en 2018). En Europe, Disney a lancé en novembre 2015 au Royaume-Unis un service
« jeunesse » de SVOD baptisé DisneyLife (6), qui a vocation à s’étendre à toute l’Europe. @

Charles de Laubier

Le marché mondial du cloud est en plein boom, au risque d’échapper aux régulateurs nationaux

Les services de cloud dans le monde devraient franchir cette année la barre des 200 milliards de dollars. Les « as a service » (activité, infrastructure, application, logiciel, …) et les mégadonnées du Big Data font les affaires des prestataires du cloud computing, où les GAFAM s’en donnent à coeur joie.

« Les services en nuage bouleversent vraiment l’industrie.
Les prestataires bénéficient de plus en plus de stratégies cloud-first d’entreprises. Ce que nous voyons maintenant
n’est que le début. D’ici 2022, la croissance de l’industrie
des services infonuagiques sera près de trois fois celle de l’ensemble des services numériques », prévient Sid Nag (photo), vice-président analyste chez Gartner.

Stratégies de cloud-first, voire de cloud-only
Le marché mondial du cloud devrait encore progresser de 17,5 % durant cette année 2019 pour franchir la barre des 200 milliards de dollars, à 214,3 milliards précisément. C’est du moins ce que prévoit le cabinet d’études international Gartner, qui a fait part
de ses projections début avril. Cette croissance exponentielle à deux chiffres a de quoi faire pâlir d’autres secteurs numériques. A ce rythme, après les 200 milliards de dollars franchis cette année, la barre des 300 milliards sera allègrement dépassée en 2022.
Le segment le plus dynamique de ce marché en plein boom est celui du cloud des infrastructures systèmes, appelé IaaS (Infrastructure as a Service), suivi par le cloud des infrastructures d’applications, appelé PaaS (Platform as a Service). La troisième plus forte croissance est aussi celle du premier segment du marché des nuages numériques, à savoir le cloud des services logiciel, appelé SaaS (Software as a Service), qui pèse à lui seul 43,8 % du marché en 2018 et devrait même en représenter 44,6 % en 2022. « D’ici la fin de l’année, plus de 30 % des nouveaux investissements des fournisseurs de technologie dans les logiciels passeront du cloud-firstau cloud-only. Cela signifie que la consommation de logiciels sous licence continuera de chuter, tandis que les modèles de consommation en nuage par abonnement et le SaaS continueront de croître », prévoit Gartner. Les segments du cloud les plus techniques tels que les processus opérationnels, désignés par BPaaS (Business Process as a Service), et le management et la sécurité, désignés a fortiori par MSaaS (Management and Security as a service), continueront de progresser mais dans une moindre mesure par rapport aux autres segments. On retrouve ces tendances d’évolution du marché infonuagiques en France, qui devrait passer de 5,1 milliards de dollars/4,6 milliards d’euros en 2018
à 8,6 milliards de dollars/7,6 milliards d’euros en 2022 (voir tableau ci-dessous). Sur l’Hexagone comme ailleurs, SaaS est le plus gros segment, suivi du BPaaS, de l’IaaS, du PaaS, puis du MSaS.
Selon l’organisme de statistiques européen Eurostat, 26 % des entreprises de l’Union européenne (UE) – soit plus d’une sur quatre – ont acheté des services de cloud computing l’an dernier. La proportion est majoritaire chez les grandes entreprises
(56 %) et bien moindre chez les petites et moyennes entreprises (23 %). La première utilisation qui est faite de ces prestations à distance dans le « nuage informatique » concerne la messagerie électronique (69 %), suivie de près par le stockage des fichiers sous forme dématérialisée (68 %). Viennent ensuite la puissance de calcul achetée pour faire fonctionner leurs propres logiciels (23 %) et l’utilisation de logiciels dans le cloud pour gérer les informations sur la clientèle (29 %).
Pour les entreprises en Europe qui exploitent le Big Data, soit 12 % d’entre elles, les mégadonnées proviennent de sources de données variées : près de la moitié ont d’abord analysé les données de géolocalisation des appareils portables, tels que les smartphones, des connexions sans fil comme le Wifi ou le GPS (49 %). Ensuite, les mégadonnées sont issues des données générées par les médias sociaux et réseaux sociaux (45 %), de dispositifs ou de capteurs intelligents (29 %) ou encore de données provenant d’autres sources (26 %). Si aujourd’hui le Big Data est une expression dépassée par l’IA (l’intelligence artificielle), l’IoT (l’Internet des objets) ou encore la Blockchain, le cloud, lui, prospère tant que les données s’affirment de plus en plus comme le pétrole du XXIe siècle – comme l’a encore montré la 8e édition du Big Data Paris en mars dernier (1).

Amazon et Microsoft en tête, suivis de Google
Le nuage informatique permet aux entreprises de créer un « lac de données », ou Data Lake (stockage des données dans leurs formats originaux ou peu modifiés), à partir duquel l’analyse des données et de leur valorisation peut s’opérer (data mining, marchine learning, business intelligence, cognitive search, master data management, …). Plus de dix ans après que l’expression « Big Data » ait été prononcée – le 22 décembre 2008 dans leur livre blanc (2) par trois chercheurs universitaires de la Computing Research Association américaine –, le cloud est un marché multimilliardaire à la croissance insolente. On estime que le tournant du cloud-first a été pris au cours des années 2013-2016, avec les GAFAM qui se sont engouffrés sur ce marché porteur pour leur plus grand profit. Amazon vient de doubler ses bénéfice grâce au cloud sur le premier trimestre 2019. Sa filiale AWS (Amazon Web Services), qui compte parmi ses clients Apple, Netflix ou encore Pinterest, est le numéro un mondial du secteur. Microsoft arrive en deuxième position grâce à Azure. Google Cloud est aussi à l’offensive avec le Français Sébastien Marotte, son vice-président pour la région EMEA. Le géant du Net compte parmi ses clients européens Airbus, Alstom, Sky, BNP Paribas, Drouot Digital, GRDF, Philips ou encore Veolia (3). L’entrée en vigueur il y a près d’un an en Europe – le 25 mai 2018 – du règlement général sur la protection des données (RGPD) ne semble pas freiner les ardeurs des GAFAM qui ont plus que jamais la tête dans les nuages. « Le “Cloud Act” américain est-il une menace pour les libertés des citoyens européens ? », s’était interrogé l’avocat franco-américain Winston Maxwell dans Edition Multimédi@ après l’affaire controversée « Microsoft » (4). Le Cloud Act fut adopté aux Etats-Unis il y a plus d’un an maintenant (5) – promulgué le 23 mars 2018. Ce texte de loi fédéral et sécuritaire américain prévoit une base juridique permettant
au gouvernement des Etats-Unis de conclure des accords avec des gouvernements étrangers concernant l’accès aux données détenues par les prestataires de services américains, et vice versa. En clair : les autorités publiques et les agences de renseignement américaines sont en droit d’obtenir – des opérateurs télécoms, des fournisseurs d’accès à Internet (FAI) et des fournisseurs de services de cloud – des informations et/ou enregistrements stockés sur leurs serveurs, que ces données et contenus « soient localisés à l’intérieur ou à l’extérieur des Etats-Unis ».

Cloud Act américain et RGPD européen
En outre, ce Cloud Act permet aux Etats-Unis de passer des accords bilatéraux avec d’autres pays, lesquels pourront à leur tour obtenir des informations de la part des fournisseurs de services américains. Or l’article 48 du RGDP dispose que « toute décision d’une juridiction ou d’une autorité administrative d’un pays tiers exigeant d’un responsable du traitement ou d’un sous-traitant qu’il transfère ou divulgue des données à caractère personnel ne peut être reconnue ou rendue exécutoire de quelque manière que ce soit qu’à la condition qu’elle soit fondée sur un accord international ». Mais dans son amicus brief de 2017 dans l’affaire « Microsoft » (6), la Commission européenne estime que le RGPD tolérait – malgré son article 48 – des transmissions de données notamment sur le fondement de l’intérêt légitime ou de l’intérêt public. @

Charles de Laubier