« Trois tendances structurantes appellent potentiellement à des actions de régulation », prévient la première note de synthèse « Réseaux du futur » de l’Arcep, en faisant référence à l’informatisation des réseaux, à l’ouverture des API du réseau, et à la cloudification/virtualisation des entreprises.
L’Autorité de régulation des communications électroniques et des postes (Arcep) va-t-elle en plus devenir le régulateur de la connectivité Internet ? La question posée par Edition Multimédi@ peut surprendre, mais cette perspective pourrait devenir réalité avec l’informatisation des réseaux, l’ouverture des interfaces de programmation applicative des réseaux, et la cloudification/virtualisation des entreprises. Une nouvelle ère se dessine pour la régulation des télécoms, lesquelles voient l’informatique s’immiscer partout et jusqu’à leurs extrémités.
« Trois tendances structurantes »
L’Arcep, actuellement présidée par Laure de La Raudière (photo), mène depuis 2018 des réflexions sur ce qu’elle appelle « les réseaux du futur ». Objectif : se préparer aux « futurs défis de la régulation des réseaux » et orienter son action en conséquence. Un an après avoir relancé ses travaux menés avec un nouveau « comité scientifique », composé aujourd’hui de onze personnalités qualifiées du monde académique, entrepreneurial et industriel, une première « note de synthèse » a été publiée le 4 octobre 2024 et intitulée « L’informatique au cœur des télécoms ». Dans sa conclusion, le document de travail d’une vingtaine de pages (1) fait état de « trois tendances structurantes qui appellent potentiellement à des actions de régulation ». Cette future régulation étendue aux « réseaux informatisés » porterait aussi bien sur le marché grand public que sur celui des entreprises. Le comité scientifique de l’Arcep décrit ces trois tendances de la façon suivante :
• L’informatisation des réseaux semble se réaliser par étape, avec déjà quelques enjeux majeurs liés à ces transformations, notamment en ce qui concerne l’utilisation de solutions de cloud public pour l’exploitation des réseaux et la fourniture de services de connectivité au grand public. Certains de ces enjeux pourraient soulever des questions de régulation, notamment le marché de l’intégration des fonctionnalités des réseaux.
• L’identification des services de demain pour le grand public reste incertaine : les cas d’usage ne semblent pas clairement se dessiner à ce stade. Néanmoins, l’ouverture des API (2) du réseau pourrait permettre l’éclosion de nouveaux usages et de nouveaux services. Une vigilance sur le fonctionnement des futurs marchés d’accès aux API pourrait alors s’avérer nécessaire.
• Les offres de solutions de connectivité à destination des entreprises pourraient en revanche bénéficier plus directement des retombées de l’informatisation des réseaux. Ce marché pourrait connaître des évolutions profondes. D’une part, certains services IT [comprenez Information Technology, pour informatique, ndlr] vont remplacer des services télécoms historiques, conduisant à une combinaison des offres de solutions logicielles et de connectivité (facilitée par le cloud et la virtualisation). D’autre part, des offres de solutions de connectivité sans fil « sur mesure » devraient émerger en réponse aux besoins des verticaux. L’informatisation des réseaux pourrait générer de l’innovation avec beaucoup d’acteurs, aux atouts divers, sans évidence à ce stade sur les structures de marché qui pourraient en résulter.
A ces « trois tendances structurantes » qui pourraient nécessiter de faire évoluer la régulation des communications électroniques au-delà du périmètre historique de l’Arcep, le comité scientifique ajoute « les innovations qui seront permises par l’IA et les synergies qui pourraient exister avec les réseaux du futur seraient donc de nature à bouleverser assez radicalement le secteur de la connectivité ».
L’intelligence artificielle va en effet non seulement permettre aux personnels des opérateurs télécoms d’intégrer plus efficacement les gains à attendre de l’informatisation de leur réseau, mais aussi d’améliorer le fonctionnement des réseaux et l’optimisation de leur architecture, ainsi que de permettre l’essor plus rapide de nouveaux services, tout « en sollicitant beaucoup plus la connectivité pour accéder à différents types d’IA positionnées plus ou moins profondément dans les réseaux ou au-delà ». Cela suggère que la régulation des télécoms pourrait avoir un droit de regard et de contrôle sur cette informatisation des réseaux et les IA génératives associées.
Cœur du réseau dans le nuage
Si la mise « en nuage » des réseaux des opérateurs télécoms est encore progressive, la « virtualisation » de plusieurs fonctions telles que celles touchant au « cœur du réseau » comme cela se fait dans le déploiement de la 5G dite standalone (ou 5G autonome) – à savoir des infrastructures mobiles conçues de bout-en-bout pour la 5G et ne s’appuyant pas sur des réseaux 4G préexistants (3). Dans ce cas, le cœur du réseau mobile étant largement virtualisé, la tendance est à la mise en nuage et cette solution est privilégiée par de nouveaux entrants. « Les fonctions du cœur de réseau, qui assurent la gestion des réseaux d’accès fixes et mobiles, sont de plus en plus virtualisées et cloudifiées par les différents opérateurs [télécoms], notamment pour permettre le déploiement de la 5G standalone. Toutefois, […] le cloud public n’est pas encore considéré comme une solution pour porter le cœur de réseau national », constate le comité scientifique, dont fait partie Yves Gassot (photo ci-dessous), consultant indépendant et ancien directeur général de l’Idate (4).
Le backbone n’est pas virtualisable
Autre partie du réseau sujette à la dématérialisation du réseau : les fonctions supports, considérées comme « plus proches de l’informatique » et « faciles à faire évoluer vers le cloud ». C’est ce que les opérateurs télécoms appellent les OSS et BSS (« Operation Support System » et « Business Support System »), qui permettent notamment la supervision du réseau, la gestion et la facturation des clients. « Les fonctions supports constituent les premières briques qui ont été portées sur le cloud, que ce soit du cloud public ou du cloud privé. Ces fonctions, moins critiques pour le fonctionnement des réseaux, sont plus faciles à faire évoluer vers du cloud », souligne la note de synthèse. En revanche, le réseau d’accès mobile – appelé aussi réseau d’accès radio ou RAN (5) – est pour l’instant peu virtualisé (bien que les déploiements commencent en Europe, notamment chez Deutsche Telekom en Allemagne, ou Vodafone et Orange en Roumanie), et encore moins cloudifié (car cela suppose d’importants investissements et de l’hébergement à proximité des antennes).
Quant à la fonction backbone, qui assure le transport des flux de données à travers l’infrastructure déployée dans le pays et qui se compose d’équipements physiques pour l’essentiel, elle est très peu virtualisable et cloudifiable. A ceci près que la fonction backbone peut être configurée à l’aide d’un Software Defined Networks (SDN) pour les différents niveaux de qualité de service comme la priorisation de flux et les différentes manières d’opérer le réseau. Cependant, relève la note de synthèse, « les évolutions liées au SDN ne sont pas nécessairement de l’ordre de la virtualisation ou cloudification des équipements, qui, pour des raisons de performance, restent des équipements dédiés ». Dernier segment du réseau à échapper à la dématérialisation : le réseau d’accès fixe et les réseaux internes des entreprises (parties wifi et filaire). Là encore, les équipements d’accès restent des équipements dédiés et physiques, même si l’on peut aussi opérer un réseau étendu à l’aide d’un SDN – appelé dans ce cas SD-WAN (6). Sans parler de la « box » des fournisseurs d’accès à Internet (FAI) qui, dans les foyers, commence à prendre elle aussi le chemin de la dématérialisation (7). Reste qu’à l’avenir, l’« intelligence » des réseaux va progressivement être délocalisée par les opérateurs télécoms vers des locaux physiques hébergeant des serveurs informatiques capables de gérer – au plus près de leurs abonnés – les services de connectivité et les performances du réseau. Cette perspective au edge computing n’est pas encore répandue, mais cela commence à être mis en place « dans un premier temps à une échelle seulement régionale pour évoluer par la suite vers une granularité plus capillaire ». La clé de cette décentralisation des réseaux s’appelle notamment MEC, pour Multi-Access Edge Computing, un standard ouvert défini par l’ETSI (8) pour « unir les mondes des télécommunications et du cloud informatique » – voire réconcilier les opérateurs et les GAFAM qui se regardent en chiens de faïence.
Mais, comme le relève le comité scientifique « Réseaux du futur » de l’Arcep, les « telcos » sont « prudents », même si de grands opérateurs télécoms font partie d’associations internationales destinées à accélérer l’informatisation des réseaux telles que O-Ran Alliance (fondée en 2018 par AT&T, China Mobile, Deutsche Telekom, NTT Docomo et Orange) et Sylva (un projet open source de la Linux Foundation Europe auquel participent Telecom Italia, Telefonica, Deutsche Telekom, Vodafone ou encore Orange). « Quelques grands opérateurs bien établis comme AT&T aux EtatsUnis, Telus au Canada ou encore NTT Docomo au Japon, déploient déjà des solutions virtualisées et mises en nuage à grande échelle dans leur réseau commercial. A l’inverse, certains opérateurs nouveaux entrants (« greenfields ») comme Dish aux Etats-Unis, 1&1 en Allemagne ou Rakuten au Japon ont fait le choix de déployer directement un réseau entièrement virtualisé », est-il indiqué dans la note synthèse.
La « prudence » reste de mise
La « prudence » de la plupart des opérateurs télécoms déjà en place envers l’informatisation de leurs réseaux réside dans le fait qu’ils disposent d’une infrastructure matérielle préexistant qui ne peut être virtualisée et qui n’est pas obsolète. Surtout que la partie de leur « patrimoine » qui pourrait être dématérialisée représente une faible part de leur vaste infrastructure.
De plus, relève l’Arcep, « le retour sur investissement est encore incertain face à des coûts d’intégration aujourd’hui assez élevés, notamment en comparaison de solutions déjà intégrées et disponibles ». Sans parler de la maturité et de l’efficacité de ces solutions qui soulèvent des interrogations de la part de certains opérateurs télécoms, lesquels ne maîtrisent pas tous les nouveaux concepts de virtualisation et de cloudification. @
Charles de Laubier