Nothing Special   »   [go: up one dir, main page]

Reseaux Du Futur IA Dans Les Reseaux Janv2020

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 12

RÉPUBLIQUE FRANÇAISE

Réseaux du futur
Note n° 6
L’intelligence Artificielle dans les réseaux de télécommunications
14 janvier 2020

En septembre 2018, l'Arcep a ouvert un nouveau cycle de réflexion pour anticiper l'évolution des
réseaux, avec un horizon de 5 à 10 ans.
Les notes produites s’inscrivent dans ce travail de prospective et ont été réalisées sur la base
d’échanges avec une diversité d’acteurs (opérateurs, équipementiers, fournisseurs de services,
acteurs d'internet, académiques, etc.), de travaux de recherche et de l’expertise du Comité
scientifique constitué à cet effet.
Ces documents constituent un état des réflexions à date. L'Arcep invite tous les acteurs qui le
souhaitent à y contribuer en faisant part de leurs commentaires pour enrichir ces analyses, à
l’adresse suivante : « reseaux-du-futur[a]arcep.fr ».

Les notes de prospective publiées :

1. « Virtualisation des réseaux – Architectures agiles »


2. « Les voitures connectées »
3. Enjeux de connectivité : l’exemple des territoires « intelligents »
4. La gestion dynamique du spectre
5. L'empreinte carbone du numérique
6. L’intelligence artificielle dans les réseaux de télécommunication
7. L’agriculture connectée

1 Introduction
Dans sa définition large, le domaine de « l’intelligence artificielle » (IA) peut être distingué en deux
grandes classes avec d’un côté l’IA symbolique et de l’autre l’IA connexionniste (machine learning,
deep learning). C’est à ce dernier domaine que se limite la présente note puisque ce sont les
techniques issues de ce champ de recherche qui semblent les plus à même de transformer les
réseaux de télécommunications dans les prochaines années.

1.1 Que peut apporter l’IA dans les réseaux de télécommunications ?

Les algorithmes d’apprentissage automatique, et en particulier les algorithmes d’apprentissage


profond (deep learning), sont d’une manière générale particulièrement efficaces pour représenter et
analyser des situations complexes lorsqu’une quantité d’informations importante est disponible.
Les réseaux de télécommunications sont des objets complexes comprenant de nombreux
composants avec de nombreux paramètres sur lesquels il est possible d’agir, ce qui rend leur

Arcep 1/12
modélisation en vue de leur optimisation complexe. Les réseaux de télécommunications génèrent
également une quantité très importante de données sur leur fonctionnement (notamment les
données télémétrie, indicateurs de qualité de service, taux de disponibilité…) permettant à leurs
exploitants d’avoir une image précise de leurs performances. Cette complexité et cette abondance
de données ont naturellement conduit les opérateurs et les équipementiers à s’intéresser aux
techniques d’apprentissage automatique pour optimiser le fonctionnement des réseaux.

1.2 Quelques éléments sur l’apprentissage

Les algorithmes d’apprentissage reposent sur des modèles qui peuvent être de nature différente.
Chaque algorithme d’apprentissage a ses propres spécificités et est plus ou moins efficace selon la
nature des tâches qu’il doit accomplir. Récemment, le deep learning, qui repose sur un modèle de
réseaux de neurones, a permis de nombreuses avancées dans le domaine de l’apprentissage
automatique. Cette évolution est une des causes principales des progrès attribués à l’IA ces dernières
années.
Au-delà des types de modèles utilisés, Il existe divers modes d’apprentissage en fonction des
données dont on dispose pour entrainer l’intelligence artificielle et de la réponse souhaitée ainsi que
des usages envisagés, notamment :
 l’apprentissage supervisé : ce type d’apprentissage construit un modèle à partir d’un jeu de
données que l’on a déjà qualifiées (ou labellisées). Par exemple, on va fournir en entrée une
base d’images de chiffres manuscrits en indiquant pour chacune d’elle à quel chiffre elle
correspond, et à partir de ce jeu de données l’algorithme va construire un modèle
permettant de labelliser n’importe quels nouveaux chiffres manuscrits.
 l’apprentissage non-supervisé : ce type d’apprentissage construit un modèle à partir d’un jeu
de données qui n’a pas été labélisé préalablement. Par exemple, à partir d’images de visages
de différentes personnes, l’algorithme construira un modèle permettant de classer les
visages dans différents groupes selon des critères qu’il aura lui-même établi.
 l’apprentissage par renforcement : ce type d’apprentissage permet au modèle d’apprendre
en réalisant des actions sur son environnement et en obtenant en retour une information sur
la conséquence de ces actions. En pratique, à chaque action effectuée est attribué un score
que le modèle cherche à maximiser. Par exemple, un algorithme pourra, en itérant de
nombreuses parties contre lui-même ou d’autres joueurs, affiner son niveau à chaque partie
d’un jeu (utilisé pour le jeu de go par exemple).

2 Place de l’IA dans les réseaux


Dans un contexte où les réseaux tendent à se complexifier (croissance du nombre de services, besoin
d’interopérabilité, développement de la virtualisation, etc.) les opérateurs s’interrogent sur un
éventuel recours à l’Intelligence Artificielle en support, voire le cas échéant en remplacement, des
opérateurs humains dans la gestion et l’optimisation des services. L’IA est aussi utilisée dans des cas
moins évidents de prime abord, par exemple dans le domaine de la planification radio où elle permet
de complémenter la théorie du signal pour améliorer les communications sans fils.
Il est à noter que les solutions IA restent très dépendantes des opérateurs humains : apprentissage
en continu, alimentation par des données fiables. Ainsi, si des opérateurs humains n’utilisent plus ou
n’alimentent plus une solution IA, cette dernière peut rapidement devenir obsolète.

Arcep 2/12
2.1 Optimisation des services

L’intelligence artificielle permet d’apprendre d’expériences passées qui ont été observées. Dans le
cas des réseaux, ces expériences passées peuvent concerner les pannes ou les dysfonctionnements
observés et les solutions employées pour les résoudre. La collecte d’information de télémétrie en
continue ainsi que la concentration de cette information requise pour le SDN1 permet à l’intelligence
artificielle d’apprendre à partir de large volumes de données. Au-delà de la volumétie de données, le
processus decisionnel au niveau du SDN pourrait gagner en efficacité grâce à la capacité de ces
réseaux virtualisés à gérer des données protéiformes et de diverses origines.

2.1.1 La maintenance prédictive

Certaines défaillances informatiques (par exemple dysfonctionnement de VPN, indisponibilité de


ressources, etc.) peuvent déjà être identifiées, voire anticipées, en utilisant des règles prédéfinies.
Mais plus ces règles sont nombreuses, plus leur mise à jour est complexe. Par ailleurs, il est
nécessaire de trouver un équilibre entre des règles trop strictes qui vont faire remonter un grand
nombre d’alertes (faux positifs) et des règles trop laxistes qui ne vont pas identifier des problèmes
pourtant critiques (faux négatifs).
Un équipementier indique ainsi utiliser l’IA pour améliorer significativement la maintenance
prédictive.
En effet, d’une part, en s’appuyant sur des jeux de données décrivant les dysfonctionnements
antérieurs et en connaissant l’expérience utilisateur, l’apprentissage supervisé peut identifier un état
de dysfonctionnement en prenant en considération l’ensemble des paramètres permettant de le
caractériser.
D’autre part, compte-tenu du volume et de la variété des données qui doivent être analysées,
l’apprentissage automatique peut apporter une aide à l’opérateur humain en identifiant les signaux
faibles préfigurant une panne. En entraînant un modèle de prédiction à partir des cas de pannes
précédentes, il sera a minima possible de reconnaitre les patterns correspondants aux premiers
symptômes d’un dysfonctionnement et ainsi de mieux les anticiper mais permettra également de
détecter de nouveaux types de dysfonctionnement.

2.1.2 La réponse aux incidents

Une fois un incident détecté ou anticipé, l’intelligence artificielle peut rapidement considérer
l’ensemble des solutions envisageables, simuler leur déploiement et en mesurer les potentiels effets
afin de les proposer à un opérateur humain qui pourra alors faire un choix parmi les solutions
proposées. Dans le cas de décisions qui ne sont pas critiques ou dont les effets sont limités,
l’intelligence artificielle pourrait potentiellement d’elle-même choisir la solution à adopter évitant
ainsi de solliciter un opérateur humain et, si le réseau est orchestré, procéder à son déploiement.
L’IA symbolique pourrait également intervenir ici mais ce sujet dépasse le champ de cette note.

1
Le « Software Defined Network » permet un pilotage centralisé des équipements, mais requiert pour cela une vue globale
du réseau. Voir la note « Virtualisation des réseaux » : https://www.arcep.fr/uploads/tx_gspublication/reseaux-du-futur-
virtualisation-des-reseaux-juillet2019.pdf

Arcep 3/12
2.1.3 L’optimisation des équipements et du réseau en temps réel

Comme lorsqu’elle cherche à répondre à des incidents, l’intelligence artificielle peut considérer
l’ensemble des modifications qu’elle peut apporter à la configuration du réseau et simuler le
déploiement de ces modifications afin d’en évaluer les effets. L’intelligence artificielle peut
notamment servir à optimiser la consommation énergétique des réseaux en mettant en veille les
équipements (antennes, serveurs, fibres…) ayant peu de chance d’être utilisés ou au contraire en
leur allouant dynamiquement plus de ressources2. L’apprentissage automatique peut aussi être
associé au Software Defined Network (SDN) afin de configurer le réseau de manière globale et
cohérente (placement des fonctions dans le réseau, estimation des ressources à allouer, etc.).

2.1.4 La classification du trafic

Les politiques de routage ou d’ingénierie de trafic reposant sur l’exploitation des caractéristiques du
trafic sont courantes. Cependant, les opérateurs ne pouvent s’appuyer sur les informations
contenues dans les paquets (qu’il s’agisse des numéros de port ou des informations encapsulées
comme les URL) pour identifier avec une granularité plus fine les différents types de flux. Certains
cherchent ainsi à recourir à l’apprentissage automatique pour classifier le trafic3. Néanmoins, si cette
classification servait à prioriser certains types de flux mais que l’IA était amenée à classifier mal
certains flux, ces erreurs pourraient avoir des effets en termes de neutralité du net puisque tous les
flux d’un même type ne seraient pas traités équitablement.

2.1.5 L’optimisation de la qualité de service

Certains services reposent sur de nombreux paramètres qui peuvent influer sur la qualité de
l’expérience utilisateur. Nombre de ces paramètres ne peuvent pas être pris isolément et il est
nécessaire de les considérer dans leur ensemble pour mesurer leurs effets. Faute de connaitre ces
dépendances entre paramètres, il peut être inatteignable pour un humain de considérer l’ensemble
des combinaisons possibles, mais ce type d’opération peut potentiellement être réalisé par une IA.
Un acteur auditionné a ainsi fait mention de deux services dont la qualité est affectée par de si
nombreux paramètres que l’IA apparait comme une solution adéquate pour en assurer une bonne
gestion : la voix sur LTE et le débit de téléchargement en bordure de réseau. La qualité de ces deux
services peut être affecté par environ 150 paramètres distincts et, par conséquent, modéliser
manuellement l’influence de ces paramètres sur la qualité de l’expérience utilisateur s’avère
complexe. Ainsi, peuvent être pris en compte les paramètres concernant l’environnement radio
(qualité du signal perçu, distance avec l’antenne, etc.), la qualité de la connexion (nombre de paquets
perdus, latence moyenne, etc ;) ainsi que des paramètres ayant trait à la couche applicative (comme
par exemple la distance entre l’antenne et le serveur de transcodage). Compte tenu de leur diversité
de nature, les paramètres qui peuvent influer sur la qualité de la voix sur LTE ainsi que sur le débit de
téléchargement peuvent difficilement être classés manuellement par ordre d’importance relative.
Pour pouvoir améliorer la qualité de ses services, l’acteur auditionné a eu recours à l’apprentissage
supervisé. Cette première étape a permis de filtrer les paramètres qui étaient les plus influents sur la

2
A l’inverse, l’entrainement des modèles d’IA peut être fortement consommateur en ressources en raison de la quantité de
données et de la puissance de calcul nécessaires.
3

https://www.researchgate.net/profile/Shervin_Shirmohammadi/publication/335362817_Machine_Learning_and_Deep_Le
arning_Based_Traffic_Classification_and_Prediction_in_Software_Defined_Networking/links/5d62cf7b92851c619d76e8f1/
Machine-Learning-and-Deep-Learning-Based-Traffic-Classification-and-Prediction-in-Software-Defined-Networking.pdf

Arcep 4/12
qualité de l’expérience utilisateur puis de jouer sur ces paramètres pour améliorer la qualité de
service. Le modèle a ensuite été adapté localement en ayant recours à de l’apprentissage par
renforcement en tenant compte des retours faits par les utilisateurs.

2.1.6 La sécurité

Les attaques sont devenues plus nombreuses et plus sophistiquées (elles ont d’ailleurs possiblement
recours à l’IA). Deux approches classiques de détection sont habituellement utilisées : la
reconnaissance des caractéristiques de l’attaque déjà connues (appelées signature de l’attaque) et la
détection d’une anomalie au niveau d’un comportement système ou réseau par rapport à des profils
d’usages normaux prédéfinis.
Cependant, la reconnaissance des signatures d’attaques ne permet pas de détecter de nouvelles
formes d’attaques non répertoriées et l’approche classique de la détection d’anomalies (notamment
à travers une analyse statistique) peut devenir très complexe vu le nombre de variables à prendre en
compte pour définir un « usage normal ». Dans ce contexte, faire appel à l’IA permet d’apprendre
automatiquement à reconnaitre un comportement anormal. Le défi ici est de faire en sorte que la
solution basée sur l’IA ignore les petites variations de comportements qui pourraient générer des
faux positifs tout en signalant bien les variations qui correspondent réellement à des attaques.
Par ailleurs, l’augmentation du nombre d’attaques entraîne une augmentation du nombre d’alertes à
analyser. L’IA permet ainsi d’aider à analyser le grand nombre d’alertes qui sont émises par les
solutions de sécurité (qui est quasi impossible à traiter manuellement) et de les corréler pour
détecter des incidents ou de les anticiper. Par la suite, l’IA peut considérer les solutions à mettre en
place pour répondre à ces incidents (cf. 2.1.2). Si l’utilisation de l’IA a longtemps été cantonnée à des
travaux de recherche, plusieurs entreprises, dont certaines françaises, semblent aujourd’hui
proposer sur le marché ce type de solutions notamment pour assurer la sécurité de réseaux
d’entreprises.
En plus de l’IA connexioniste, l’IA symbolique, avec des approches déductives basées sur la
connaissance des experts (système expert, graphes de connaissances), peut aider à améliorer la
sécurité. Certains travaux de recherche tentent de coupler l’usage des IA connexionniste et
symbolique dans le domaine de la sécurité. Outre les aspects liées aux attaques et à leur détection,
l’IA peut permettre de mieux détecter les fraudes dans les réseaux de télécommunication en
améliorant l’efficacité opérationnelle des analystes.
Si l’utilisation de l’IA n’est en tout état de cause, bien entendu, pas un gage de sécurité absolue, elle
pourra contribuer à l’amélioration de la sécurité sur les réseaux.

2.2 Planification radio

Pour pouvoir optimiser la transmission des signaux sans fils, il est nécessaire de planifier le
déploiement des différentes cellules et de paramétrer les antennes pour maximiser les zones
couvertes par les antennes tout en minimisant les interférences. La planification radio nécessite de
prendre en compte de nombreux paramètres indépendants, y compris des paramètres sur lesquels
l’opérateur n’a aucune influence (par exemple la météo), en particulier concernant les bandes de
fréquences les plus hautes car plus sujettes à ces variables exogènes. En pratique, recourir à des
modèles théoriques (ne faisant pas appel à l’IA) ne permet pas de résoudre les problèmes
d’optimisation dans un temps suffisamment court pour pouvoir reconfigurer les éléments
dynamiquement. En faisant quelques extrapolations, l’IA peut permettre de résoudre ces défis dans
un temps convenable.

Arcep 5/12
Dans cette partie, nous présentons des problèmes d’optimisation pour lesquels les équipementiers
font appel à l’apprentissage automatique. Cette partie n’est pas exhaustive, et l’IA peut notamment
être utilisée pour gérer l’accès au spectre (radio cognitive) ainsi que pour étendre les zones de
couvertures mobiles avec des panneaux intelligents.

2.2.1 Le beamforming

Le beamforming permet d’utiliser plusieurs antennes omnidirectionnelles afin de simuler le


fonctionnement d’une antenne unidirectionnelle. Pour cela, le beamforming consiste à créer des
interférences constructives et destructives entre les faisceaux d’onde radio des différentes antennes,
afin que le faisceau d’onde total soit concentré dans la direction souhaitée et minimisé ailleurs.
Grace à cette technologie, le signal émis par l’antenne est optimisé pour cibler l’utilisateur visé, ce
qui permet d’étendre la couverture radio et de limiter les risques d’interférence entre les signaux
destinés à différents utilisateurs.
Afin d’obtenir ce résultat, il faut jouer précisément sur les puissances et les phases des signaux émis
par les différentes antennes. Pour construire les interférences permettant que le signal soit transmis
dans la direction souhaitée, il est possible d’avoir recours à des modèles mathématiques en
s’appuyant sur la théorie du signal ou de faire des approximations en s’appuyant sur des expériences
passées. La première approche permet en théorie d’obtenir des résultats plus précis mais la
complexité des modèles mathématiques qui permettraient de résoudre ces problèmes oblige à faire
un compromis entre efficacité et précision, si bien qu’il n’est pas possible en pratique de modéliser
précisément les interférences causées par les différentes antennes dans des conditions réelles.
L’apprentissage automatique peut donc être utilisé en alternative ou en complément pour
paramétrer les signaux émis depuis les différentes antennes. Une fois la direction d’émission connue,
l’algorithme peut rapidement extrapoler à partir de configurations précédentes quelles sont celles
permettant d’émettre dans la direction souhaitée. L’apprentissage automatique permet aussi de
prendre en compte l’ensemble des paramètres (météo, environnement, nombre de terminaux…)
pouvant affecter la transmission du signal. Cette solution est actuellement en phase
d’expérimentation.

2.2.2 Le déploiement optimisé des cellules

L’apprentissage automatique peut également être mobilisé pour optimiser le déploiement des
cellules mobiles4. En effet, les smalls cells, en particulier, sont particulièrement sensibles à leur
localisation (notamment du fait de la hauteur des fréquences utilisées, ie, 26 GHz). Une mauvaise
localisation de ces smalls cells n’apporterait pas la qualité de service maximum ou nécessiterait un
sur-investissement pour atteindre une telle qualité de service.
Dans ce contexte, sur la base d’une cartographie précise de la qualité du réseau existant et des zones
soumises à des pics élevés de demande (pour par exemple, identifier des zones de forte demande
disposant d’une qualité de service faible), l’apprentissage automatique peut potentiellement
permettre de planifier précisement les endroits où ces small cells devraient être déployées en
priorité tout en minimisant les coûts de ces déploiements (par un nombre de déploiements réduits
par rapport à une planification manuelle).

4
Precision planning for 5G era networks with smallcells, 5G Americas & Small Cell Forum Whitepaper,
https://www.5gamericas.org/wp-content/uploads/2019/10/SCF-Precision-Planning-WP-FINAL-1.pdf

Arcep 6/12
2.2.3 La localisation des terminaux

La géolocalisation fait désormais partie des services de base auxquels les utilisateurs font
régulièrement appel. En plus de permettre le développement de nombreux services destinés aux
utilisateurs finaux, la localisation des utilisateurs peut permettre aux opérateurs de mieux gérer leurs
réseaux, par exemple pour la fourniture de service instantané (par exemple pour orienter le faisceau
créé par le beamforming) ou, à plus long terme, pour l’amélioration globale du service fourni (par
exemple en aidant au déploiement optimisé de nouvelles antennes).
Si les systèmes satellitaires permettent d’obtenir une géolocalisation en extérieur précise à quelques
mètres près (voire moins), leur précision diminue significativement à l’intérieur des bâtiments où les
signaux satellites sont souvent trop atténués pour permettre une géolocalisation fine des
utilisateurs. Une solution est alors d’utiliser des signaux mieux reçus à l’intérieur des bâtiments,
comme les signaux des réseaux WiFi et cellulaires, pour se localiser. En pratique, il n’est pas optimal
de faire appel à de la modélisation mathématique car la localisation de certains des équipements qui
émettent ces signaux n’est pas connue. A contrario, l’apprentissage supervisé ne nécessite pas de
connaitre la localisation des antennes et permet d’extrapoler la position d’un terminal, et ainsi peut
permettre de compléter efficacement, voire de remplacer, l’information des systèmes de
géolocalisation satellitaires. Pour pouvoir recourir à de l’apprentissage supervisé, il est dans un
premier temps nécessaire de disposer d’un jeu de données labélisées ; pour cela, des balises
mesurent les puissances de signaux à des endroits précis. Comme pour le beamforming,
l’apprentissage automatique permet alors, à partir des signaux reçus par un équipement,
d’extrapoler sa position à partir de signaux mesurés pour des localisations différentes connues.

2.2.4 L’inclinaison des antennes

L’angle d’inclinaison des antennes correspondant à une cellule, influe sur la zone géographique
couverte par cette cellule. Pour pouvoir calculer l’angle d’inclinaison optimale permettant de
maximiser la zone couverte ainsi que la puissance du signal reçu, il faut tenir compte de la topologie
de l’environnement ainsi que des signaux émis par les antennes adjacentes. Ce paramétrage des
antennes prend donc en compte de nombreux paramètres qui influent sur la propagation des
signaux et les interférences. De fait, comme pour le beamforming, s’appuyer sur des modélisations
définies « manuellement » par un opérateur pour la propagation des ondes ne semble pas optimal.
Le recours à l’apprentissage automatique évite de recourir à une représentation exacte de
l’environnement et donc de s’abstraire de l’ensemble des paramètres qui le caractérise en se
focalisant sur les paramètres qui, par le passé, semblent avoir le plus influé sur la qualité du signal.

3 Les enjeux liés à l’IA


L’intelligence artificielle est une technologie très prometteuse et qui pourrait faire évoluer de
nombreuses industries mais avant de la déployer dans des environnements critiques, notamment
pour la prise de décision, il est nécessaire d’avoir conscience de certains enjeux. Sans être spécifique
aux réseaux, cette section liste les défis liés à l’utilisation de l’IA sans mentionner ceux qui ont pu

Arcep 7/12
être abordés dans des notes précédentes comme les effets sur la structure d’emploi5 ou sur
l’environnement6.

3.1 Les enjeux liés aux données

3.1.1 Un fort besoin de standardisation

L’intelligence artificielle s’est développée ces dernières années grâce aux vastes volumes de données
disponibles et à la maturité des technologies sous-jacentes. Les réseaux et les équipements qui les
composent sont en eux-mêmes une source importante de données, notamment grâce à la télémétrie
activée.
Pour que l’IA puisse tirer parti de l’ensemble des données transmises par les différents équipements,
il faut que celles-ci soient structurées en suivant le même format. Sans cela, toutes les données ne
pourraient pas être interprétées, et l’apprentissage qui en serait issu serait erroné.
La tâche apparaît particulirement fastidieuse, notamment du fait de la multiplicité d’acteurs
intervenant pour la fourniture de ces données. Pour répondre à ce besoin, différents groupes de
l’ETSI7, qui standardise
les protocoles et architectures utilisés dans les réseaux télécom, travaillent depuis plusieurs années
au développement de standards pour l’apprentissage automatique.

3.1.2 Disponibilité des données

La donnée est une ressource essentielle pour l’entraînement de l’intelligence artificielle ; de ce fait, la
question de la propriété des données et de leur partage (dans le respect des principes de protection
de la vie privée, du secret industriel et du secret des affaires et en préservant les incitations
économiques des opérateurs et fournisseurs tiers à l’origine de leur collecte) est centrale. Les
équipementiers auditionnés confirment qu’actuellement ces données restent la propriété des
opérateurs télécoms, puisque elles sont collectées sur leurs réseaux.
Une plus grande disponibilité de ces dernières pourrait libérer un potentiel d’innovation important.

3.1.3 Propriété des modèles

Au-delà de la question de la disponibilité des données, la question de la propriété des modèles joue
aussi un rôle clé.
En effet, un des acteurs auditionné indique que la question de la propriété du modèle résultant de
l’apprentissage fait sur ces données peut se poser, lorsque le modèle est développé par un acteur
différent (par exemple un équipementier). Après avoir entraîné son modèle sur un jeu de données
détenues par un opérateur donné, un équipementier pourrait envisager de réutiliser ce modèle pour

5
Une problématique similaire de compétence et d’organisation avait été soulevée dans la note sur la virtualisation des
réseaux. Voir la section 2.2.2 : https://www.arcep.fr/uploads/tx_gspublication/reseaux-du-futur-virtualisation-des-reseaux-
juillet2019.pdf
6
En effet, comme d’autres technologie numérique, l’IA peut décarboner d’autres secteurs mais dispose elle-même d’une
empreinte carbone considérable. En effet, la phase d’apprentissage d’une IA est très énergivore et il conviendrait d’en tenir
compte lorsque l’on considère l’impact de l’IA sur l’environnement. Pour plus de détail sur l’empreinte carbone du
numérique : https://www.arcep.fr/actualites/les-communiques-de-presse/detail/n/reseaux-du-futur-2.html
7
Notamment les groupes «Experiential Networked Intelligence » et « Machine Learning for Future Networks including 5G »

Arcep 8/12
d’autres opérateurs. Cependant, un modèle d’IA est intrinsèquement lié aux données sur lesquelles il
a été entrainé ; dès lors, établir clairement la propriété du modèle, une fois que celui-ci a été
entraîné, peut s’avérer particulièrement complexe.
Pour autant, la réutilisation des modèles pourrait permettre de réaliser des gains d’échelle et
favoriser l’innovation, que ce soit pour de la planification radio ou pour de l’optimisation de service8.
Une telle réutilisation peut toutefois poser des difficultés notamment en termes de secret des
affaires. En effet, même s’il ne contient pas des informations aussi exhaustives que les données
brutes qui ont servi à son entrainement, un modèle peut révéler des informations relatives à
l’environnement sur lequel il a été entraîné. Une solution pourrait être de dégrader la finesse du
modèle afin de s’assurer qu’il ne puisse pas révéler des informations trop précises, puis d’en
transférer (contre rémunération) la propriété des opérateurs vers les équipementiers. Dès lors, si les
équipementiers étaient propriétaires des modèles, ils pourraient les mettre à disposition des
nouveaux acteurs qui souhaiteraient déployer des réseaux cellulaires. Ainsi, les nouveaux opérateurs
n’auraient pas à souffrir d’une période d’apprentissage pour optimiser la configuration de leurs
équipements.

3.1.4 Effet sur la chaîne de valeur

L’IA pourrait permettre de déléguer une partie de la configuration des équipements, ordinairement
réalisée par l’opérateur, aux modèles développés par les équipementiers. Même si les opérateurs
font déjà souvent appel aux équipementiers pour cette configuration, le recours à l’IA développée
par les équipementiers renforcerait l’importance des équipementiers par rapport aux opérateurs
(puisque ce sont ces derniers qui disposent des modèles). Pour autant, les équipementiers
resteraient en partie dépendants des opérateurs dans la mesure où ceux-ci restent propriétaires des
données indispensables pour l’entraînement des modèles.
Une alternative serait que les opérateurs conçoivent leurs propres modèles d’apprentissage ou
fassent appel à des tiers, autres que les équipementiers, pour développer de tels modèles. Comme
pour la virtualisation, le développement d’une telle expertise par les opérateurs pourrait les rendre
moins dépendants des équipementiers.

3.1.5 Surreprésentativité de certains problèmes

Deux types de problèmes peuvent émerger et liés au biais de représentativité. Le premier biais de
représentativité est parfois illustré par le « biais du survivant »9 qui consiste à ne s’intéresser qu’aux
problèmes au sujet desquels des informations sont remontées. Si cette approche permet de traiter
les problèmes les plus visibles, elle a pour conséquence d’ignorer les problèmes qui n’ont pas pu être
remontés. Dans le cas de la gestion des réseaux, si des zones (géographiques ou logiques) sont
équipées de moins de sondes ou représentent de plus faibles volumes de données, elles risquent

8
A ce titre, il existe des travaux pour le développement de places de marchés spécialisées dans la mise à disposition de
modèles d’IA.
9
Un exemple de ce phénomène est celui des mesures de blindages d’avion de chasse proposées par les statisticiens durant
la seconde guerre mondiale. En effet, ces derniers ne s’appuyaient que sur les avions rentrés à la base pour déterminer
quelles étaient les zones à renforcer sans tenir compte du fait que les avions qui n’étaient pas revenus avaient sans doute
été touchés à d’autres endroits.

Arcep 9/12
statistiquement de signaler moins de problèmes. L’absence de détection d’incidents aurait pour
conséquence de réduire le suivi et diminuerait le nombre de problèmes détectées dans une zone10.
Un autre biais de représentativité pourrait émerger lorsqu’une IA est entrainée sur un jeu de
données spécifique. Dans le cas du beamforming, une IA qui aurait appris sur un parc d’équipements
spécifiques à l’équipementier pourrait avoir un biais entrainant un niveau de précision dégradé sur le
parc d’équipements hétérogènes d’un opérateur. Ces biais pourraient alors inciter les opérateurs à
déployer un parc d’équipements spécifiques à un équipementier pour améliorer la précision de l’IA
délivrée par ce dernier, augmentant par la même le niveau de dépendance de l’opérateur par
rapport à l’équipementier. L’Autorité ne dispose pas d’éléments suffisants pour évaluer l’ampleur
dans laquelle ce dernier point pourrait jouer et des recherches complémentaires seraient utiles.

3.2 Composer avec l’opacité de l’IA

3.2.1 Explicabilité et fiabilité

S’il est possible d’énumérer la liste des paramètres qu’un algorithme manuellement défini prend en
compte et donner une idée de leur pondération, il est beaucoup plus difficile d’obtenir une telle liste
pour un algorithme entrainé par apprentissage automatique11. Ce manque d’explicabilité apparaît
particulièrement prédominant pour certains algorithmes, en particulier dans le cas des modèles
recourant au deep learning12.
Or, sans connaitre l’importance des différents paramètres dans une prise de décision, la réponse
apportée par l’IA peut avoir un caractère imprévisible et il peut être difficile de juger de sa pertinence
suivant les situations. Cela est d’autant plus problématique que l’IA ne peut argumenter les choix
qu’elle prend.
En raison de cette absence d’explicabilité, il n’est pas toujours possible de rationaliser, pour un
humain, le comportement de l’intelligence artificielle. Puisqu’il n’est pas possible de toujours
anticiper clairement le comportement d’une IA, la question de sa fiabilité se pose. Ainsi, des
chercheurs sont parvenus à faire croire à un algorithme de reconnaissance d’image qu’une tortue
était une arme13. L’exemple est révélateur de l’imprévisibilité des résultats qui peuvent être fournis
par une intelligence artificielle lorsqu’elle est mal entraînée ou qu’elle est utilisée dans un contexte
inadapté.
Pour pallier à ce manque d’explicabilité, l’ « IA explicable « XAI14 » se développe avec pour objectif de
comprendre et d’expliquer comment les IA prennent leurs décisions en inspectant les étapes et
modèles impliqués dans le processus de décision.

10
Dans une moindre mesure, la variance dans la fréquence des différents types d’incidents peut aussi conduire à des biais.
Un dysfonctionnement récurrent sera parfois surreprésenté dans l’ensemble de données ayant servies à entrainer
l’intelligence artificielle, à l’opposé de la rareté de certains types de dysfonctionnements, qui peut les rendre moins
facilement détectables.
11
https://www.darpa.mil/program/explainable-artificial-intelligence
12
Ce problème ne concerne pas le champ de l’IA symbolique qui est, au contraire, en mesure d’expliquer les choix qu’elle
opère
13
https://www.wired.com/story/researcher-fooled-a-google-ai-into-thinking-a-rifle-was-a-helicopter/
14
Explainable Artificial Intelligence ou Intelligence Artificielle Explicable.

Arcep 10/12
3.2.2 Neutralité

Cette question de fiabilité de l’IA prend notamment une importance toute particulière vis-à-vis de la
question de la neutralité du net. Sera-t-il possible de garantir que le trafic réseau géré
dynamiquement par une intelligence artificielle respecte le principe de neutralité du net ?
La question est double car l’IA peut avoir plusieurs rôles dans la gestion de la priorisation des
contenus et services. D’une part, elle peut faire des erreurs dans la classification de flux en vue de
leurs priorisation. D’autre part, l’IA pourrait aussi servir à recommander des contenus et services à
l’utilisateur ou à choisir quelle source sera utilisée pour fournir un contenu demandé par l’utilisateur.
Cette problématique avait notamment était soulevée dans l’étude sur la neutralité des terminaux qui
n’est pas, à ce jour, couverte par la neutralité du Net. Mais lorsque cette décision est prise par un
équipement de l’opérateur (partie intégrante d’un service d’accès à internet) la question de la
neutralité de l’IA entre de fait dans le champ de la réglementation relative à la neutralité du Net.

3.2.3 Corrélation et causalité

L’IA identifiant des phénomènes à partir de patterns, des phénomènes coïncidents pourront être
jugés comme liés et le premier observé sera probablement considéré comme étant la cause du
second, au contraire de certaines méthodes économétriques, par exemple,qui visent à clairement
établir les liens de causalité entre phénomènes (lorsque les données pour le faire sont disponibles).
En effet, la coïncidence de phénomènes peut n’être que le fruit du hasard et les deux phénomènes
peuvent être indépendants15. En outre, deux phénomènes corrélés peuvent être produits par un
même fait générateur commun, non observé celui-ci (on parle alors de variable omise) ; là encore, il
peut donc y avoir corrélation sans causalité entre les deux phénomènes observés. Or si elle permet
d’identifier des symptômes, l’IA ne permet pas toujours de dissocier les symptômes et les causes
fondamentales d’un dysfonctionnement.

3.2.4 Responsabilité

En raison de cette opacité, les utilisateurs exigent des garanties élevées de la part de l’IA. En
particulier, concernant le fonctionnement des réseaux que les opérateurs de télécom doivent fournir
car ceux-ci sont essentiels. L’attribution de la responsabilité des décisions prises par l’IA n’est pas un
débat nouveau16 de l’IA et ce débat est d’autant plus complexe à trancher quand il implique plusieurs
acteurs. Actuellement, les équipementiers (ou d’autres acteurs) cherchent à fournir des garanties sur
le fonctionnement de l’IA, mais il n’est pas établi que la responsabilité leur incomberait si une IA
prenait une mauvaise décision d’optimisation ou de planification radio. D’une part l’acteur qui
fournit les données qui entraine l’IA pourrait avoir à vérifier que celles-ci sont exhaustives et
cohérentes. D’autre part, des vérifications supplémentaires pourraient effectuées quand une
décision est prise par une IA.
Ces enjeux ne sont probablement pas exhaustifs de ceux qui se posent à l’IA dans les réseaux et
d’autres thèmes auraient pu être abordés au sein de cette partie (cybersécurité, détection de
comportements illégaux …).

15
Voir par exemple : http://tylervigen.com/spurious-correlations
16
https://www.lemonde.fr/idees/article/2016/12/01/comment-juger-les-machines_5041562_3232.html

Arcep 11/12
4 Conclusions
Les larges volumes de données collectées par la télémétrie, les efforts de standardisations ainsi que
les nombreux cas d’usages laissent penser que l’Intelligence Artificielle pourrait significativement
contribuer à l’optimisation et à l’évolution des réseaux dans les prochaines années. Les réseaux sans
fils en particuliers sont amenés à se complexifier et l’IA permet déjà d’apporter des solutions aux
besoins qui émergent avec le beamforming. Néanmoins, la disponibilité des données utilisées pour
l’apprentissage, le manque d’explicabilité des décisions prises par l’IA et le manque de garanties dans
certains cas pourraient ralentir le déploiement de cette technologie dans les réseaux. Ces défis ne
sont pas spécifiques aux réseaux de télécommunications (pour lesquels les enjeux de sécurité et de
résilience sont toutefois importants) et sont déjà étudiés. Seule la question de la propriété des
modèles est peut-être plus spécifique aux domaines dans lesquels les acteurs qui développent les
modèles ne sont pas ceux auxquels appartiennent les données ce qui semble être le cas pour le
secteur des télécommunications.

Arcep 12/12

Vous aimerez peut-être aussi