L’intelligence artificielle au service des réseaux fixes et mobiles
Skynet 0.1
Le 22 janvier 2020 à 15h03
11 min
Internet
Internet
L’IA se fait une place partout, y compris dans les réseaux fixes et mobiles des opérateurs. L’Arcep a souhaité prendre le pouls du marché et analyser les tendances en la matière. Le régulateur en profite pour faire le point sur les nombreuses questions soulevées par une telle évolution dans le domaine des télécoms.
Depuis maintenant plus d’un an, l’Arcep a lancé un cycle de réflexion sur les réseaux du futur, avec un horizon de cinq à dix ans. Plusieurs comptes rendus ont déjà été mis en ligne sur la virtualisation des réseaux (NFV, SDN), le casse-tête de la voiture connectée (ITS-G5 et C-V2X) et l’empreinte carbone du numérique.
Le régulateur s’est récemment penché sur le cas de l’intelligence artificielle dans les réseaux de télécommunications, fixes et mobiles. Comme pour ses précédentes publications, il s’est appuyé sur son Comité scientifique, composé de dix personnalités (avec une parité hommes/femmes), et sur de nombreux échanges avec les acteurs du secteur.
Comme le rappelle l’autorité, « les larges volumes de données collectées par la télémétrie, les efforts de standardisations ainsi que les nombreux cas d’usages laissent penser que l’intelligence artificielle pourrait significativement contribuer à l’optimisation et à l’évolution des réseaux dans les prochaines années ».
Mais ce n’est pas sans soulever de nombreuses questions, que l’on retrouve dans d’autres domaines où l’IA occupe déjà une place importante : disponibilité des données, opacité des algorithmes, explicabilité des décisions, etc. Autant de points qui « pourraient ralentir le déploiement de cette technologie dans les réseaux ».
Surveiller les réseaux comme le lait sur le feu
Dans la première partie de son analyse, le gendarme des télécoms se penche sur « la place de l’IA dans les réseaux ». On y apprend, sans surprise, que « les opérateurs s’interrogent sur un éventuel recours à l’intelligence artificielle en support, voire le cas échéant en remplacement, des opérateurs humains dans la gestion et l’optimisation des services ».
Un segment porteur, avec de la maintenance prédictive pour commencer. Il est en effet possible d'exploiter l’historique des pannes et dysfonctionnements pour en anticiper de nouveaux ou proposer des solutions. Il s’agit d’aller plus loin que de simples règles pour pallier des situations prédéfinies, avec tout le manque de souplesse que cela implique.
Sans oublier que plus les règles sont nombreuses, plus elles sont difficiles à vérifier et mettre à jour en suivant les évolutions du réseau. Lors de ses consultations, un équipementier (dont le nom n’est pas précisé) affirme déjà « utiliser l’intelligence artificielle pour améliorer significativement la maintenance prédictive ».
« Une fois un incident détecté ou anticipé, l’intelligence artificielle peut rapidement considérer l’ensemble des solutions envisageables, simuler leur déploiement et en mesurer les potentiels effets afin de les proposer à un opérateur humain qui pourra alors faire un choix parmi les solutions proposées » précise-t-il.
Le gain de temps est ici considérable, ne nécessitant une présence humaine qu'en bout de chaîne.
Optimiser la consommation, les performances et la sécurité
Mais une IA pourrait également prendre des décisions dans des cas non critiques et déployer la solution en toute autonomie. Son champ d’action pourrait même être plus important : elle « peut notamment servir à optimiser la consommation énergétique des réseaux en mettant en veille les équipements (antennes, serveurs, fibres…) ayant peu de chance d’être utilisés ou au contraire en leur allouant dynamiquement plus de ressources ».
On voit les avantages dans un réseau virtualisé, où une IA aurait la main mise sur de nombreuses fonctions : « L’apprentissage automatique peut aussi être associé au Software Defined Network (SDN) afin de configurer le réseau de manière globale et cohérente (placement des fonctions dans le réseau, estimation des ressources à allouer, etc.) ».
Dans certains cas, c'est déjà un allié quasi indispensable : « Un acteur auditionné a ainsi fait mention de deux services dont la qualité est affectée par de si nombreux paramètres que l’intelligence artificielle apparaît comme une solution adéquate pour en assurer une bonne gestion : la voix sur LTE et le débit de téléchargement en bordure de réseau. La qualité de ces deux services peut être affectée par environ 150 paramètres distincts et, par conséquent, modéliser manuellement l’influence de ces paramètres sur la qualité de l’expérience utilisateur s’avère complexe ».
L’intelligence artificielle permet aussi de renforcer la sécurité. Si des algorithmes sont très bons pour identifier la signature d’une attaque – un peu comme un vaccin qui permet au corps humain de contrer une maladie car il y a déjà été confronté- ils restent généralement totalement insensibles aux nouveaux vecteurs d’infections.
« Faire appel à l’IA permet d’apprendre automatiquement à reconnaître un comportement anormal », explique l’Arcep... qui précise qu’il faut encore réussir à ignorer les petites variations qui pourraient générer des faux positifs.
Beamforming, géolocalisation : IA vs modèles mathématiques
S’il y a bien un domaine où l’IA permet de faire avancer les choses, c’est dans le beamforming – que l’on retrouve dans la 5G – explique le Comité du gendarme des télécoms. Avant d’entrer dans le vif du sujet, une explication sur cette fonctionnalité permettant d’optimiser le signal vers un utilisateur en particulier :
« Le beamforming permet d’utiliser plusieurs antennes omnidirectionnelles afin de simuler le fonctionnement d’une antenne unidirectionnelle. Pour cela, le beamforming consiste à créer des interférences constructives et destructives entre les faisceaux d’onde radio des différentes antennes, afin que le faisceau d’onde total soit concentré dans la direction souhaitée et minimisé ailleurs ».
Deux approches sont possibles : via les modèles mathématiques s’appuyant sur la théorie du signal, ou bien via des approximations se basant sur les expériences passées.
La première promet en théorie de meilleurs résultats « mais la complexité des modèles mathématiques qui permettraient de résoudre ces problèmes oblige à faire un compromis entre efficacité et précision, si bien qu’il n’est pas possible en pratique de modéliser précisément les interférences causées par les différentes antennes dans des conditions réelles ».
Face à cette difficulté, l’apprentissage automatique peut être un bon complément, voire une alternative : « Une fois la direction d’émission connue, l’algorithme peut rapidement extrapoler à partir de configurations précédentes quelles sont celles permettant d’émettre dans la direction souhaitée. L’apprentissage automatique permet aussi de prendre en compte l’ensemble des paramètres (météo, environnement, nombre de terminaux…) pouvant affecter la transmission du signal ». Des expérimentations se déroulent actuellement selon l’Arcep.
La géolocalisation en intérieur pourrait également profiter pleinement d’une intelligence artificielle et de l’apprentissage supervisé. Des systèmes existent déjà, notamment le Wi-Fi RTT qui exploite la trilatération, mais nécessite de connaître l’emplacement des antennes. L’apprentissage supervisé « permet d’extrapoler la position d’un terminal, et ainsi peut permettre de compléter efficacement, voire de remplacer, l’information des systèmes de géolocalisation satellitaires ».
Propriété des données et des modèles
Vient alors la question des enjeux autour de l’utilisation de l’intelligence artificielle, et ils sont nombreux. Un exemple avant d’entrer dans le vif du sujet, avec une IA qui servirait à classifier du trafic : « si cette classification servait à prioriser certains types de flux, mais que l’IA était amenée à classifier mal certains flux, ces erreurs pourraient avoir des effets en termes de neutralité du net puisque tous les flux d’un même type ne seraient pas traités équitablement ».
Comme nous l’avons déjà expliqué à de nombreuses reprises, une IA a besoin de grosses quantités de données pour se développer... encore faut-il pouvoir y accéder : « Les équipementiers auditionnés confirment qu’actuellement ces données restent la propriété des opérateurs télécoms, puisqu’elles sont collectées sur leurs réseaux ». Un point qui chagrine le Comité de l’Arcep : « Une plus grande disponibilité de ces dernières pourrait libérer un potentiel d’innovation important ».
En plus de la propriété des données se pose celle des modèles. En effet, une intelligence artificielle entraînée avec des données provenant de chez Orange ne donnera par exemple pas forcément de bons résultats sur le réseau de SFR, et vice-versa. Ce n’est pas la seule crainte : « Une telle réutilisation peut toutefois poser des difficultés notamment en termes de secret des affaires. En effet, même s’il ne contient pas des informations aussi exhaustives que les données brutes qui ont servi à son entraînement, un modèle peut révéler des informations relatives à l’environnement sur lequel il a été entraîné ».
Les experts de l’Arcep lancent une idée : dégrader la finesse d’un modèle pour « qu’il ne puisse pas révéler des informations trop précises », puis en transférer la propriété – contre rémunération – aux équipementiers, qui pourraient alors les vendre à d’autres opérateurs. « Ainsi, les nouveaux opérateurs n’auraient pas à souffrir d’une période d’apprentissage pour optimiser la configuration de leurs équipements »… pas sûre que les anciens opérateurs voient cela d’un bon œil.
Mais dans les télécoms, comme partout ailleurs, même si les données étaient accessibles, il faudrait encore qu’elles soient structurées en suivant un même format. Une tâche titanesque vu l’étendue des acteurs rien que dans le monde des télécoms. Une tâche à laquelle s’attellent plusieurs groupes de l’European Telecommunications Standards Institute.
L’opacité des intelligences artificielles soulève des questions
Derniers points noirs soulevés par le régulateur, qui n’ont là encore rien de nouveau : l’explicabilité, la neutralité et la responsabilité de l’intelligence artificielle. Dans le premier cas, « sans connaître l’importance des différents paramètres dans une prise de décision, la réponse apportée par l’IA peut avoir un caractère imprévisible et il peut être difficile de juger de sa pertinence suivant les situations. Cela est d’autant plus problématique que l’IA ne peut argumenter les choix qu’elle prend ».
Dans le second, la question est de savoir s’il est possible « de garantir que le trafic réseau géré dynamiquement par une intelligence artificielle respecte le principe de neutralité du Net ».
Sur le dernier point, « les équipementiers (ou d’autres acteurs) cherchent à fournir des garanties sur le fonctionnement de l’IA, mais il n’est pas établi que la responsabilité leur incomberait si une IA prenait une mauvaise décision ». Le jeu de données ayant servi à l’entraîner pourrait être mis en cause, comme le client final qui aurait pu renforcer ses vérifications.
En guise de conclusion, l’Arcep reconnaît que « ces défis ne sont pas spécifiques aux réseaux de télécommunications (pour lesquels les enjeux de sécurité et de résilience sont toutefois importants) et sont déjà étudiés. Seule la question de la propriété des modèles est peut-être plus spécifique ».
La question de la régulation de l’intelligence artificielle revient régulièrement sur le devant de la scène ces derniers temps. La plus récente intervention est celle de Sundar Pichai, patron de Google et Alphabet, qui affirme que « la question n’est pas de savoir s’il faut réguler, mais comment ».
Le 22 janvier 2020 à 15h03
L’intelligence artificielle au service des réseaux fixes et mobiles
-
Surveiller les réseaux comme le lait sur le feu
-
Optimiser la consommation, les performances et la sécurité
-
Beamforming, géolocalisation : IA vs modèles mathématiques
-
Propriété des données et des modèles
-
L’opacité des intelligences artificielles soulève des questions
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 22/01/2020 à 15h11
#1
Spoiler Alert:
J’ai pas encore lu l’article, mais rien qu’avec le titre, j’ai la dernière saison de Silicon Valley en tête " />
Le 22/01/2020 à 15h33
#2
“Cela est d’autant plus problématique que l’IA ne peut argumenter les choix qu’elle prend”
L’humain prend sa décision, puis va chercher des excuses pour la justifier (aux autres ou à lui-même).
Le 22/01/2020 à 16h01
#3
Le problème ne porte pas sur la difficulté à prédire ou comprendre les décisions humaines… la comparaison est hors de propos.
Il est évident que certaines décisions humaines sont (ou semblent) irrationnelles, la personne concernée peut néanmoins essayer de l’expliquer (elle peut certes choisir de mentir) permettant ainsi à tout un chacun de se constituer sa propre opinion et d’en jauger la logique.
Le problème des IA (plus particulièrement des réseaux de neurones en fait), c’est qu’ils ne reposent pas sur des algorithmes documentés et clairement définis, il est donc très difficile de savoir pourquoi une décision qui a été prise l’a été (avant même de rentrer dans le débat portant sur sa logique et son bien fondé).
Alors à nouveau, il est vrai que les humains possèdent leurs failles et leur dose de malhonnêteté et irrationalité seulement les humains sont là, c’est ainsi. Du coup quitte à inventer quelque chose, autant éviter d’y glisser les biais que l’on connait bien! Si l’on en reste a “boah, les humains ne font pas mieux de toute façon” alors je ne vois pas trop l’intérêt de développer des IA " />
EDIT: et pour répondre plus précisément à ta première phrase: tous les humains ne cherchent pas systématiquement des excuses fallacieuses non plus 😅
Le 22/01/2020 à 16h08
#4
Le 22/01/2020 à 16h14
#5
“Bien plus que les humains ! ”
==> C’est loin d’être évident dans le cas des réseaux de neurones, mais soit. Là n’est pas la question 😅
” On cherche à posteriori des raisons à nos propres choix, ces raisons ne sont pas nécessairement fallacieuses.”
==> Cela n’engage que moi, mais il m’arrive de réfléchir avant de prendre une décision, et si l’on me demande des comptes à posteriori, je donne bien une explication basée sur des raisons définies à priori.
Le 22/01/2020 à 16h46
#6
Pour moi, les algorithmes d’apprentissage automatique (l’IA) sont imparfaits à plus d’un titre :
Le 22/01/2020 à 16h46
#7
Le 22/01/2020 à 17h03
#8
Et la solution la plus rationnelle n’est pas forcément la plus valable.
L’IA ne peut servir qu’à palier le manque d’effectif ou le manque de qualification du personnel d’urgence. Et là je parle d’une IA qui reçoit régulièrement une masse d’informations qui lui permettent d’être fonctionnelle. Et donc les big datas deviennent prépondérantes vis-à-vis d’autres priorités sociales.
Le 22/01/2020 à 17h42
#9
Le 22/01/2020 à 17h53
#10
Le 22/01/2020 à 18h02
#11
Le 22/01/2020 à 19h04
#12
" />En effet
Ça reste reproductible et donne bien plus d’information brutes relativement à un humain pour comprendre un résultat.
Par ex. on peut faire varier l’entrée (légèrement ou pas) pour vérifier si le résultat change beaucoup, autant lors de l’entraînement que pour vérifier un résultat, de manière automatique ou par des humains.
Le 23/01/2020 à 10h07
#13
“Tu ne feras point de machine à l’esprit de l’homme semblable”.
Le 23/01/2020 à 15h19
#14
offre leur de se prendre un p’tit ver " />
Le 28/01/2020 à 10h50
#15
Il suffisait donc de remplacer surveillance par l’opérateur par problème technique de l’IA pour collecter indûment des données supplémentaires sur les usagers.
Bien joué ! " />