Connexion
Abonnez-vous

L’intelligence artificielle au service des réseaux fixes et mobiles

Skynet 0.1

L’intelligence artificielle au service des réseaux fixes et mobiles

Le 22 janvier 2020 à 15h03

L’IA se fait une place partout, y compris dans les réseaux fixes et mobiles des opérateurs. L’Arcep a souhaité prendre le pouls du marché et analyser les tendances en la matière. Le régulateur en profite pour faire le point sur les nombreuses questions soulevées par une telle évolution dans le domaine des télécoms.

Depuis maintenant plus d’un an, l’Arcep a lancé un cycle de réflexion sur les réseaux du futur, avec un horizon de cinq à dix ans. Plusieurs comptes rendus ont déjà été mis en ligne sur la virtualisation des réseaux (NFV, SDN), le casse-tête de la voiture connectée (ITS-G5 et C-V2X) et l’empreinte carbone du numérique.

Le régulateur s’est récemment penché sur le cas de l’intelligence artificielle dans les réseaux de télécommunications, fixes et mobiles. Comme pour ses précédentes publications, il s’est appuyé sur son Comité scientifique, composé de dix personnalités (avec une parité hommes/femmes), et sur de nombreux échanges avec les acteurs du secteur.

Comme le rappelle l’autorité, « les larges volumes de données collectées par la télémétrie, les efforts de standardisations ainsi que les nombreux cas d’usages laissent penser que l’intelligence artificielle pourrait significativement contribuer à l’optimisation et à l’évolution des réseaux dans les prochaines années ».

Mais ce n’est pas sans soulever de nombreuses questions, que l’on retrouve dans d’autres domaines où l’IA occupe déjà une place importante : disponibilité des données, opacité des algorithmes, explicabilité des décisions, etc. Autant de points qui « pourraient ralentir le déploiement de cette technologie dans les réseaux ».

Surveiller les réseaux comme le lait sur le feu

Dans la première partie de son analyse, le gendarme des télécoms se penche sur « la place de l’IA dans les réseaux ». On y apprend, sans surprise, que « les opérateurs s’interrogent sur un éventuel recours à l’intelligence artificielle en support, voire le cas échéant en remplacement, des opérateurs humains dans la gestion et l’optimisation des services ».

Un segment porteur, avec de la maintenance prédictive pour commencer. Il est en effet possible d'exploiter l’historique des pannes et dysfonctionnements pour en anticiper de nouveaux ou proposer des solutions. Il s’agit d’aller plus loin que de simples règles pour pallier des situations prédéfinies, avec tout le manque de souplesse que cela implique. 

Sans oublier que plus les règles sont nombreuses, plus elles sont difficiles à vérifier et mettre à jour en suivant les évolutions du réseau. Lors de ses consultations, un équipementier (dont le nom n’est pas précisé) affirme déjà « utiliser l’intelligence artificielle pour améliorer significativement la maintenance prédictive ».

« Une fois un incident détecté ou anticipé, l’intelligence artificielle peut rapidement considérer l’ensemble des solutions envisageables, simuler leur déploiement et en mesurer les potentiels effets afin de les proposer à un opérateur humain qui pourra alors faire un choix parmi les solutions proposées » précise-t-il.

Le gain de temps est ici considérable, ne nécessitant une présence humaine qu'en bout de chaîne. 

Optimiser la consommation, les performances et la sécurité

Mais une IA pourrait également prendre des décisions dans des cas non critiques et déployer la solution en toute autonomie. Son champ d’action pourrait même être plus important : elle « peut notamment servir à optimiser la consommation énergétique des réseaux en mettant en veille les équipements (antennes, serveurs, fibres…) ayant peu de chance d’être utilisés ou au contraire en leur allouant dynamiquement plus de ressources ».

On voit les avantages dans un réseau virtualisé, où une IA aurait la main mise sur de nombreuses fonctions : « L’apprentissage automatique peut aussi être associé au Software Defined Network (SDN) afin de configurer le réseau de manière globale et cohérente (placement des fonctions dans le réseau, estimation des ressources à allouer, etc.) ».

Dans certains cas, c'est déjà un allié quasi indispensable : « Un acteur auditionné a ainsi fait mention de deux services dont la qualité est affectée par de si nombreux paramètres que l’intelligence artificielle apparaît comme une solution adéquate pour en assurer une bonne gestion : la voix sur LTE et le débit de téléchargement en bordure de réseau. La qualité de ces deux services peut être affectée par environ 150 paramètres distincts et, par conséquent, modéliser manuellement l’influence de ces paramètres sur la qualité de l’expérience utilisateur s’avère complexe ».

L’intelligence artificielle permet aussi de renforcer la sécurité. Si des algorithmes sont très bons pour identifier la signature d’une attaque – un peu comme un vaccin qui permet au corps humain de contrer une maladie car il y a déjà été confronté- ils restent généralement totalement insensibles aux nouveaux vecteurs d’infections.

« Faire appel à l’IA permet d’apprendre automatiquement à reconnaître un comportement anormal », explique l’Arcep... qui précise qu’il faut encore réussir à ignorer les petites variations qui pourraient générer des faux positifs.

SDN NFV
Crédits : Vividcomm

Beamforming, géolocalisation : IA vs modèles mathématiques

S’il y a bien un domaine où l’IA permet de faire avancer les choses, c’est dans le beamforming – que l’on retrouve dans la 5G – explique le Comité du gendarme des télécoms. Avant d’entrer dans le vif du sujet, une explication sur cette fonctionnalité permettant d’optimiser le signal vers un utilisateur en particulier :

« Le beamforming permet d’utiliser plusieurs antennes omnidirectionnelles afin de simuler le fonctionnement d’une antenne unidirectionnelle. Pour cela, le beamforming consiste à créer des interférences constructives et destructives entre les faisceaux d’onde radio des différentes antennes, afin que le faisceau d’onde total soit concentré dans la direction souhaitée et minimisé ailleurs ».

Deux approches sont possibles : via les modèles mathématiques s’appuyant sur la théorie du signal, ou bien via des approximations se basant sur les expériences passées. 

La première promet en théorie de meilleurs résultats « mais la complexité des modèles mathématiques qui permettraient de résoudre ces problèmes oblige à faire un compromis entre efficacité et précision, si bien qu’il n’est pas possible en pratique de modéliser précisément les interférences causées par les différentes antennes dans des conditions réelles ».

Face à cette difficulté, l’apprentissage automatique peut être un bon complément, voire une alternative : « Une fois la direction d’émission connue, l’algorithme peut rapidement extrapoler à partir de configurations précédentes quelles sont celles permettant d’émettre dans la direction souhaitée. L’apprentissage automatique permet aussi de prendre en compte l’ensemble des paramètres (météo, environnement, nombre de terminaux…) pouvant affecter la transmission du signal ». Des expérimentations se déroulent actuellement selon l’Arcep. 

La géolocalisation en intérieur pourrait également profiter pleinement d’une intelligence artificielle et de l’apprentissage supervisé. Des systèmes existent déjà, notamment le Wi-Fi RTT qui exploite la trilatération, mais nécessite de connaître l’emplacement des antennes. L’apprentissage supervisé « permet d’extrapoler la position d’un terminal, et ainsi peut permettre de compléter efficacement, voire de remplacer, l’information des systèmes de géolocalisation satellitaires ».

Propriété des données et des modèles

Vient alors la question des enjeux autour de l’utilisation de l’intelligence artificielle, et ils sont nombreux. Un exemple avant d’entrer dans le vif du sujet, avec une IA qui servirait à classifier du trafic : « si cette classification servait à prioriser certains types de flux, mais que l’IA était amenée à classifier mal certains flux, ces erreurs pourraient avoir des effets en termes de neutralité du net puisque tous les flux d’un même type ne seraient pas traités équitablement ». 

Comme nous l’avons déjà expliqué à de nombreuses reprises, une IA a besoin de grosses quantités de données pour se développer... encore faut-il pouvoir y accéder : « Les équipementiers auditionnés confirment qu’actuellement ces données restent la propriété des opérateurs télécoms, puisqu’elles sont collectées sur leurs réseaux ». Un point qui chagrine le Comité de l’Arcep : « Une plus grande disponibilité de ces dernières pourrait libérer un potentiel d’innovation important ».

En plus de la propriété des données se pose celle des modèles. En effet, une intelligence artificielle entraînée avec des données provenant de chez Orange ne donnera par exemple pas forcément de bons résultats sur le réseau de SFR, et vice-versa. Ce n’est pas la seule crainte : « Une telle réutilisation peut toutefois poser des difficultés notamment en termes de secret des affaires. En effet, même s’il ne contient pas des informations aussi exhaustives que les données brutes qui ont servi à son entraînement, un modèle peut révéler des informations relatives à l’environnement sur lequel il a été entraîné ».

Les experts de l’Arcep lancent une idée : dégrader la finesse d’un modèle pour « qu’il ne puisse pas révéler des informations trop précises », puis en transférer la propriété – contre rémunération – aux équipementiers, qui pourraient alors les vendre à d’autres opérateurs. « Ainsi, les nouveaux opérateurs n’auraient pas à souffrir d’une période d’apprentissage pour optimiser la configuration de leurs équipements »… pas sûre que les anciens opérateurs voient cela d’un bon œil.

Mais dans les télécoms, comme partout ailleurs, même si les données étaient accessibles, il faudrait encore qu’elles soient structurées en suivant un même format. Une tâche titanesque vu l’étendue des acteurs rien que dans le monde des télécoms. Une tâche à laquelle s’attellent plusieurs groupes de l’European Telecommunications Standards Institute.

Intelligence artificielle
Crédits : VLADGRIN/iStock/Thinkstock

L’opacité des intelligences artificielles soulève des questions

Derniers points noirs soulevés par le régulateur, qui n’ont là encore rien de nouveau : l’explicabilité, la neutralité et la responsabilité de l’intelligence artificielle. Dans le premier cas, « sans connaître l’importance des différents paramètres dans une prise de décision, la réponse apportée par l’IA peut avoir un caractère imprévisible et il peut être difficile de juger de sa pertinence suivant les situations. Cela est d’autant plus problématique que l’IA ne peut argumenter les choix qu’elle prend ».

Dans le second, la question est de savoir s’il est possible « de garantir que le trafic réseau géré dynamiquement par une intelligence artificielle respecte le principe de neutralité du Net ».

Sur le dernier point, « les équipementiers (ou d’autres acteurs) cherchent à fournir des garanties sur le fonctionnement de l’IA, mais il n’est pas établi que la responsabilité leur incomberait si une IA prenait une mauvaise décision ». Le jeu de données ayant servi à l’entraîner pourrait être mis en cause, comme le client final qui aurait pu renforcer ses vérifications.

En guise de conclusion, l’Arcep reconnaît que « ces défis ne sont pas spécifiques aux réseaux de télécommunications (pour lesquels les enjeux de sécurité et de résilience sont toutefois importants) et sont déjà étudiés. Seule la question de la propriété des modèles est peut-être plus spécifique ». 

La question de la régulation de l’intelligence artificielle revient régulièrement sur le devant de la scène ces derniers temps. La plus récente intervention est celle de Sundar Pichai, patron de Google et Alphabet, qui affirme que « la question n’est pas de savoir s’il faut réguler, mais comment ». 

Le 22 janvier 2020 à 15h03

Commentaires (15)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Spoiler Alert:

&nbsp;J’ai pas encore lu l’article, mais rien qu’avec le titre, j’ai la dernière saison de Silicon Valley en tête&nbsp; <img data-src=" />

votre avatar

“Cela est d’autant plus problématique que l’IA ne peut argumenter les choix&nbsp;qu’elle prend”&nbsp;



L’humain prend sa décision, puis va chercher des excuses pour la justifier (aux autres ou à lui-même).




   &nbsp;Le fait qu'un humain soit capable de sortir une explication pour chacune de ses décisions ne rend aucunement ses décisions plus prévisibles ou compréhensibles qu'une IA, au contraire.
votre avatar

Le problème ne porte pas sur la difficulté à prédire ou comprendre les décisions humaines… la comparaison est hors de propos.

Il est évident que certaines décisions humaines sont (ou semblent) irrationnelles, la personne concernée peut néanmoins essayer de l’expliquer (elle peut certes choisir de mentir) permettant ainsi à tout un chacun de se constituer sa propre opinion et d’en jauger la logique.

Le problème des IA (plus particulièrement des réseaux de neurones en fait), c’est qu’ils ne reposent pas sur des algorithmes documentés et clairement définis, il est donc très difficile de savoir pourquoi une décision qui a été prise l’a été (avant même de rentrer dans le débat portant sur sa logique et son bien fondé).



Alors à nouveau, il est vrai que les humains possèdent leurs failles et leur dose de malhonnêteté et irrationalité seulement les humains sont là, c’est ainsi. Du coup quitte à inventer quelque chose, autant éviter d’y glisser les biais que l’on connait bien! Si l’on en reste a “boah, les humains ne font pas mieux de toute façon” alors je ne vois pas trop l’intérêt de développer des IA <img data-src=" />



EDIT: et pour répondre plus précisément à ta première phrase: tous les humains ne cherchent pas systématiquement des excuses fallacieuses non plus 😅

votre avatar







Lasout a écrit :



Le problème des IA (plus particulièrement des réseaux de neurones en fait), c’est qu’ils ne reposent pas sur des algorithmes documentés et clairement définis



&nbsp;

&nbsp;Bien plus que les humains !&nbsp;



&nbsp;



Lasout a écrit :



EDIT: et pour répondre plus précisément à ta première phrase: tous les humains ne cherchent pas systématiquement des excuses fallacieuses non plus 😅







&nbsp;On cherche à posteriori des raisons à nos propres choix, ces raisons ne sont pas nécessairement&nbsp;fallacieuses.


votre avatar

“Bien plus que les humains ! ”

==&gt; C’est loin d’être évident dans le cas des réseaux de neurones, mais soit. Là n’est pas la question 😅



&nbsp;” On cherche à posteriori des raisons à nos propres choix, ces raisons ne sont pas nécessairement&nbsp;fallacieuses.”

==&gt; Cela n’engage que moi, mais il m’arrive de réfléchir avant de prendre une décision, et si l’on me demande des comptes à posteriori, je donne bien une explication basée sur des raisons définies à priori.

votre avatar

Pour moi, les algorithmes d’apprentissage automatique (l’IA) sont imparfaits à plus d’un titre :





  • pas neutres, comme on les considère généralement : conçus par des humains, ils disposent de biais de fonctionnement

  • pas transparents, comme dit dans la note de l’Arcep (secret des affaires, opacité technologique, etc)

  • pas exhaustifs : les algorithmes d’apprentissage automatique ont besoin d’une masse de données conséquentes qui n’est pas toujours valable au moment d’un événement imprévu (qui occasionnera fatalement une réponse inappropriée de la part de l’IA). De ce fait, l’IA est incroyablement dépendante de la rectification par l’humain et de sa sagesse ou de sa conscience des priorités, les siennes propres et celles de la Société (et dépendante des Big Datas générées par des individus humains).



votre avatar







Lasout a écrit :



“Bien plus que les humains ! ”



 ==&gt; C'est loin d'être évident dans le cas des réseaux de neurones, mais soit. Là n'est pas la question 😅&nbsp;








 C'est un peu la question quand même&nbsp;:dd:  






L'humain aussi prend des décisions en utilisant un réseau de neurones.      






Mais celui là est beaucoup, beaucoup plus complexe, et réagi à un nombre de signaux bien supérieurs, la plupart sans aucun liens avec la décision à prendre.     









&nbsp;Lasout a écrit :



&nbsp;” On cherche&nbsp;à posteriori&nbsp;des raisons à nos propres choix, ces raisons ne sont pas nécessairement&nbsp;fallacieuses.”&nbsp;



==&gt; Cela n'engage que moi, mais il m'arrive de réfléchir&nbsp;avant&nbsp;de prendre une décision, et si l'on me demande des comptes à posteriori, je donne bien une explication basée sur des raisons définies&nbsp;à priori.








Il a été largement démontré que&nbsp; l'humain surestime grandement sa capacité à prendre des décisions rationnelles. Parfois la logique et la raison nous poussent effectivement vers la décision rationnelle, et il est possible&nbsp;de s'entrainer pour ça. Le plus souvent c'est l'expérience et/ou l'émotion qui guident nos décisions (que nous percevons parfois comme rationnelles).      






&nbsp;Dans tous les cas il est impossible de savoir exactement ce qui nous a poussé vers une décision. Au&nbsp; moins la décision d'une IA est reproductible, il est possible d'observer les images intermédiaires pour comprendre une décision etc.

votre avatar

Et la solution la plus rationnelle n’est pas forcément la plus valable.




Ça me rappelle une série TV que je regardais hier soir : à l'entrée des urgences, un patient se présente avec un mal de tête parce qu'il avait fait une chute en skate board. Faut-il le classer dans les cas bénins qui peuvent attendre ou dans les cas graves à traiter de toute urgence ? Même si statistiquement, le patient entrera dans l'une des catégories, seule l'expérience d'un humain est capable de faire au moins aussi bien qu'un algorithme d'apprentissage.     





L’IA ne peut servir qu’à palier le manque d’effectif ou le manque de qualification du personnel d’urgence. Et là je parle d’une IA qui reçoit régulièrement une masse d’informations qui lui permettent d’être fonctionnelle. Et donc les big datas deviennent prépondérantes vis-à-vis d’autres priorités sociales.

votre avatar







wagaf a écrit :



Au  moins la décision d’une IA est reproductible, il est possible d’observer les images intermédiaires pour comprendre une décision etc.







Tu confonds un logiciel “classique” qui ne fait qu’exécuter ce qu’on lui écrit de faire, et un logiciel dont le fonctionnement interne n’est pas écrit par un humain mais a été déduit par une IA en fonction des jeux de données ayant servi à son entrainement.



Autant il est possible d “observer les images intermédiaires” dans le premier cas, autant cela est impossible dans le second.

Dans le second cas, il est même possible que soumettre plein de fois les même données en entré finisse finisse par faire changer le résultat obtenu.


votre avatar







eliumnick a écrit :



Tu confonds un logiciel “classique” qui ne fait qu’exécuter ce qu’on lui écrit de faire, et un logiciel dont le fonctionnement interne n’est pas écrit par un humain mais a été déduit par une IA en fonction des jeux de données ayant servi à son entrainement.&nbsp;






 Un logiciel qui fonctionne en utilisant un réseau de neurones artificiel n'en est pas moins un simple programme exécuté par un CPU classique d'une manière parfaitement reproductible.       






 Faire de l'inférence avec un réseau de neurones artificiel revient à faire des stats un peu poussées en utilisant un modèle pré-calculé.      









eliumnick a écrit :



Autant il est possible d “observer les images intermédiaires” dans le premier cas, autant cela est impossible dans le second.&nbsp;



 Dans le second cas, il est même possible que soumettre plein de fois les même données en entré finisse finisse par faire changer le résultat obtenu.








 Avec les techniques actuelles, l'utilisation du&nbsp; réseau de neurones artificiel (inférence, classification..) est toujours effectuée indépendamment de l'entrainement.       

&nbsp;

Une fois que le modèle est entrainé, il est utilisé de manière parfaitement reproductible.






 Les réseaux de neurones sont le plus souvent constitués de plusieurs couches de "neurones artificielles", chaque couche transforme l'entrée et passe le résultat à la couche suivante.       






 Contrairement aux humains, il est possible de reproduire précisément n'importe quelle décision et observer les images entre chaque couche pour comprendre le résultat final (en fonction du réseau et de sa fonction, les images intermédiaires peuvent être plus ou moins faciles à interpréter).

votre avatar







wagaf a écrit :



Un logiciel qui fonctionne en utilisant un réseau de neurones artificiel n’en est pas moins un simple programme exécuté par un CPU classique d’une manière parfaitement reproductible.



[…]



Les réseaux de neurones sont le plus souvent constitués de plusieurs couches de “neurones artificielles”, chaque couche transforme l’entrée et passe le résultat à la couche suivante.



Contrairement aux humains, il est possible de reproduire précisément n’importe quelle décision et observer les images entre chaque couche pour comprendre le résultat final (en fonction du réseau et de sa fonction, les images intermédiaires peuvent être plus ou moins faciles à interpréter).





Si on arrive à comprendre et expliquer le traitement réalisé par caque couche, ça signifie qu’on peut tout aussi bien le coder sans IA…


votre avatar

<img data-src=" />En effet



Ça reste reproductible et donne bien plus d’information brutes relativement à un humain pour comprendre un résultat.

&nbsp;

&nbsp;Par ex. on peut faire varier l’entrée (légèrement ou pas) pour vérifier si le résultat change beaucoup, autant lors de l’entraînement que pour vérifier un résultat, de manière automatique ou par des humains.

votre avatar

“Tu ne feras point de machine à l’esprit de l’homme semblable”.

votre avatar

offre leur de se prendre un p’tit ver <img data-src=" />

votre avatar

Il suffisait donc de remplacer surveillance par l’opérateur par problème technique de l’IA pour collecter indûment des données supplémentaires sur les usagers.



Bien joué ! <img data-src=" />

L’intelligence artificielle au service des réseaux fixes et mobiles

  • Surveiller les réseaux comme le lait sur le feu

  • Optimiser la consommation, les performances et la sécurité

  • Beamforming, géolocalisation : IA vs modèles mathématiques

  • Propriété des données et des modèles

  • L’opacité des intelligences artificielles soulève des questions

Fermer