Des essaims d’IA pourraient augmenter l’efficacité de la manipulation des réseaux sociaux
Manipulation totalement automatisée ?
Les agents d'IA utilisés en essaims pourraient accélérer le travail des fermes de trolls. Ceux qui cherchent à manipuler les utilisateurs des réseaux sociaux ont à portée de mains une arme indétectable selon plusieurs chercheurs et la prix Nobel de la Paix Maria Ressa, qui signent un texte dans la revue Science.
Le 29 janvier à 15h53
4 min
Société numérique
Société
La manipulation de l'information et la désinformation ne sont pas choses nouvelles sur les réseaux sociaux. Mais pour la prix Nobel de la Paix Maria Ressa et des chercheuses et chercheurs comme Meeyoung Cha, Daniel Thilo ou Gary Marcus, des essaims d'IA malveillants pourraient renforcer encore l'influence de ce genre d'attaques contre la démocratie.
Dans un texte publié dans la revue Science (dans une rubrique de discussion des intersections entre sciences et société), ils alertent sur le fait que « les progrès réalisés dans le domaine de l'intelligence artificielle (IA) offrent la possibilité de manipuler les croyances et les comportements à l'échelle d'une population entière » via les réseaux sociaux. Et des organisations comme celles derrière la ferme à trolls Internet Research Agency pourraient, selon eux, réitérer des attaques pour influencer des élections en ayant beaucoup plus de chances de réussir.
De potentielles fermes à trolls boostées par des agents IA
La campagne d'influence de cette ferme à trolls russe lancée pendant les élections américaines de 2016 n'a pas eu le succès escompté, selon une étude du phénomène : « l'exposition aux comptes de désinformation russes était fortement concentrée : seulement 1 % des utilisateurs représentaient 70 % des expositions ». Ils étaient pour la plupart républicains convaincus. Et les effets de cette campagne étaient « éclipsés par les informations diffusées par les médias nationaux et les politiciens ».
Depuis, l'IA générative a élargi la panoplie des outils de désinformation. La Moldavie l'a encore démontré pendant sa campagne électorale de septembre dernier, perturbée par des réseaux de désinformation russes.
Mais les agents IA, notamment le fait de pouvoir les gérer en « essaim », changeraient potentiellement la donne. Avec un but malveillant, un groupe d'Agents IA pourrait cibler efficacement des sous-groupes d'utilisateurs d'un réseau social : « Un essaim d'IA malveillant est un ensemble d'agents contrôlés par l'IA qui (i) conservent une identité et une mémoire persistantes ; (ii) se coordonnent pour atteindre des objectifs communs tout en variant le ton et le contenu ; (iii) s'adaptent en temps réel à l'engagement, aux signaux de la plateforme et aux réponses humaines ; (iv) fonctionnent avec un minimum de supervision humaine ; et (v) peuvent être déployés sur différentes plateformes ».
Une automatisation pour de la désinformation plus efficace ?
D'un centre de commande, on passe, avec ces essaims d'agents IA, à une « coordination fluide en temps réel », expliquent les chercheurs. De plus, les signataires du texte imaginent la possibilité d'utiliser ces agents IA pour cartographier les structures des réseaux sociaux et viser des communautés vulnérables. Le but : gagner des followers ou influencer ces communautés en adaptant les messages générés par IA. Ces « essaims » pourraient s'appuyer sur les données d'engagement pour s’optimiser et gagner en influence à long terme, insistent-ils.
D'autant que certains chercheurs expliquent, comme dans cette étude mise en ligne sur arXiv par David Garcia qui cosigne l'article de Science, que des agents IA peuvent se coordonner à une échelle beaucoup plus élevée que les humains. Reste quand même que, dans la pratique, les agents peuvent facilement tomber dans une boucle infinie ou s'empêtrer dans une stratégie qui ne fonctionne pas.
Mais « cibler des individus ou des communautés spécifiques va devenir beaucoup plus facile et efficace », confirme le chercheur Lukasz Olejnik interrogé par Wired sur le sujet, « c'est un environnement extrêmement difficile pour une société démocratique. Nous sommes dans une situation très préoccupante ».
À voir si l'arrivée de ce genre d' « essaims » ne change pas radicalement l'expérience des utilisateurs des réseaux sociaux jusqu'à les pousser à les quitter.
Des essaims d’IA pourraient augmenter l’efficacité de la manipulation des réseaux sociaux
-
De potentielles fermes à trolls boostées par des agents IA
-
Une automatisation pour de la désinformation plus efficace ?
Commentaires (6)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 29/01/2026 à 16h24
Le 29/01/2026 à 19h41
Un mal pour un bien.
Le 29/01/2026 à 20h30
Le 30/01/2026 à 07h47
A ce propos, qu'est-ce que c'est difficile de trouver des infos maintenant.
Il y a de moins en moins de forum de discussions proposés en réponse sur les moteurs recherche.
Ont-ils disparus ? Ou les moteurs ne cherchent plus vraiment ?
Modifié le 30/01/2026 à 08h35
Le souci des médias sociaux, c'est qu'ils ne sont pas indexés (seuls les profils le sont), et en plus les contenus sont bloqués derrière des murs login. Donc l'information se retrouve emprisonnée et verrouillée.
C'est tout l'ironie de ces plateformes : grosse visibilité quand on est sur le Minitel, et parfaitement invisible à l'extérieur. Une belle prison
Le 30/01/2026 à 00h13
Ce qui veut aussi dire que c'est la fin de l'anonymat sur Internet si le système d'authentification est mal fichu...
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?