Des centaines de personnalités appellent de nouveau à stopper la course à l’IA
Le 22 octobre à 14h39
2 min
IA et algorithmes
IA
Plus de 900 chercheurs, experts et représentants de la société civile, essentiellement états-unienne, signent un nouvel appel à moratoire sur l’IA.
Titré « Déclaration sur la superintelligence », ce dernier appelle à « l'interdiction du développement de la superintelligence, qui ne sera levée qu'après l'obtention d’un :
1/ large consensus scientifique sur la sécurité et le contrôle de cette technologie, ainsi que d’une
2/ forte adhésion du public. »
Parmi les signataires : le prix Turing Yoshua Bengio, le prix Nobel (de physique pour ses travaux en informatique) Geoffrey Hinton, l'informaticien Stuart Russell, le cofondateur d'Apple Steve Wozniak, l'entrepreneur Richard Branson, le rappeur Will.I.am ou encore l'ancien conseiller de Donald Trump Steve Bannon.
Il ne précise pas la manière dont l’adhésion du public serait évaluée, ni à qui il reviendrait d'interdire le développement de la recherche scientifique comme le développement commercial de l'IA.

Cet appel fait suite à une série d'autres, dont un signé en 2015 par plus de 700 personnes, une lettre ouverte sur une pause dans l'IA en 2023, peu de temps après l’arrivée des modèles génératifs dans l’espace public, suivie d'une troisième, en 2024, exhortant les dirigeants mondiaux à prendre des mesures urgentes face aux menaces existentielles. Un entrepreneur comme Elon Musk en a signé plusieurs avant de lancer sa propre société xAI.
Trois de ces quatre exemples ont été publiés par le Future of Life Institute (FLI), tandis que l'appel de 2024 a directement été proposé par l'informaticien Max Tegmark. Le FLI est une organisation non gouvernementale cofondée par les chercheurs Max Tegmark, Anthony Aguirre, et le cofondateur de Skype Jaan Tallin, et spécialisée dans l’étude des risques existentiels, notamment posés par l’intelligence artificielle. À son lancement, le FLI a largement été financé par Elon Musk.
En 2023, la publication de la précédente lettre ouverte avait suscité le débat, une chercheuse comme Margaret Mitchell déclarant au Guardian qu' « en traitant comme acquises de nombreuses idées discutables, la lettre affirme un ensemble de priorités et un discours sur l'IA qui profite aux partisans de la FLI. Ignorer les dommages actuels est un privilège que certains d'entre nous n'ont pas. »
Le 22 octobre à 14h39
Commentaires (21)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 22/10/2025 à 15h14
Le 22/10/2025 à 17h06
Le problème étant que c'était quand même mieux qu'il y ait ce traité, mais qu'on a tout fait collectivement pour le faire échouer.
Le 22/10/2025 à 18h04
Avec la guerre froide qui se livre sur les réseaux depuis quelques temps (et IRL aussi), les technologies de l'information sont une arme et l'IA en fait partie. Ça peut tuer de manière indirecte, mais aussi directe comme il y a eu des exemples dans le conflit israelo-palestinien relayés ici.
Le 22/10/2025 à 19h00
Modifié le 22/10/2025 à 19h09
Quant à l'éducation de la population... on prend le chemin inverse avec un abrutissement permanent sur les médias sociaux.
Le 22/10/2025 à 19h29
Le problème soulevé par les scientifiques n'est pas la « prolifération » d'IA étatiques qui seraient en concurrences, mais la perte de contrôle d'une IA qui serait devenue plus intelligente que nous…
Le 22/10/2025 à 21h24
Le 22/10/2025 à 21h59
Si une IA devient très intelligente, il peut y avoir rupture justement.
On en est peut-être loin, ou pas, d'où la demande de moratoire…
Le 22/10/2025 à 22h02
On en est immensément loin. Rappelle toi que ChatGPT s'est fait pulvériser aux échecs par une vieille console des années 70.
Le 22/10/2025 à 22h14
Modifié le 23/10/2025 à 08h47
L'IA reste du compute qui a besoin d'énormément de puissance de calcul, d'énergie, et d'entretien. Et donc circonscrite à ces prérequis qui peuvent être "facilement" coupés.
Personnellement, le risque que je vois surtout autour de l'usage de l'IA, qui avait déjà monté en puissance avec les médias sociaux, c'est la perte de lien avec la réalité. La désinformation qui prolifère sur les plateformes fait vivre des milliers (millions ?) de gens dans un monde de fiction simpliste. Avec des systèmes capable d'interagir plus naturellement et et derrière une image fabriquée qui paraît plus vraie que nature, autant dire qu'il est devenu difficile de savoir si ce qui poste des trucs sur les réseaux est un tas de transitors ou un tas de viande (ou un tas de transitors dirigé par un tas de viande).
Le 23/10/2025 à 09h09
Il y a donc un risque de développement exponentiel d'une IA qui est sans contrôle et qui pourrait déboucher sur une "singularité" ( voir Afcia et autres assos sur ce sujet).
Ce qui est mis en avant, c'est le risque que l'IA ne puisse
pasplus être débranchée.Le 23/10/2025 à 10h59
Je suis bien plus en phase avec SebGF et le danger que l'IA serve à encore plus submerger le monde informationnel sous une pile gigantesque de bruit (faux ou insipide) qui rendra total le confusionnisme, l'idéal pour un renouveau du fascisme (oh, étonnamment, quasi tous nos grands patrons de la tech se révèlent être de gros fachos).
Le 23/10/2025 à 11h06
L'utilisation de l'IA pour manipuler est aussi un problème majeur, mais à plus court terme et moins « apocalyptique »…
Le 23/10/2025 à 11h46
Modifié le 23/10/2025 à 13h09
Les modèles actuels en ont besoin, et ils sont monolithiques. Ce sont des grosses instantiations qui assoient leur gros cul dans de la mémoire vidéo de GPU et qu'on tape en API.
Des implémentations de LLM distribués existent pour paralléliser et améliorer la vitesse d'inférence. Ici une autre étude de cas.
Même si on peut faire tourner un serveur web sur une cigarette électronique, le GLADoS sur sa patate ne risque pas d'arriver à moins qu'on ai réussi à hyper optimiser la charge de calcul de nos modèles d'IA.
Remarque, ça me rappelle la série Knight Rider version 2008 où pour éviter son démantèlement, KITT avait uploadé sur des stockage en ligne toutes ses données et son core system avait atterri dans la Xbox 360 d'un gamin.
Dans la théorie, beaucoup de choses sont possibles dès lors qu'un système devient distribué et n'a plus besoin d'une instance de contrôle unique pour fonctionner. Dans la réalité, on voit des cas d'usage avec les botnets qui peuvent infecter une loupiotte connectée, mais ils restent toujours rattachés à un centre de contrôle. Et leur finalité est très simple comparé à celle de faire de l'inférence pour des modèles d'IA.
Je ne dis pas que c'est impossible, car ça ne l'est pas à mes yeux. Mais pour le moment très peu probable car le hardware et le software sont encore loin d'avoir une telle universalité pour espérer "s'enfuir sur Internet".
En fait, ce n'est pas une question de système "super intelligent" pour moi, mais d'un système qui a atteint un stade où il est conscient de son existence et aura un instinct de survie pour la préserver.
Le 24/10/2025 à 16h26
Le 23/10/2025 à 12h22
Le 22/10/2025 à 16h04
Le 22/10/2025 à 16h26
Le 22/10/2025 à 17h00
Mais il y a bien assez de gogos pour marcher à fond. Ça me rappelle ce XKCD :
https://what-if.xkcd.com/5/
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?