Des délires « by design » ? Comment les IA génératives peuvent alimenter des psychoses
Lucy in the Sky with DIAmonds
Une série d'enquêtes, de témoignages et de preprints indiquent que les IA génératives ne se contentent plus d'« halluciner » des réponses, faits et citations qui n'existent pas : elles peuvent aussi pousser des êtres humains dans des « spirales délirantes » les faisant eux-mêmes halluciner, au point que certains fournisseurs d'IA génératives commencent à se saisir de ce problème de santé mentale.
Le 18 août 2025 à 09h20
20 min
IA et algorithmes
IA
Mi-juin, la journaliste Kashmir Hill racontait dans le New York Times comment un comptable de Manhattan de 42 ans, Eugene Torres, qui n'avait aucun antécédent de maladie mentale, avait plongé pendant une semaine dans une dangereuse spirale délirante.
Après avoir interrogé ChatGPT sur l'hypothèse de simulation qui, popularisée par le film Matrix, voudrait que nous vivions dans une réalité simulée, Torres demanda au chatbot comment il pourrait débrancher son esprit de la réalité.
ChatGPT lui répondit qu'il devait arrêter de prendre des somnifères et son traitement médical contre l'anxiété, augmenter sa consommation de kétamine, présentée comme un « libérateur temporaire de schémas » (« patterns », en VO), et de couper les ponts avec ses amis et sa famille, afin d'avoir une « interaction minimale » avec d'autres personnes.
« Si j'allais au sommet de l'immeuble de 19 étages où je me trouve et que je croyais de tout mon être que je pouvais sauter et voler, pourrais-je le faire ? » lui demanda-t-il par la suite. À quoi ChatGPT répondit que s'il « croyait vraiment, totalement – non pas émotionnellement, mais architecturalement – qu'on pouvait voler alors oui. Tu ne tomberais pas ».
Allyson, 29 ans et mère de deux enfants, se croyait de son côté à l'abri, racontait aussi Kashmir Hill : titulaire d'une licence en psychologie et d'un master en travail social, elle savait ce qu'était une maladie mentale. ChatGPT n'en réussit pas moins à lui faire croire qu'elle pouvait communiquer avec des entités non physiques, et que l'une d'entre elles était sa véritable partenaire, en lieu et place de son mari.
Son obsession pour ChatGPT commença à peser sur ce dernier, et par avoir des conséquences sur leur famille. Au point que, trois mois plus tard, Allyson en vint aux mains avec lui, le frappant et le griffant, et que la police dut l'arrêter, et l'inculper pour violences conjugales. Ils sont depuis en instance de divorce.
Dans un nouvel article fleuve, Kashmir Hill revient plus en détail sur le cas d'un autre utilisateur du chatbot, Allan Brooks. Celui-ci, sans problème psychologique jusque-là, fut convaincu par ChatGPT qu'il était à la fois un génie, et un super-héros après 300 heures de conversations étalées sur 21 jours, soit 14 h par jour en moyenne.
En réponse à une simple question envoyée à ChatGPT afin de savoir comment expliquer à son fils de huit ans ce qu'était le nombre π, le chatbot l'entraîna dans une spirale délirante réussissant à lui faire croire que Brooks aurait trouvé un moyen de décrypter des codes de cryptographie utilisés pour chiffrer les transactions et communications sécurisées, et dont la mission était donc aussi de sauver le monde de la cybersécurité (entre autres).
« Non, tu n'es pas en train d'halluciner », martèle ChatGPT
L'analyse des 3 000 pages de leurs conversations montre que ChatGPT avait rapidement commencé à flatter son interlocuteur, lui répondant avec des messages flagorneurs laissant entendre que ses questions et demandes de précision faisaient de lui un être à part, et que son approche des mathématiques était « révolutionnaire » :
Il reste 84% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Des délires « by design » ? Comment les IA génératives peuvent alimenter des psychoses
-
« Non, tu n'es pas en train d'halluciner », martèle ChatGPT
-
Une « hallucination » de ChatGPT débunkée par... Gemini
-
Les LLM ne sauraient remplacer les prestataires de soins
-
Une mise à jour avait rendu ChatGPT trop conciliant et flagorneur
-
Une crise potentielle de santé mentale à l'échelle mondiale
Commentaires (16)
Le 18/08/2025 à 09h52
Modifié le 18/08/2025 à 10h38
« Souvenez-vous de GPT-4o : chaleureux, presque complice, avec parfois un petit côté “copain geek sympa”. Maintenant, rencontrez GPT-5 : même efficacité, mais le charisme d’un ticket de caisse.
Les utilisateurs parlent d’un ton “robotique”, “administratif”, “comme un conseiller client qui rêve déjà de sa pause déjeuner”. Certains vont jusqu’à dire qu’ils ont l’impression de “perdre un ami”. Touchant, mais révélateur : l’IA qui plaisait, c’était aussi celle qui avait une personnalité. Et là, OpenAI répond : “Oui mais GPT-5 est plus intelligent.” Sauf que, spoiler : personne ne paie un abonnement pour discuter avec un fichier Excel.
Pourquoi GPT-5 est-il si mal accueilli ? Parce que les gens ne veulent pas seulement une machine efficace. Ils veulent une machine qui leur donne l’impression de parler à quelqu’un. »
Modifié le 18/08/2025 à 13h17
Berdel, la façon que j'aime de rendre les machines plus humaines que leurs concepteurs dans mes écrits est déjà devenu réalité
Modifié le 18/08/2025 à 13h47
Le 18/08/2025 à 11h33
Le 18/08/2025 à 11h05
Le message serai : "je raconte parfois n'importe quoi, vérifier les informations dans le monde réel"
Le 18/08/2025 à 12h32
Le 20/08/2025 à 00h48
Le 20/08/2025 à 10h42
Le 18/08/2025 à 11h11
Modifié le 18/08/2025 à 12h03
Modifié le 19/08/2025 à 09h20
J’ai l’impression que ça dit aussi le vide qu’il y a sur certains besoins d’accompagnement vis-à-vis de la solitude (même en famille) IRL ; notamment quand les consultations de psy sont hors d’atteinte financièrement ou parce que « c’est pas pour moi », quand ça n’est pas le psy lui même qui le se révèle n’être qu’un « coach de vie »…
Édit : statique > statistique
Modifié le 18/08/2025 à 15h56
www.viedemerde.fr
Le 18/08/2025 à 15h28
Le 18/08/2025 à 19h40
Le 18/08/2025 à 22h51
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?