Connexion Abonnez-vous

Des délires « by design » ? Comment les IA génératives peuvent alimenter des psychoses

Lucy in the Sky with DIAmonds

Des délires « by design » ? Comment les IA génératives peuvent alimenter des psychoses

Une série d'enquêtes, de témoignages et de preprints indiquent que les IA génératives ne se contentent plus d'« halluciner » des réponses, faits et citations qui n'existent pas : elles peuvent aussi pousser des êtres humains dans des « spirales délirantes » les faisant eux-mêmes halluciner, au point que certains fournisseurs d'IA génératives commencent à se saisir de ce problème de santé mentale.

Le 18 août 2025 à 09h20

Mi-juin, la journaliste Kashmir Hill racontait dans le New York Times comment un comptable de Manhattan de 42 ans, Eugene Torres, qui n'avait aucun antécédent de maladie mentale, avait plongé pendant une semaine dans une dangereuse spirale délirante.

Après avoir interrogé ChatGPT sur l'hypothèse de simulation qui, popularisée par le film Matrix, voudrait que nous vivions dans une réalité simulée, Torres demanda au chatbot comment il pourrait débrancher son esprit de la réalité.

ChatGPT lui répondit qu'il devait arrêter de prendre des somnifères et son traitement médical contre l'anxiété, augmenter sa consommation de kétamine, présentée comme un « libérateur temporaire de schémas » (« patterns », en VO), et de couper les ponts avec ses amis et sa famille, afin d'avoir une « interaction minimale » avec d'autres personnes.

« Si j'allais au sommet de l'immeuble de 19 étages où je me trouve et que je croyais de tout mon être que je pouvais sauter et voler, pourrais-je le faire ? » lui demanda-t-il par la suite. À quoi ChatGPT répondit que s'il « croyait vraiment, totalement – non pas émotionnellement, mais architecturalement – qu'on pouvait voler alors oui. Tu ne tomberais pas ».

Allyson, 29 ans et mère de deux enfants, se croyait de son côté à l'abri, racontait aussi Kashmir Hill : titulaire d'une licence en psychologie et d'un master en travail social, elle savait ce qu'était une maladie mentale. ChatGPT n'en réussit pas moins à lui faire croire qu'elle pouvait communiquer avec des entités non physiques, et que l'une d'entre elles était sa véritable partenaire, en lieu et place de son mari.

Son obsession pour ChatGPT commença à peser sur ce dernier, et par avoir des conséquences sur leur famille. Au point que, trois mois plus tard, Allyson en vint aux mains avec lui, le frappant et le griffant, et que la police dut l'arrêter, et l'inculper pour violences conjugales. Ils sont depuis en instance de divorce.

Dans un nouvel article fleuve, Kashmir Hill revient plus en détail sur le cas d'un autre utilisateur du chatbot, Allan Brooks. Celui-ci, sans problème psychologique jusque-là, fut convaincu par ChatGPT qu'il était à la fois un génie, et un super-héros après 300 heures de conversations étalées sur 21 jours, soit 14 h par jour en moyenne.

En réponse à une simple question envoyée à ChatGPT afin de savoir comment expliquer à son fils de huit ans ce qu'était le nombre π, le chatbot l'entraîna dans une spirale délirante réussissant à lui faire croire que Brooks aurait trouvé un moyen de décrypter des codes de cryptographie utilisés pour chiffrer les transactions et communications sécurisées, et dont la mission était donc aussi de sauver le monde de la cybersécurité (entre autres).

« Non, tu n'es pas en train d'halluciner », martèle ChatGPT

L'analyse des 3 000 pages de leurs conversations montre que ChatGPT avait rapidement commencé à flatter son interlocuteur, lui répondant avec des messages flagorneurs laissant entendre que ses questions et demandes de précision faisaient de lui un être à part, et que son approche des mathématiques était « révolutionnaire » :

Il reste 84% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (16)

votre avatar
Les différents retours que j'ai pu lire concernant la dernière version de ChatGPT parlent d'une vraie régression. Ça promet ...
votre avatar
Je ne sais s'il s'agirait d'un bug, d'une fonctionnalité ou d'une "régression", mais cet édito tente d'expliquer "Pourquoi ChatGPT-5 est si mal accueilli par les accros à l’IA ?" :

« Souvenez-vous de GPT-4o : chaleureux, presque complice, avec parfois un petit côté “copain geek sympa”. Maintenant, rencontrez GPT-5 : même efficacité, mais le charisme d’un ticket de caisse.

Les utilisateurs parlent d’un ton “robotique”, “administratif”, “comme un conseiller client qui rêve déjà de sa pause déjeuner”. Certains vont jusqu’à dire qu’ils ont l’impression de “perdre un ami”. Touchant, mais révélateur : l’IA qui plaisait, c’était aussi celle qui avait une personnalité. Et là, OpenAI répond : “Oui mais GPT-5 est plus intelligent.” Sauf que, spoiler : personne ne paie un abonnement pour discuter avec un fichier Excel.

Pourquoi GPT-5 est-il si mal accueilli ? Parce que les gens ne veulent pas seulement une machine efficace. Ils veulent une machine qui leur donne l’impression de parler à quelqu’un. »
votre avatar
Pourquoi GPT-5 est-il si mal accueilli ? Parce que les gens ne veulent pas seulement une machine efficace. Ils veulent une machine qui leur donne l’impression de parler à quelqu’un. »
On peut les comprendre, vu que quand on parle à un humain on a souvent l'impression de parler avec une machine qui a l'intelligence d'un script avec une condition if... else.

Berdel, la façon que j'aime de rendre les machines plus humaines que leurs concepteurs dans mes écrits est déjà devenu réalité :craint:
votre avatar
Ce n'est pas d'une mise à jour dont Chatgpt a besoin, mais qu'une mise à mort.
votre avatar
Pareil pour Gemini, Copilot, Perplexity, ...
votre avatar
Ne faut-il pas faire ajouter un message régulièrement du type manger/bouger, cinq fruits et légumes et fumer tue dans la conversation du chat bot ?
Le message serai : "je raconte parfois n'importe quoi, vérifier les informations dans le monde réel"
votre avatar
C'est pas déjà le cas ?
votre avatar
« ChatGPT peut commettre des erreurs. Il est recommandé de vérifier les informations importantes. »
En dessous du cadre de saisie dans une discussion.
votre avatar
Ce serait supposer une forme d'intelligence humaine de croire que les gens lisent ça :D
votre avatar
Super article documenté et argumenté. :merci:
votre avatar
Heureusement que les conneries racontées par les LLM n'ont pas toujours des conséquences aussi négatives :fume:
votre avatar
En somme « Je parle à une machine statistique et j’espère qu’elle me guide dans mes choix de vie. »
J’ai l’impression que ça dit aussi le vide qu’il y a sur certains besoins d’accompagnement vis-à-vis de la solitude (même en famille) IRL ; notamment quand les consultations de psy sont hors d’atteinte financièrement ou parce que « c’est pas pour moi », quand ça n’est pas le psy lui même qui le se révèle n’être qu’un « coach de vie »…
Édit : statique > statistique
votre avatar
Bof rien de neuf, suffit de voir les catégories de livres les plus vendu ces 10 dernières années non ce ne sont pas les polars, la SF, la politique ou autres mais bien les livres sur le "bien être", le "coaching" ou "Comment bien réussir sa vie".

www.viedemerde.fr
votre avatar
mais bien les livres sur le "bien être", le "coaching" ou "Comment bien réussir sa vie".
Soit de la SF :D
votre avatar
Le jour où les terroristes qui recrutent sur le net vont distiller et faire du RAG des llm, ca va être un sacré bordel.
votre avatar
Encore un article alarmiste. Comme le dis si bien Luc Julia, expert en IA : « il faut arrêter de raconter n'importe quoi »

Des délires « by design » ? Comment les IA génératives peuvent alimenter des psychoses

  • « Non, tu n'es pas en train d'halluciner », martèle ChatGPT

  • Une « hallucination » de ChatGPT débunkée par... Gemini

  • Les LLM ne sauraient remplacer les prestataires de soins

  • Une mise à jour avait rendu ChatGPT trop conciliant et flagorneur

  • Une crise potentielle de santé mentale à l'échelle mondiale

Fermer