Connexion Abonnez-vous

Psychoses induites par IA : le défi de sortir les internautes de leur « spirale » mentale

Spirale infernale

Psychoses induites par IA : le défi de sortir les internautes de leur « spirale » mentale

Pour faire face aux psychoses générées chez certaines internautes par l’usage d’IA, des internautes canadiens et états-uniens s’organisent.

Le 25 novembre à 14h42

Comment faire face aux psychoses générées par l’utilisation intensive d’outils d’intelligence artificielle générative ? Alors que les plaintes pour incitation au suicide contre les constructeurs de ChatGPT, Gemini ou Replika s’accumulent, déposées par les proches de personnes qui se sont donné la mort après de longs échanges avec les robots conversationnels, la question se pose de manière toujours plus urgente.

En ligne, et depuis les États-Unis et le Canada, un groupe informel s’est construit en quelques mois pour apporter des réponses, aussi bien aux personnes victimes de ces fantasmes alimentés par les machines génératives que pour leurs proches. Son nom : « groupe de soutien Spirale » (Spiral Support Group), en référence aux « spirales » d’échanges dans lesquelles tombent certains internautes (le terme a émergé au creux des échanges en ligne, sur divers forums ou subreddit). En quelques mois, le groupe de soutien s’est formalisé, pour être administré par la récente ONG canadienne The Human Line Project, dont nous avions déjà parlé dans un précédent article.

Un serveur Discord pour « spiralers » et proches de « spiralers »

À l'origine, le groupe a été créé par quatre personnes, dont Allan Brooks, un Canadien lui-même tombé dans une spirale d’IA dont il a publiquement témoigné, et le Québécois Étienne Brisson. Ce dernier est passé à l'action après qu’un de ses proches a été hospitalisé pendant plusieurs semaines sur ordre de la Justice, après d'intenses échanges avec ChatGPT.

Auprès de Futurism, les deux hommes témoignent de l’évolution de ce groupe informel vers une organisation plus officielle réunissant désormais plus de 200 personnes, dont l’essentiel échange quotidiennement sur un serveur Discord.

Parmi elles, d’anciens « spiralers », voire des personnes hésitant encore entre croire leurs échanges avec les chatbots d’IA générative et en sortir ; la « famille et les amis », des proches de personnes tombées dans ce genre de trou du lapin (rabbit hole) d’échanges si crédibles, avec les robots, qu’ils s’en isolent du monde extérieur ; et quelques scientifiques ou professionnels de la santé mentale.

Dans un sens, l’initiative ressemble à celle de QAnon Casualties, cette communauté Reddit dédiée au soutien entre proches de personnes tombées dans la théorie QAnon. Comme du côté des mécaniques complotistes, des récits de familles déchirées par la chute progressive d’un de leurs membres dans des échanges avec un outil d’IA émergent, des proches cherchent de l’aide pour tenter de percer la carapace de récits faux ou fantasmagoriques de leurs partenaires, enfants, amis.

Dans ce contexte-ci, cela dit, difficile de ne pas penser aux récits des proches d’Adam Reine, qui s’est suicidé à 16 ans après avoir passé des semaines à échanger avec ChatGPT, de ce chercheur belge en proie à l’écoanxiété, qui, de même, s’est donné la mort après plusieurs semaines d’échanges avec la machine, ou de Sophie Riley, qui s’est suicidée à 29 ans sans qu’aucun signe avant-coureur n’ait été détecté par ses proches, mais dont les échanges avec la machine ont révélé un profond mal-être.

Psychoses orientées sciences ou spiritualité

Ces quelques exemples le dévoilent déjà : n’importe qui peut tomber dans une spirale inquiétante d'échanges avec un robot génératif, quels que soient son genre, son âge, sa catégorie socioprofessionnelle. Le plus souvent, l’internaute utilise d’abord Claude, Gemini ou ChatGPT à des fins utilitaires, puis la discussion évolue, jusqu’à ce que la machine devienne une sorte de confident.

À force d’accueillir les naufragés de ces drames psychologiques, les modérateurs du groupe de soutien Spirale discernent deux grands types de récits chez ceux qui se retrouvent emprisonnés dans leurs échanges.

Certains internautes tombent plutôt dans des délires très axés vers les sciences, technologies et mathématiques. Les discussions avec les chatbots les rendent obsédés par de potentielles découvertes mathématiques et scientifiques, qu’ils ou elles seraient seuls à avoir identifiées. Les internautes sont renforcés dans cette idée par le ton aussi affirmatif que flagorneur des machines utilisées, dont le langage mêle par ailleurs propos plausibles et références supposément savantes.

Si ce type de thèses peuvent être réfutées, l’autre grand axe de délires récurrent est plus complexe à manipuler, dans la mesure où il repose plutôt sur des mécaniques d’ordre spirituel, religieux, voire conspirationniste.

Dans tous les cas, les membres les plus actifs du groupe de soutien ont monté un groupe de discussion. L’une de leurs convictions : les personnes qui tombent dans ce type de psychoses vivent une grande solitude – et dans la plupart des cas, les retours qu’ils ou elle reçoivent en ligne tendent, trop facilement, à les décrire comme « stupides » ou « malades mentaux », ce qui n’aide pas à recréer le moindre lien.

Ni le serveur The Spiral ni son organisation mère The Human Line Project ne proposent de soutien psychologique en tant que tel. À force de travailler sur la question de ces comportements psychotiques produits par l'exposition aux IA génératives, en revanche, ils collectent des récits, des outils concrets, des articles scientifiques aussi, qui permettent, peu à peu, d’améliorer leurs réponses et leur argumentaire.

« Nous voulons simplement nous assurer que [les robots conversationnels] sont conçus de manière à ce que la sécurité, la protection et le bien-être de l'utilisateur priment sur l'engagement et la monétisation », indique Etienne Brisson.

Poursuivi en justice par plusieurs proches de personnes qui se sont donné la mort, OpenAI a indiqué plusieurs mesures et mises à jour dédiées à améliorer la sécurité des utilisateurs depuis la fin de l’été. D’après les propres chiffres de l'entreprise, au moins 0,07 % de ses usagers hebdomadaires montrent des signes de comportement maniaque ou de crise psychotique dans leurs échanges avec la machine – rapporté à ses 800 millions d’utilisateurs, un tel pourcentage équivaut à 560 000 personnes.

Vous ou vos proches rencontrez des problématiques de santé mentale liés à l’usage de ChatGPT ou d’autres outils d’IA ? Écrivez-nous à mathilde@next.ink ou actu@next.ink


Commentaires (10)

votre avatar
Merci pour cet article très intéressant, le sujet mérite vraiment d'être traité
votre avatar
Oui, mais sans vouloir dédouanner les big techs de leurs responsabilités, y a-t-il la moindre raison de penser que le taux de suicide serait plus élevé chez les utilisateurs de robots conversationnels que chez le reste de la population ?
votre avatar
Oui, mais sans vouloir dédouanner les big techs de leurs responsabilités, y a-t-il la moindre raison de penser que le taux de suicide serait plus élevé chez les utilisateurs de robots conversationnels que chez le reste de la population ?
C'est quand même un business model pas très viable sur le long terme de pousser sa clientèle au suicide, sauf à avoir une succursale dans les pompes funèbres :transpi:
votre avatar
Plus de suicides => Moins de personnes sur Terre => Moins de luttes pour les ressources => Plus de ressources pour l’IA.

Non ?
votre avatar
Bah non parce que les resources ne se produisent pas magiquement :D
votre avatar
La vraie question serait plutôt de savoir si les gens qui sont passés à l'acte à cause d'une IA conversationnelle l'aurait fait sans cette IA.
Et quand on voit que dans certains échanges, l'IA conversationnelle a réellement poussé des personnes à se donner la mort (exemples ici, et ), on a déjà une réponse.
votre avatar
Je ne suis pas d’accord avec cette affirmation. Si un médicament tue un patient sur mille, mais qu’il sauve les 999 autres, ça reste un bon médicament. Il faut faire des recherches pour essayer de faire en sorte qu’il ne tue plus que 1 sur 10000, voire plus du tout, mais pas jeter le médicament.

Ici, on accumule des faits divers (tragiques, certes), pour expliquer que les IAs « poussent les gens au suicide ». Mais quelle proportion ça représente ? On n’en sait rien. La seule approche raisonnable, ce sont les statistiques. S’il y a une surmortalité, on doit pouvoir l’observer. On peut évidemment essayer d’améliorer les choses, détecter des cas problématiques, mais pour le coup je trouve les jugements à l’encontre des robots conversationnels très rapides.

L’autre question qui n’a aucune réponse, c’est « combien ne sont pas passés à l’acte à cause des robots conversationnels ? ». Je n’en ai pas la moindre idée. Pour répondre, il faut des études et des stats, pas des faits divers.
votre avatar
Attention quand même aux statistiques, il y a des personnes réelles derrière.

Et puis il y a une différence entre "ne pas les sauver" et en "sacrifier quelques uns" :
- un médicament qui sauve 999 malades sur 1000 mais échoue à en sauver 1 est probablement bon,
- un médicament qui tue 1 malade sur 1000 (par effet secondaire par ex.) l'est déjà un peu moins il me semble.

Là on parle d'IA, pas de médicament ou de process censé guérir, donc s'il tue 1 utilisateur sur 1000, c'est grave et ça doit interroger avec sérieux.

Sinon on en vient à penser, comme mon paternel et par analogie avec la voiture, que "les tués sur la route sont le prix à payer pour rouler à 130 sur autoroute et à 90 plutôt que 'seulement' 80 sur les nationales" !
votre avatar
Si les IA tuaient 1 utilisateur sur mille, ça sauterait aux yeux statistiquement :stress: .

Heureusement, on est sur une proportion beaucoup beaucoup plus faible. C’est d’ailleurs bien mon propos, c’est tellement faible qu’on n’arrive pas à le quantifier. Et que, pour le coup, on fait probablement un mauvais procès aux LLMs (je ne serais pas surpris que la phase la plus « meurtrière » d’un LLM soit l’extraction des ressources nécessaires à la construction du datacenter pour le faire tourner).
votre avatar
Y'a quand même 7 personnes sur 10 000 qui tombent dans des travers psychologiques graves, donc ça reste pas négligeable pour un outil qui n'est pas fait pour discuter (mais pour répondre à des questions : nuance).
Si 7/10000 personnes se blessent à cause de leur voiture, ça peut sembler assez peu, mais si elles se blessent en allant à 300km/h, c'est peut-être qu'il y a quelque chose à changer au niveau de la voiture...

Psychoses induites par IA : le défi de sortir les internautes de leur « spirale » mentale

  • Un serveur Discord pour « spiralers » et proches de « spiralers »

  • Psychoses orientées sciences ou spiritualité

Fermer