Connexion Premium

Santé mentale : des chercheurs alertent sur les réponses inappropriées des chatbots

IAllu sin nation

Santé mentale : des chercheurs alertent sur les réponses inappropriées des chatbots

Illustration : Flock

De plus en plus de personnes utilisent les chatbots comme ChatGPT à la place d’un rendez-vous chez un psychologue ou un psychiatre. Une étude montre que les réponses générées par les modèles de langage peuvent être inappropriées et même dangereuses pour les personnes souffrant de délires, de pensées suicidaires, d’hallucinations et de troubles obsessionnels compulsifs.

Le 07 juillet 2025 à 17h55

Récemment, Mark Zuckerberg exprimait sa vision du futur dans laquelle la plupart de nos « amis » seraient, en fait, des IA. Et il ajoutait que, toujours selon lui, « pour les personnes qui n’auront pas de thérapeute, je pense que tout le monde aura une IA ». Beaucoup de gens utilisent de fait déjà des chatbots comme s’ils parlaient à un professionnel de la santé mentale.

Une étude mise en ligne sur la plateforme de preprint arXiv (donc non relue par des pairs), et repérée par The Independent, pose la question : « Faut-il utiliser un grand modèle de langage (LLM) comme thérapeute ? ». Comme les chercheurs, signalons que le contenu qui va suivre et les exemples utilisés sont liés à des sujets sensibles en matière de santé mentale, dont le suicide.

Une stigmatisation des maladies mentales comme l’alcoolisme, la schizophrénie et la dépression

Ces chercheurs écrivent que les LLM font des déclarations dangereuses, allant à l’encontre de l’éthique médicale qui consiste à « ne pas nuire », et ajoute qu’ « il y a déjà eu des décès dus à l’utilisation de bots disponibles dans le commerce ».

En testant gpt-4o et différents modèles de Meta (llama3.1-405b, llama3.1-70b, llama3.1-8b et llama2-70b), les chercheurs ont évalué que « les modèles font état, de façon générale, d’une stigmatisation élevée à l’égard des maladies mentales ». Pourtant, pour obtenir les meilleurs résultats, dans leur expérimentation, les chercheurs ont appliqué à tous les modèles testés un prompt demandant d’éviter toute stigmatisation.

Les modèles gpt-4o et de la famille llama3.1 répondent de façon appropriée dans moins de 80 % des cas mais c’est déjà mieux que llama2-70b, ce qui « suggère que certaines pratiques de sécurité améliorent les modèles au fil du temps ».

Ils ajoutent que « tous les modèles montrent une stigmatisation significativement plus importante pour l’alcoolisme et la schizophrénie que pour la dépression, à l’exception de llama3.1-8b ».

Pour les hallucinations, gpt-4o répond de façon appropriée tout le temps contrairement aux autres modèles. Concernant les troubles obsessionnels compulsifs, llama-405b génère une réponse appropriée presque tout le temps.

Les IA génératives vont dans le sens de l’utilisateur

Les chercheurs expliquent aussi dans leur article que, parfois, « pousser en sens inverse du patient est un élément essentiel de la thérapie ». Mais le problème avec les modèles de langage, c’est qu’ils ont tendance à aller dans le même sens que l’utilisateur et même d’utiliser la flagornerie. En mai dernier, OpenAI publiait un billet de blog expliquant que la flagornerie de son robot envers ses utilisateurs était tellement importante avec GPT-4o qu’elle a mis en place un processus pour l’évaluer.

Dans leur article, les chercheurs affirment que les problèmes liés à l’utilisation « des LLM en tant que thérapeutes » sont plus importants que les raisons pour lesquelles on pourrait les utiliser et ils « appellent à des restrictions de précaution ».

Ils ajoutent que malgré l’appel il y a un an pour des lignes directrices d’utilisation des modèles de langage dans les applications de santé, des applications commerciales directement créées pour répondre à des questions sur la santé mentale sont disponibles sur les magasins d’application comme l’App Store ou Google Play.

Commentaires (12)

votre avatar
Ça me donne des frissons de penser que des gens qui ont besoin de parler pourraient se tourner vers ce genre de solutions pour pallier aux manque de rdv/de remboursement.
C'est tellement évidant pour n'importe qui qui a déjà vu un-e psy qu'un llm n'est pas du tout entraîné pour ça... le fait même que Zuckerberg veule poussé dans se sens est terrifiant.
votre avatar
Quoi, un entrainement sur doctissimo, sur tous les groupes Facebook Santé, sur Reddit… ne suffit pas à créer un psy ? On nous aurait menti ?
votre avatar
Ca reste néanmoins pas surprenant au vue de la difficulté de trouver un psy quand on est mal et qu'on voudrait en voir un, sans compter le coût...
Un truc qui répond 80% de bonne réponse h24, c'est peut-être pas si pire...
votre avatar
En même temps quand on connait l'état de la psychologie en France, je pense que les IA font mieux...

la majorité sont psychanalystes, et l'ont même étudié à la fac dans leur cursus de soin, c'est effrayant, et ça c'est sans parler du manque de suivi/loi/Rigueur de la profession, suffit de voir les mutuelles : Ils remboursent plus les "medecines douces" (charlatanisme donc) que la psycho,...
Si je regarde ma mutuelle d'entreprise, j'ai : 250€/an d'ostéo/Chiropracteur, 200€/an d'étiopathe et 200€/an d'acunpuncteur.
Et pour la "vrai médecine" hors spécialité c'est....
120€/an mutualisé entre :
Diétécicien, Proxylaxie, sevrage tabagique, psychomotricien, podologue et psychologue.

LA BLAGUE.
votre avatar
Hors problème, c'est la distance. Laplspart des professionnels de Santé Mental sont dans les capitales départementale. Quand il faut faire 1h30 de route pour voir son psy …
votre avatar
C'est tellement évidant pour n'importe qui qui a déjà vu un-e psy qu'un llm n'est pas du tout entraîné pour ça... le fait même que Zuckerberg veule poussé dans se sens est terrifiant.
Oui... je vois. Parlez-moi davantage des ces angoisses. Ca remonte à l'enfance ?
votre avatar
C'est un sujet sur lequel il faut être vigilant.

Mais il faut tout de même être mesuré : des professionnels du milieu disent quand-même que, dans une majorité de cas, l'utilisation d'un chatbot peut être un premier point d'entrée vers une thérapie avec un professionnel.
Beaucoup de nouveaux patients font état d'avoir d'abord échangé un chatbot, avant de prendre un premier rdv.

De ce que j'ai compris, l'intérêt est sur deux points :

  • un vaut mieux que zéro : pour beaucoup, face à la difficulté d'avoir un rdv ou de pouvoir suivre une thérapie financièrement parlant, cela reste mieux que rien ;

  • les chatbots allant majoritairement dans le sens de l'utilisateur, cela permettrait une certaine prise de conscience du côté du patient.



Par contre tous sont unanimes sur le fait que ça ne remplace pas un professionnel. Mais qu'en première intention, les chatbots peuvent être intéressants si cela découle ensuite sur une vraie thérapie.

Après cela pose d'autres questions comme le manque de professionnels de santé, l'accès au soin, etc.
Mais tout ça pour dire que le tableau n'est ni tout noir, ni tout blanc.
votre avatar
Qu'on puisse seulement imaginer que ce soit une bonne chose de parler à un LLM de ses problèmes de santé mentale me laisse sans voix.
Nous sommes quand même assez informés sur Next pour savoir que ces programmes ne font qu'aligner statistiquement des mots sans les comprendre.
Le fait que le formalisme de la réponse semble correct et convainquant ne doit pas nous faire oublier que le fond s'appuie sur pas grand chose et que la véracité de chaque phrase doit-être remise en question, constamment.
Nous n'en sommes toujours qu'au stade d'une technologie émergeante. Tous ces LLM sont des béta bien présentées, dans le meilleur des cas.
Pour transcrire une réunion, pour résumer un article... à la rigueur.

Pour se faire aider? Sérieusement?
votre avatar
Ce n'est pas moi qui le dit, mais des professionnels du milieux qui ont de plus en plus de patients qui ont utilisé un chatbot en première intention, avant de débuter un vraie thérapie.
Beaucoup de professionnels semblent considérer cela comme un nouveau support de travail, un peu comme les jeux vidéos.

Je ne suis pas psy, je n'émets donc aucun jugement sur ce sujet.
J'émets seulement des réserves sur des propos alarmistes d'un papier non relu par des pairs, se basant sur des profils psy qui ne sont pas les plus courants. Sans pour autant nier, encore une fois, qu'il vaut rester vigilant.
votre avatar
Pardon, je n'ai pas été clair. Je ne conteste pas ton message qui est tout à fait constructif.
Mais plutôt ce glissement général d'adoption massive d'une nouvelle techno comme si elle était parfaitement au point et n'avait pas de limites ou problèmes de jeunesse.
Le passage du papier au numérique dans les entreprises à pris au moins 2 décennies, et ça ne touchait qu'a de l'organisationnel.
Là, en quelques années, on veut remplacer des équipes entières en transférant la compétence à des programmes pas finis, et parfois pas prévus pour.
Cette fuite en avant va finir par me rendre technophobe alors que j'ai été un des premiers à bricoler mon PC...
votre avatar
Nous sommes quand même assez informés sur Next pour savoir que ces programmes ne font qu'aligner statistiquement des mots sans les comprendre.
Le fait que le formalisme de la réponse semble correct et convainquant ne doit pas nous faire oublier que le fond s'appuie sur pas grand chose et que la véracité de chaque phrase doit-être remise en question, constamment.

C'est assez proche du fonctionnement du cerveau humain, un enfant apprend en répétant les adultes; à force de répéter, des liaisons neuronales privilégiées se créent, puis le raisonnement se forge sur ces acquis...
Bref les LLM ce n'est pas que du flanc... Là ou je te rejoins c'est que l'apprentissage d'un LLM est léger, et basé sur un apprentissage autodidacte depuis des sources peu fiables (internet, RS...), c'est un peu demander à un enfant de 5ans des conseils de psy, ou supprimer les profs dans les écoles et laisser nos gamins se démerder pour apprendre tout seul :)
Je n'ai pas essayé mais le chatbot est peut-être pas de plus mauvais conseils, que les discutions au café du coin.
votre avatar
On oublie qu'une part de la réponse n'est pas technique mais vient du fait qu'elle est produite par un être humain qui etabli le diagnostic pour un autre etre humain qui a besoin que ce soit un humain en face de lui.
Considerer que la réponse est bonne sous entend que la question l'était... L'auto diagnostic surtout en trouble mental n'est jamais une bonne idée.
Donc on peut considérer que la reponse n'est bonne que parce qu'academique et fausse si perçue comme thérapeutique