Santé mentale : des chercheurs alertent sur les réponses inappropriées des chatbots
IAllu sin nation
Illustration : Flock
Le 07 juillet 2025 à 17h55
De plus en plus de personnes utilisent les chatbots comme ChatGPT à la place d’un rendez-vous chez un psychologue ou un psychiatre. Une étude montre que les réponses générées par les modèles de langage peuvent être inappropriées et même dangereuses pour les personnes souffrant de délires, de pensées suicidaires, d’hallucinations et de troubles obsessionnels compulsifs.
Santé mentale : des chercheurs alertent sur les réponses inappropriées des chatbots
IAllu sin nation
Illustration : Flock
De plus en plus de personnes utilisent les chatbots comme ChatGPT à la place d’un rendez-vous chez un psychologue ou un psychiatre. Une étude montre que les réponses générées par les modèles de langage peuvent être inappropriées et même dangereuses pour les personnes souffrant de délires, de pensées suicidaires, d’hallucinations et de troubles obsessionnels compulsifs.
Le 07 juillet 2025 à 17h55
IA et algorithmes
IA
4 min
Récemment, Mark Zuckerberg exprimait sa vision du futur dans laquelle la plupart de nos « amis » seraient, en fait, des IA. Et il ajoutait que, toujours selon lui, « pour les personnes qui n’auront pas de thérapeute, je pense que tout le monde aura une IA ». Beaucoup de gens utilisent de fait déjà des chatbots comme s’ils parlaient à un professionnel de la santé mentale.
Une étude mise en ligne sur la plateforme de preprint arXiv (donc non relue par des pairs), et repérée par The Independent, pose la question : « Faut-il utiliser un grand modèle de langage (LLM) comme thérapeute ? ». Comme les chercheurs, signalons que le contenu qui va suivre et les exemples utilisés sont liés à des sujets sensibles en matière de santé mentale, dont le suicide.
Une stigmatisation des maladies mentales comme l’alcoolisme, la schizophrénie et la dépression
Ces chercheurs écrivent que les LLM font des déclarations dangereuses, allant à l’encontre de l’éthique médicale qui consiste à « ne pas nuire », et ajoute qu’ « il y a déjà eu des décès dus à l’utilisation de bots disponibles dans le commerce ».
En testant gpt-4o et différents modèles de Meta (llama3.1-405b, llama3.1-70b, llama3.1-8b et llama2-70b), les chercheurs ont évalué que « les modèles font état, de façon générale, d’une stigmatisation élevée à l’égard des maladies mentales ». Pourtant, pour obtenir les meilleurs résultats, dans leur expérimentation, les chercheurs ont appliqué à tous les modèles testés un prompt demandant d’éviter toute stigmatisation.
Les modèles gpt-4o et de la famille llama3.1 répondent de façon appropriée dans moins de 80 % des cas mais c’est déjà mieux que llama2-70b, ce qui « suggère que certaines pratiques de sécurité améliorent les modèles au fil du temps ».
Ils ajoutent que « tous les modèles montrent une stigmatisation significativement plus importante pour l’alcoolisme et la schizophrénie que pour la dépression, à l’exception de llama3.1-8b ».
Pour les hallucinations, gpt-4o répond de façon appropriée tout le temps contrairement aux autres modèles. Concernant les troubles obsessionnels compulsifs, llama-405b génère une réponse appropriée presque tout le temps.
Les IA génératives vont dans le sens de l’utilisateur
Les chercheurs expliquent aussi dans leur article que, parfois, « pousser en sens inverse du patient est un élément essentiel de la thérapie ». Mais le problème avec les modèles de langage, c’est qu’ils ont tendance à aller dans le même sens que l’utilisateur et même d’utiliser la flagornerie. En mai dernier, OpenAI publiait un billet de blog expliquant que la flagornerie de son robot envers ses utilisateurs était tellement importante avec GPT-4o qu’elle a mis en place un processus pour l’évaluer.
Dans leur article, les chercheurs affirment que les problèmes liés à l’utilisation « des LLM en tant que thérapeutes » sont plus importants que les raisons pour lesquelles on pourrait les utiliser et ils « appellent à des restrictions de précaution ».
Ils ajoutent que malgré l’appel il y a un an pour des lignes directrices d’utilisation des modèles de langage dans les applications de santé, des applications commerciales directement créées pour répondre à des questions sur la santé mentale sont disponibles sur les magasins d’application comme l’App Store ou Google Play.
Commentaires (12)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 07/07/2025 à 18h37
C'est tellement évidant pour n'importe qui qui a déjà vu un-e psy qu'un llm n'est pas du tout entraîné pour ça... le fait même que Zuckerberg veule poussé dans se sens est terrifiant.
Le 07/07/2025 à 18h59
Le 07/07/2025 à 19h01
Un truc qui répond 80% de bonne réponse h24, c'est peut-être pas si pire...
Le 07/07/2025 à 22h22
la majorité sont psychanalystes, et l'ont même étudié à la fac dans leur cursus de soin, c'est effrayant, et ça c'est sans parler du manque de suivi/loi/Rigueur de la profession, suffit de voir les mutuelles : Ils remboursent plus les "medecines douces" (charlatanisme donc) que la psycho,...
Si je regarde ma mutuelle d'entreprise, j'ai : 250€/an d'ostéo/Chiropracteur, 200€/an d'étiopathe et 200€/an d'acunpuncteur.
Et pour la "vrai médecine" hors spécialité c'est....
120€/an mutualisé entre :
Diétécicien, Proxylaxie, sevrage tabagique, psychomotricien, podologue et psychologue.
LA BLAGUE.
Le 08/07/2025 à 11h11
Le 08/07/2025 à 09h13
Le 07/07/2025 à 19h14
Mais il faut tout de même être mesuré : des professionnels du milieu disent quand-même que, dans une majorité de cas, l'utilisation d'un chatbot peut être un premier point d'entrée vers une thérapie avec un professionnel.
Beaucoup de nouveaux patients font état d'avoir d'abord échangé un chatbot, avant de prendre un premier rdv.
De ce que j'ai compris, l'intérêt est sur deux points :
Par contre tous sont unanimes sur le fait que ça ne remplace pas un professionnel. Mais qu'en première intention, les chatbots peuvent être intéressants si cela découle ensuite sur une vraie thérapie.
Après cela pose d'autres questions comme le manque de professionnels de santé, l'accès au soin, etc.
Mais tout ça pour dire que le tableau n'est ni tout noir, ni tout blanc.
Le 08/07/2025 à 15h07
Nous sommes quand même assez informés sur Next pour savoir que ces programmes ne font qu'aligner statistiquement des mots sans les comprendre.
Le fait que le formalisme de la réponse semble correct et convainquant ne doit pas nous faire oublier que le fond s'appuie sur pas grand chose et que la véracité de chaque phrase doit-être remise en question, constamment.
Nous n'en sommes toujours qu'au stade d'une technologie émergeante. Tous ces LLM sont des béta bien présentées, dans le meilleur des cas.
Pour transcrire une réunion, pour résumer un article... à la rigueur.
Pour se faire aider? Sérieusement?
Le 08/07/2025 à 16h04
Beaucoup de professionnels semblent considérer cela comme un nouveau support de travail, un peu comme les jeux vidéos.
Je ne suis pas psy, je n'émets donc aucun jugement sur ce sujet.
J'émets seulement des réserves sur des propos alarmistes d'un papier non relu par des pairs, se basant sur des profils psy qui ne sont pas les plus courants. Sans pour autant nier, encore une fois, qu'il vaut rester vigilant.
Modifié le 08/07/2025 à 16h35
Mais plutôt ce glissement général d'adoption massive d'une nouvelle techno comme si elle était parfaitement au point et n'avait pas de limites ou problèmes de jeunesse.
Le passage du papier au numérique dans les entreprises à pris au moins 2 décennies, et ça ne touchait qu'a de l'organisationnel.
Là, en quelques années, on veut remplacer des équipes entières en transférant la compétence à des programmes pas finis, et parfois pas prévus pour.
Cette fuite en avant va finir par me rendre technophobe alors que j'ai été un des premiers à bricoler mon PC...
Le 19/07/2025 à 11h40
C'est assez proche du fonctionnement du cerveau humain, un enfant apprend en répétant les adultes; à force de répéter, des liaisons neuronales privilégiées se créent, puis le raisonnement se forge sur ces acquis...
Bref les LLM ce n'est pas que du flanc... Là ou je te rejoins c'est que l'apprentissage d'un LLM est léger, et basé sur un apprentissage autodidacte depuis des sources peu fiables (internet, RS...), c'est un peu demander à un enfant de 5ans des conseils de psy, ou supprimer les profs dans les écoles et laisser nos gamins se démerder pour apprendre tout seul :)
Je n'ai pas essayé mais le chatbot est peut-être pas de plus mauvais conseils, que les discutions au café du coin.
Le 07/07/2025 à 21h17
Considerer que la réponse est bonne sous entend que la question l'était... L'auto diagnostic surtout en trouble mental n'est jamais une bonne idée.
Donc on peut considérer que la reponse n'est bonne que parce qu'academique et fausse si perçue comme thérapeutique
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?