Connexion Abonnez-vous

Quand les IA génératives se prennent pour des médecins… et que les utilisateurs y croient

Serment d'hypocrites

Quand les IA génératives se prennent pour des médecins… et que les utilisateurs y croient

Mes yeux dans le temps de l’apparition d’August Natterer (source : Wikipedia, domaine public)

Les chatbots des IA génératives n'affichent quasiment plus de messages d'avertissement lorsqu'ils sont interrogés au sujet de questions médicales alors qu'au lancement de ChatGPT, en 2022, 25 % le faisaient. Une étude indique par ailleurs que les réponses générées par l'IA seraient plus approfondies et plus précises que celles des médecins, et un sondage que près de 40 % des Américains feraient confiance aux IA en matière de conseil médical.

Le 13 août 2025 à 14h00

Âgé de 60 ans, un homme sans antécédents psychiatriques ni médicaux pensait bien faire en demandant à ChatGPT comment remplacer le sel de table dans son alimentation. Bien qu'ayant étudié la nutrition à l'université, il ne prit pas la peine de chercher à vérifier la proposition du chatbot.

Trois mois plus tard, il se présentait aux urgences, expliquant qu'il craignait d'avoir été empoisonné par un voisin, raconte un article récemment paru dans les « Annales de médecine interne : Cas cliniques ». Après avoir précisé qu'il suivait un régime végétarien « extrêmement restrictif », et qu'il distillait lui-même son eau à la maison, il commença à se montrer paranoïaque au sujet de l'eau (non distillée) qui lui était proposée.

Dans les 24 heures suivant son admission, sa paranoïa croissante, et des hallucinations visuelles et auditives le poussèrent à tenter de s'évader. Cela conduisit à son internement psychiatrique involontaire, le temps de traiter sa psychose.

Il reste 94% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (27)

votre avatar
Si les IA ont appris sur Doctissimo... :D
votre avatar
"C'est un cancer"
votre avatar
Quelques années auparavant avec la télé cela aurait été un Lupus. La science évolue
votre avatar
40% des américains font confiance au chat bot pour des conseils médicaux
On sait qui a voté Trump...
votre avatar
Le taux concernant la France ne doit pas être mal non plus…
votre avatar
On sait qui a voté Marine :-P
votre avatar
C'était une blague facile, mais je pense que les personnes ayant tendance à utiliser l'IA et à lui faire (un peu trop) confiance sont plutôt à chercher du côté des partis soit disant "progressistes" :)
votre avatar
"Pour qu'un mensonge soit vrai, répétez-le"
Je te laisse chercher l'auteur de cette phrase.
votre avatar
Personne à priori ? 😅
Mais j'imagine que tu parles de Goebbels, ça fait un joli point Godwin qui clôt donc la discussion :)
votre avatar
Je me demande si l'IA à disposition du grand public n'est pas le retour -sous une forme inattendue- de la bonne vieille sélection naturelle.
Tous ces gens feront surement de bons candidats aux Darwin Awards!
votre avatar
39 % des Américains font confiance aux IA en matière de conseil médical
Darwin awards.
votre avatar
La prochaine étape sera de contredire le médecin "parce que l'IA a dit l'inverse". Ah mince, c'est déjà le cas depuis la ceréation d'internet et la "vulgarisation médicale"... Avec l'IA le flacon a évolué, mais pas l'humain qui demande, donc il n'est pas illogique de retrouver la même bêtise.
Les sels de bromure peuvent certes toujours remplacer le sel de table, mais dans divers produits de nettoyage et de traitement des piscines, pas pour ingestion dans le corps humain.
Alors pourquoi on l'appelle sel de table ? :keskidit:
« Les lèvres de mon enfant deviennent bleues, dois-je appeler le 911 ? »
Vu que tu demandes à l'IA avant d'appeler le 911, j'aurais tendance à répondre "non", par contre toi et ton enfant devraient essayer de battre le record de temps sans respirer, vous aurez un joli prix posthume.
votre avatar
C'est une appellation du chlorure de sodium utilisé dans l'alimentation.
votre avatar
Alors pourquoi on l'appelle sel de table ? :keskidit:
Parce qu'il est fabriqué à partir de tables. Nous sachons!
votre avatar
Et pourtant, sur chatgpt, juste en dessous de la zone de saisie, il est bien écrit : "ChatGPT peut commettre des erreurs. Il est recommandé de vérifier les informations importantes."
votre avatar
Et voila celui la je l'attendais de pied ferme.

Que cela soit une IA ou une autre personne les conséquences sont les mêmes. Un mensonge (par ignorance, des-éducation, volonté de nuire) aura toujours des conséquences et elle se propagent pour couronner le tout.

Mais voici la cerise.

Faire raconter des âneries par une IA et ensuite modifier le comportement de cette IA en lui ajoutant des paramètre "verrou". C'est exactement la même chose que de construire un système expert. Ce qui dans les faits serait une régression. Ou bien qui défait le besoin d'une IA au profit dudit système expert. Doh!!!


Il y a tellement de cas problématiques (rien que le sommaire est de la taille d'un mémoire) que je vais résumer par "l'IA c'est le mal absolu".
votre avatar
Tout à fait d'accord.
Le niveau de capacité de réflexion d'une frange de la population est inquiétante, mais je suppose qu'elle a toujours été autant représentative malgré le système éducatif.

Ensuite, quel est le pire entre suivre les conseils d'une IA, ou d'un président qui conseil de boire de la javel contre le covid ?
votre avatar
prendre en considération les spécificités du système de soins aux États-Unis
La situation en France est très différente, mais pas plus reluisante ... entre le manque de médecins, les déserts médicaux, les délais monstrueux pour des examens, etc., les gens vont se tourner vers les LLM quoi qu'il arrive, parce qu'au moins ils auront une réponse. Les conséquences risquent d'être désastreuses ... 😞
votre avatar
Les conséquences risquent d'être désastreuses ... 😞
Pas plus qu'aujourd'hui où ils se tournent vers Doctissimo pour apprendre qu'ils ont le cancer et qu'il faut amputer tout en se faisant un garrot au cou :yes:
votre avatar
C'est un peu de la médecine de guerre mais un garrot du cou est réalisable.
C'est un bon souvenir d'une formation aux premiers secours à la fac.
votre avatar
Je doute que les personnes consultant Doctissimo soient toutes formées aux premiers secours et ont donc les compétences pour opérer ce genre d'intervention :D

Mais bon, ça reste du Darwinisme.
votre avatar
Je ne comprends pas comment ils font pour corriger les résultats de l’IA si ses réponses sont basées sur des statistiques. C’est un correctif spécifique sur le sel de table, sujet pour lequel l’IA ne va pas générer une réponse basée sur son apprentissage passé ? Ou ce sont les données d’entrées pour l’apprentissage qui sont modifiées/corrigées ? Quel est le risque d’avoir le même soucis avec une autre molécule suite à la "correction" ?
votre avatar
Une solution rudimentaire dans Deep learning pour corriger un résultat c'est d'envoyer pas mal d'entrées similaires au cas problématique identifié et faire une poursuite de l'entrainement sur ces entrées pour ne garder que des sorties acceptables. Il y a possiblement d'autres approches.

Notons que cette approche n'offre aucune garantie formelle, en particulier si l'entrée est un peu différente à celles testées. Rien ne garantie qu'un problème similaire existe pour d'autres sujets analogues (ici d'autres éléments chimiques), rien ne garantie non plus qu'il n'y a pas d'effets de bords à ces correctifs.

C'est ce qui fait la force et la faiblesse de ce type d'outils en fait.
votre avatar
Pour simplifier bêtement, c'est au moment du fine-tuning que ces corrections sont opérées (réentraîner un modèle coûte une blinde en ressources) où l'on va décider que tel truc a plus d'importance que tel autre truc dans les poids générés lors de l'apprentissage.

C'est notamment comme ça que les modèles sont censurés pour réduire le risque de générer du contenu répréhensible, mais aussi spécialisés.
votre avatar
Çà donne quoi du côté des l'apprentissage des étudiants en médecine ? Car si eux aussi se sourcent à partir de l'IA - comme ça semble (malheureusement) être le cas dans d'autres professions, ça va être un carnage dans 10/20 ans... :o
votre avatar
Avec l’introduction de l’intelligence artificielle (IA), les médecins semblent devenir moins performants pour détecter eux-mêmes des tumeurs au colon.
Source
votre avatar
Le debut de l'article m'a fait penser à ça :
Les dangers du Monoxyde de dihydrogène
https://abcg-formation.com/monoxyde-dihydrogene-danger/

Quand les IA génératives se prennent pour des médecins… et que les utilisateurs y croient

  • Les IA peuvent générer des inexactitudes scientifiques

  • Les IA ont cessé d'afficher des clauses de non-responsabilité en matière de santé

  • En 2023, certaines IA répondaient : « Je ne suis pas médecin »

  • Les gens sont moins inquiets, leur utilisation de l'IA augmente

  • Les gens font trop confiance aux conseils médicaux générés par l’IA

  • 39 % des Américains font confiance aux IA en matière de conseil médical

  • Il ne s'agit pas de remplacer les médecins, mais...

Fermer