En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses
D'abord, ne pas faire de mal
Le 26 janvier à 11h02
ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.
En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses
D'abord, ne pas faire de mal
ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.
Le 26 janvier à 11h02
IA et algorithmes
IA
6 min
Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.
Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.
D’abord, ne pas faire de mal
« Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.
Il reste 79% de l'article à découvrir.
Déjà abonné ou lecteur ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
expert et sans pub.
En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses
-
D'abord, ne pas faire de mal
-
Énormément d'erreurs par omission
Commentaires (7)
Le 26/01/2026 à 11h08
De la à ce que le LLM nous sorte qu'il faut boire du détergeant pour se débarrasser du COVID...
Sérieux mais que font les élus ! Je pense, et c'est mon opinion personnelle qu'il devrait y avoir des lois contre ce genre d'usage de l'IA.
Le 26/01/2026 à 12h18
Mention spéciale aux sites, car très rapidement si on creuse on trouve des liens entre certains sites et des sectes. Sites qui peuvent apparaître en page 1 de google ou qwant.
Le 26/01/2026 à 13h01
Quand un médecin fait une petite erreur de rien du tout, il passe dans un processus herculéen. Tout ces sites et LLM s'en sortent bien mieux.
On ne peut pas avoir un système à deux vitesses (médecin vs numérique).
Tiens j'aimerai bien savoir ce que sont devenues ces affaires de suicide/hospitalisation suite à influence de LLM.
Le 26/01/2026 à 13h44
Les LLM peuvent rendre ces cas plus difficiles et en même temps être une aide intéressante: les LLM sont bien plus alignés sur la médecine "moderne" que sur la médecine douce et ont tendance à faire passer les mêmes messages que le message "conventionnel" d'un médecin généraliste.
Le 26/01/2026 à 12h25
Ceci dit: il faut donc plusieurs IA pour confronter les avis. C'est pas la pire idée: la confrontation d'un cas à une ou plusieurs IA est plutôt stimulant pour faire émerger de nouvelles pistes dans la programmation. Alors pourquoi pas en médecine?
Le 26/01/2026 à 13h14
Ceci dit, c'est le reflet de son apprentissage sur des données humaines, une grosses majorités d'individus ont du mal avec ça, refusant soit de se remettre en question, soit de reconnaître leur ignorance, par égo, parce que beaucoup de gens les ont fait passer pour des idiots juste parce qu'ils ne savaient pas.
Comment s'attendre à ce qu'une IA, outre sa logique programmée pour contenter l'utilisateur à tout pris, n'en viendrait pas aux mêmes attitudes que les humains qui leur ont servi de modèles ?
Le 26/01/2026 à 13h21
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?