Connexion Premium

USA : l’IA qui devait révolutionner les autorisations de médicaments hallucine des études

🍄🍄🍄

USA : l’IA qui devait révolutionner les autorisations de médicaments hallucine des études

Elsa, l'IA de la Food and Drugs Administration (FDA), devait « améliorer et optimiser les performances et le potentiel de chaque employé » de l'agence. Si elle permet de générer des documents de travail, elle ne manque pas d' « halluciner » des études scientifiques ou de déformer des recherches, selon une enquête de CNN.

Le 25 juillet 2025 à 08h37

L'IA mise en place au sein de la Food and Drugs Administration (FDA) ne serait pas l'outil améliorant les performances tant vantée par son responsable Marty Makary, nommé le 1er avril dernier.

La très reconnue agence de sécurité alimentaire et du médicament avait publié début juin un communiqué de presse sur cette IA, qu'elle a nommé Elsa. « Cet outil innovant modernise les fonctions de l'agence et exploite les capacités de l'IA pour mieux servir la population américaine », expliquait la FDA.

Dans un extrait d'une interview donnée à Tucker Carlson et repérée par Gizmodo, le secrétaire à la Santé et aux Services sociaux des États-Unis, Robert F. Kennedy Jr., affirmait que « Nous sommes à la pointe de l'IA » :

« Nous la mettons en œuvre dans tous nos départements. À la FDA, nous accélérons les autorisations de mise sur le marché [AMM] des médicaments afin de ne plus avoir besoin d'utiliser des primates ou même des modèles animaux. Grâce à l'IA, vous pouvez obtenir très, très rapidement les autorisations de mise sur le marché des médicaments. »

« À la suite d'un programme pilote très réussi mené avec les évaluateurs scientifiques de la FDA, j'ai fixé un calendrier ambitieux pour déployer l'IA dans toute l'agence d'ici le 30 juin », assurait Marty Makary dans le communiqué de l'agence : « Le lancement d'Elsa aujourd'hui est en avance sur son calendrier et en dessous du budget prévu, grâce à la collaboration de nos experts internes dans tous les centres ».

Pas d'analyse des autorisations de mise sur le marché pour l'instant

Moins d'un mois après cette date de déploiement, les dents grincent en interne, selon CNN. Comme une bonne partie des IA génératives mises en place dans les bureaux, celle de la FDA peut être utile pour générer des notes, des résumés de réunion, des mails et des communiqués.

Mais contrairement à ce qui a été annoncé, elle ne permettrait pas d'analyser les autorisations de mise sur le marché, puisqu'elle n'a pas accès aux documents des dossiers des industriels, expliquent les sources du média étasunien.

Des hallucinations, comme les autres IA génératives

Et, comme les autres IA génératives, Elsa « hallucine ». Selon plusieurs sources de CNN, ainsi que des documents qu'a pu consulter le média, elle a généré des références à des études inexistantes et déformé les contenus de véritables études. Ces problèmes concernant des informations scientifiques discréditent l'outil aux yeux des sources de CNN.

« Tout ce que vous n'avez pas le temps de vérifier deux fois n'est pas fiable. Elle hallucine en toute confiance », affirme l'une d'entre elles. Si ce problème est connu et doit être pris au sérieux à chaque fois qu'on utilise une IA générative, les responsables de la FDA qui ont annoncé la mise en place d'Elsa promettaient une plus grande efficacité des employés de l'agence grâce à cette IA.

« L'IA est censée nous faire gagner du temps, mais je peux vous garantir que je perds beaucoup de temps supplémentaire simplement à cause de la vigilance accrue dont je dois faire preuve pour vérifier les études fausses ou trompeuses », explique à CNN un autre agent de la FDA.

Le genre de travail effectué par l'agence demande une précision importante. « Si Elsa résume en un paragraphe un travail de recherche sur un nouveau médicament qui tient en 20 pages de recherche, il n'y a aucun moyen de savoir si cela déforme ou omet quelque chose qu'un évaluateur humain aurait considéré comme important », souligne l'un des employés interrogés par CNN.

Près de 30 millions de dollars pour le cabinet de conseil Deloitte

Dès l'annonce de juin, des employés de la FDA expliquaient au média Stat que la mise en place d'Elsa était « précipitée ». Notre consœur, spécialisée dans les technologies de la santé, donnait un peu plus de précisions sur le projet. Elsa serait basée sur le modèle Claude d'Anthropic et développée par le cabinet de conseil Deloitte (entreprise qui finançait déjà l'investiture de Donald Trump en 2017), comme le rapporte ArsTechnica.

Selon Stat, Deloitte a reçu 13,8 millions de dollars depuis 2020 pour développer une base de données de documents de la FDA qui a servi à fine-tuner Claude, et ainsi obtenir le modèle utilisé par Elsa. L'entreprise a obtenu un nouveau contrat de 14,7 millions de dollars en avril dernier pour le déploiement d'Elsa dans toute l'agence.

Interrogé par CNN, Jeremy Walsh, responsable IA de l'agence admet ces critiques : « Elsa n'est pas différente de nombreux [grands modèles de langage] et de l' IA générative, ils peuvent halluciner ».

De plus, il affirme que les utilisateurs pourront dans les prochaines semaines ajouter des documents pour que cette IA puisse répondre en fonction de données spécifiques.

Commentaires (25)

votre avatar
Kilucru ? A peu près tout le monde :S
votre avatar
Ça va être un carnage qui risque fort de nous impacter en Europe ...
votre avatar
INpacter :cap:
votre avatar
Ça peut aussi être une bonne nouvelle pour notre industrie pharmaceutique si le monde entier se met à douter de l'offre américaine. :D
votre avatar
Ben non, car si la FDA part en vrille, les exportations vers les USA risquent fort d'être secouées... déjà que les autorisations de mise sur le marché américain sont très difficiles à obtenir...
(et cela concerne aussi l'alimentaire)
votre avatar
Si seulement croire aveuglément en ses conneries pouvaient les faire se réaliser :craint:
Toute réflexion faite, ce n'est peut-être pas un mal que ça ne fonctionne pas comme ça, surtout venant de l'entourage de Trump :D

Jouer avec la vie des gens de manière aussi aveugle, c'est quand même un scandale.
votre avatar
Surtout quand des décisions pareilles viennent de politiciens qui ont clamé haut et fort que vaccins et médicaments (sauf bien sûr ceux recommandés par leurs amis/gourous) étaient dangereux car pas assez testés.
Ces mêmes personnes qui auraient brûlé leurs opposants sur la place publique pour moins que ça...
votre avatar
C'est vraiment aussi dur que ça d'empêcher une IA d'halluciner ? Je veux dire, de l'obliger à se cantoner à du factuel, et lui donner des règles de fonctionnement strictes qu'elle ne peut pas outrepasser (genre 1+1=2) ?

Ou c'est un effet qui est d'office plus ou moins possible de par la nature même des grands modèles de langage ? J'essaie de comprendre depuis un moment maintenant. Parce que tant qu'une IA a la possibilité d'halluciner, c'est simple, on ne peut pas lui faire confiance.
votre avatar
C'est vraiment aussi dur que ça d'empêcher une IA d'halluciner ?
Oui, car elle peut halluciner pendant sa vérification. Du coup, un résultat faux peut être considéré comme vrai, un résultat vrai peut être considéré comme faux, etc.

Les LLM et les IA génératrices sont des outils statistiques. Je répète bien le mot "statistiques". Tant que cela sera comme ça, l'IA ne pourrait faire qu'une chose : donner l'impression de raisonner. Juste "donner l'impression", pas raisonner.

Ce qu'on appelle improprement "hallucination" n'est que le fruit de cette incertitude statistique.

Et quand bien même elle ne serait plus statistique, et serait effectivement en mesure de raisonner, rien ne dit que, comme nous, elle ne ferait pas des erreurs de raisonnement.
votre avatar
Cela dit, ses erreurs de raisonnement pourront alors être discutées, "raisonnées", justement.

Ce sera une évolution technique intéressante.
votre avatar
Ce qu'on appelle improprement "hallucination" n'est que le fruit de cette incertitude statistique.
Yep, mais c'est aussi une force de l'IA générative. C'est ce qui lui permet de générer justement et lui donne une certaine "imagination".

Ici on est encore sur un énième problème de modèle utilisé de manière imbécile qui n'a probablement pas de base documentaire solide sur laquelle se reposer ou a été paramétré avec le cul et poussé en prod.

Vivement que l'humain devienne intelligent !

Remarque, j'ai l'impression que depuis qu'on a collé "IA" à tout dans l'IT, on découvre les pratiques catastrophiques héritées du mode produit et ses sacro-saints vélocité et TTM où tout est une beta test permanente.
votre avatar
C'était vrai il y a 2 ans.
Ça évolue "doucement". Par exemple en couplant les modèles probabilistes à des modèles experts et des modèles de raisonnement.

Est-ce fiable ? Non, mais ça s'améliore.
Est-ce que ça finira par être fiable ? Peut-être, et ça dépend de ce qu'on appelle fiable (ex: les humains fiables font des erreurs, même dans leur domaine de prédilection).
votre avatar
l’IA qui devait révolutionner les autorisations de médicaments hallucine des études
C'est pour autoriser la mise sur la marché des psychotropes.
votre avatar
Elsa serait basée sur le modèle Claude d'Anthropic et développée par le cabinet de conseil Deloitte (entreprise qui finançait déjà l'investiture de Donald Trump en 2017)
Il n'y a donc rien d'étonnant à ce que le modèle hallucine en s'appuyant sur des fake news.
votre avatar
Les hallucinations d'un LLM n'ont rien à voir avec les données d'entraînement. Elles sont liées à l'aspect statistique des modèles et le fait qu'elles ajoutent de l'aléa aux données pour avoir de l'inventivité. Quand il s'agit de produire de la rigueur scientifique, c'est une mauvaise idée d'utiliser de tels modèles surtout s'ils sont mal paramétrés.
votre avatar
Quel fléau ces IA génératives... Depuis le temps qu'on sait que ce n'est pas fiable, je trouve fou qu'on continue à en déployer et encore plus pour des sujets critiques....
votre avatar
Le marché de l'IA pèse des milliards mais il faut la rentabiliser donc il la mette à toute les sauces même si on en aucune utilité ou si elle est déficiente.
votre avatar
Le marché de l'IA consomme des milliards, quand à voir ce qu'il pèse en termes de revenus pour les boîtes… j'ai lu un (long) article récemment qui démontait l'équilibre économique du machin.

Retrouvé, c'est ici https://www.wheresyoured.at/the-haters-gui/
votre avatar
13,8 millions de dollars=> Elsa n'est pas différente de nombreux [grands modèles de langage] et de l' IA générative, ils peuvent halluciner ».

Je sais que ça ne vient pas de la personne et que les hallucination sont structurelles à ce type d'algo.

Mais je ne peux m'empécher de penser que c'est quand même culoté de le sortir.
votre avatar
C'est quoi l'intérêt de faire faire une action nécessitant de la fiabilité à un outil par nature NON fiable ?

Je pense à l'analyse des "20 pages de recherche" : avec ou sans IA, un humain va devoir se la coltiner pour vérifier que l'étude est fiable et que ses résultats donnent un avantage supérieur aux risques pour le médicament analysé, non ?
votre avatar
La révolution de cette IA, c'est qu'elle pourrait enfin (!!) donner son AMM à la recommandation de piqûres de javel du bon Dr Trump pour mettre fin au COVID! :youhou:

Et il est difficile de contester l'efficacité: On aurait eu des courbes de baisse de contamination encore "meilleures" qu'Ebola... par rapidité du décès de l’hôte! :fou3:
votre avatar
ça me rappelle ces posts
parodie de Didier
votre avatar
Elle hallucine en toute confiance »
Je reconnais bien là Claude (et tout les LLM je suppose) :D
votre avatar
J'aime la vignette. Las Vegas Parano !
(oui je ne suis passé sur cet article à cause de la vignette)
votre avatar
« L'IA est censée nous faire gagner du temps, mais je peux vous garantir que je perds beaucoup de temps supplémentaire simplement à cause de la vigilance accrue dont je dois faire preuve pour vérifier les études fausses ou trompeuses »

IA in a nutshell

USA : l’IA qui devait révolutionner les autorisations de médicaments hallucine des études

  • Pas d'analyse des autorisations de mise sur le marché pour l'instant

  • Des hallucinations, comme les autres IA génératives

  • Près de 30 millions de dollars pour le cabinet de conseil Deloitte

Fermer