USA : l’IA qui devait révolutionner les autorisations de médicaments hallucine des études
🍄🍄🍄
Elsa, l'IA de la Food and Drugs Administration (FDA), devait « améliorer et optimiser les performances et le potentiel de chaque employé » de l'agence. Si elle permet de générer des documents de travail, elle ne manque pas d' « halluciner » des études scientifiques ou de déformer des recherches, selon une enquête de CNN.
Le 25 juillet 2025 à 08h37
5 min
Droit
Droit
L'IA mise en place au sein de la Food and Drugs Administration (FDA) ne serait pas l'outil améliorant les performances tant vantée par son responsable Marty Makary, nommé le 1er avril dernier.
La très reconnue agence de sécurité alimentaire et du médicament avait publié début juin un communiqué de presse sur cette IA, qu'elle a nommé Elsa. « Cet outil innovant modernise les fonctions de l'agence et exploite les capacités de l'IA pour mieux servir la population américaine », expliquait la FDA.
Dans un extrait d'une interview donnée à Tucker Carlson et repérée par Gizmodo, le secrétaire à la Santé et aux Services sociaux des États-Unis, Robert F. Kennedy Jr., affirmait que « Nous sommes à la pointe de l'IA » :
« Nous la mettons en œuvre dans tous nos départements. À la FDA, nous accélérons les autorisations de mise sur le marché [AMM] des médicaments afin de ne plus avoir besoin d'utiliser des primates ou même des modèles animaux. Grâce à l'IA, vous pouvez obtenir très, très rapidement les autorisations de mise sur le marché des médicaments. »
« À la suite d'un programme pilote très réussi mené avec les évaluateurs scientifiques de la FDA, j'ai fixé un calendrier ambitieux pour déployer l'IA dans toute l'agence d'ici le 30 juin », assurait Marty Makary dans le communiqué de l'agence : « Le lancement d'Elsa aujourd'hui est en avance sur son calendrier et en dessous du budget prévu, grâce à la collaboration de nos experts internes dans tous les centres ».
Pas d'analyse des autorisations de mise sur le marché pour l'instant
Moins d'un mois après cette date de déploiement, les dents grincent en interne, selon CNN. Comme une bonne partie des IA génératives mises en place dans les bureaux, celle de la FDA peut être utile pour générer des notes, des résumés de réunion, des mails et des communiqués.
Mais contrairement à ce qui a été annoncé, elle ne permettrait pas d'analyser les autorisations de mise sur le marché, puisqu'elle n'a pas accès aux documents des dossiers des industriels, expliquent les sources du média étasunien.
Des hallucinations, comme les autres IA génératives
Et, comme les autres IA génératives, Elsa « hallucine ». Selon plusieurs sources de CNN, ainsi que des documents qu'a pu consulter le média, elle a généré des références à des études inexistantes et déformé les contenus de véritables études. Ces problèmes concernant des informations scientifiques discréditent l'outil aux yeux des sources de CNN.
« Tout ce que vous n'avez pas le temps de vérifier deux fois n'est pas fiable. Elle hallucine en toute confiance », affirme l'une d'entre elles. Si ce problème est connu et doit être pris au sérieux à chaque fois qu'on utilise une IA générative, les responsables de la FDA qui ont annoncé la mise en place d'Elsa promettaient une plus grande efficacité des employés de l'agence grâce à cette IA.
« L'IA est censée nous faire gagner du temps, mais je peux vous garantir que je perds beaucoup de temps supplémentaire simplement à cause de la vigilance accrue dont je dois faire preuve pour vérifier les études fausses ou trompeuses », explique à CNN un autre agent de la FDA.
Le genre de travail effectué par l'agence demande une précision importante. « Si Elsa résume en un paragraphe un travail de recherche sur un nouveau médicament qui tient en 20 pages de recherche, il n'y a aucun moyen de savoir si cela déforme ou omet quelque chose qu'un évaluateur humain aurait considéré comme important », souligne l'un des employés interrogés par CNN.
Près de 30 millions de dollars pour le cabinet de conseil Deloitte
Dès l'annonce de juin, des employés de la FDA expliquaient au média Stat que la mise en place d'Elsa était « précipitée ». Notre consœur, spécialisée dans les technologies de la santé, donnait un peu plus de précisions sur le projet. Elsa serait basée sur le modèle Claude d'Anthropic et développée par le cabinet de conseil Deloitte (entreprise qui finançait déjà l'investiture de Donald Trump en 2017), comme le rapporte ArsTechnica.
Selon Stat, Deloitte a reçu 13,8 millions de dollars depuis 2020 pour développer une base de données de documents de la FDA qui a servi à fine-tuner Claude, et ainsi obtenir le modèle utilisé par Elsa. L'entreprise a obtenu un nouveau contrat de 14,7 millions de dollars en avril dernier pour le déploiement d'Elsa dans toute l'agence.
Interrogé par CNN, Jeremy Walsh, responsable IA de l'agence admet ces critiques : « Elsa n'est pas différente de nombreux [grands modèles de langage] et de l' IA générative, ils peuvent halluciner ».
De plus, il affirme que les utilisateurs pourront dans les prochaines semaines ajouter des documents pour que cette IA puisse répondre en fonction de données spécifiques.
USA : l’IA qui devait révolutionner les autorisations de médicaments hallucine des études
-
Pas d'analyse des autorisations de mise sur le marché pour l'instant
-
Des hallucinations, comme les autres IA génératives
-
Près de 30 millions de dollars pour le cabinet de conseil Deloitte
Commentaires (25)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 25/07/2025 à 09h18
Le 25/07/2025 à 09h25
Le 25/07/2025 à 10h53
Le 25/07/2025 à 11h05
Modifié le 25/07/2025 à 11h27
(et cela concerne aussi l'alimentaire)
Le 25/07/2025 à 09h30
Toute réflexion faite, ce n'est peut-être pas un mal que ça ne fonctionne pas comme ça, surtout venant de l'entourage de Trump
Jouer avec la vie des gens de manière aussi aveugle, c'est quand même un scandale.
Modifié le 25/07/2025 à 09h35
Ces mêmes personnes qui auraient brûlé leurs opposants sur la place publique pour moins que ça...
Le 25/07/2025 à 09h39
Ou c'est un effet qui est d'office plus ou moins possible de par la nature même des grands modèles de langage ? J'essaie de comprendre depuis un moment maintenant. Parce que tant qu'une IA a la possibilité d'halluciner, c'est simple, on ne peut pas lui faire confiance.
Le 25/07/2025 à 09h52
Les LLM et les IA génératrices sont des outils statistiques. Je répète bien le mot "statistiques". Tant que cela sera comme ça, l'IA ne pourrait faire qu'une chose : donner l'impression de raisonner. Juste "donner l'impression", pas raisonner.
Ce qu'on appelle improprement "hallucination" n'est que le fruit de cette incertitude statistique.
Et quand bien même elle ne serait plus statistique, et serait effectivement en mesure de raisonner, rien ne dit que, comme nous, elle ne ferait pas des erreurs de raisonnement.
Le 25/07/2025 à 10h02
Ce sera une évolution technique intéressante.
Le 25/07/2025 à 10h30
Ici on est encore sur un énième problème de modèle utilisé de manière imbécile qui n'a probablement pas de base documentaire solide sur laquelle se reposer ou a été paramétré avec le cul et poussé en prod.
Vivement que l'humain devienne intelligent !
Remarque, j'ai l'impression que depuis qu'on a collé "IA" à tout dans l'IT, on découvre les pratiques catastrophiques héritées du mode produit et ses sacro-saints vélocité et TTM où tout est une beta test permanente.
Modifié le 26/07/2025 à 18h09
Ça évolue "doucement". Par exemple en couplant les modèles probabilistes à des modèles experts et des modèles de raisonnement.
Est-ce fiable ? Non, mais ça s'améliore.
Est-ce que ça finira par être fiable ? Peut-être, et ça dépend de ce qu'on appelle fiable (ex: les humains fiables font des erreurs, même dans leur domaine de prédilection).
Le 25/07/2025 à 10h11
Le 25/07/2025 à 11h51
Le 25/07/2025 à 13h41
Le 25/07/2025 à 12h34
Le 26/07/2025 à 13h54
Le 27/07/2025 à 14h48
Retrouvé, c'est ici https://www.wheresyoured.at/the-haters-gui/
Le 25/07/2025 à 15h28
Je sais que ça ne vient pas de la personne et que les hallucination sont structurelles à ce type d'algo.
Mais je ne peux m'empécher de penser que c'est quand même culoté de le sortir.
Le 25/07/2025 à 15h37
Je pense à l'analyse des "20 pages de recherche" : avec ou sans IA, un humain va devoir se la coltiner pour vérifier que l'étude est fiable et que ses résultats donnent un avantage supérieur aux risques pour le médicament analysé, non ?
Modifié le 25/07/2025 à 17h21
Et il est difficile de contester l'efficacité: On aurait eu des courbes de baisse de contamination encore "meilleures" qu'Ebola... par rapidité du décès de l’hôte!
Le 26/07/2025 à 01h03
parodie de Didier
Le 25/07/2025 à 19h03
Modifié le 26/07/2025 à 18h11
(oui je ne suis passé sur cet article à cause de la vignette)
Le 28/07/2025 à 10h10
IA in a nutshell
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?