Connexion
Abonnez-vous

Dans la recherche, l’IA pourrait faire « plus de mal que de bien »

IA partout, reflexion nulle part ?

Dans la recherche, l’IA pourrait faire « plus de mal que de bien »

De la philosophie aux mathématiques en passant par la médecine, l'IA devient un outil banal en recherche. Mais des chercheurs mettent en garde contre une utilisation de l'intelligence artificielle sans protocoles clairs pour détecter les erreurs. Ils affirment que cette technologie pourrait faire « plus de mal que de bien » si elle est mal utilisée.

Le 09 avril à 08h53

L'IA est ajoutée un peu à toutes les sauces de la recherche aujourd'hui. Elle est devenue un outil parmi tant d'autres dans beaucoup de domaines. En 2024, des chercheurs montraient dans un article mis en ligne sur la plateforme arXiv que 9 % des articles scientifiques qu'ils ont analysés avaient un lien (« ai-engaged ») avec l'intelligence artificielle.

Ce chiffre ne reflète pas seulement l'augmentation des recherches en IA, mais aussi celle de son utilisation dans les autres champs, que ça soit en agriculture, en biologie, en histoire, en physique ou en philosophie.

L'Inserm expliquait récemment encore s'appuyer sur un réseau de neurones pour s’attaquer à la mort subite d’origine cardiaque. « Mais la course à l'utilisation de l'IA n'est pas sans conséquences », affirment Arvind Narayanan et Sayash Kapoor, deux chercheurs de l'université de Princeton dans la revue scientifique Nature.

Le rêve d’une IA qui permettrait de tout faire, par exemple lire les papyrus d’Herculanum, cache parfois des difficultés.

L'IA est un outil qui comporte des risques

Il reste 60% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Abonnez-vous

Commentaires (5)

votre avatar
"Rien n'est plus proche du vrai que le faux"
votre avatar
Donc cet aphorisme, supposé être vrai, n'est pas loin d'être faux...
votre avatar
C'est à vous de voir
votre avatar
Mais la déduction logique que vous faites est un contresens. Si A est vrai, et si A implique B, alors B est vrai. Mais si B est vrai, cela n'implique pas que A soit vrai (sinon ce serait un biais d'affirmation du conséquent). Donc si "rien n'est pas plus proche du vrai que le faux" est vrai, cela n'implique pas l'affirmation soit fausse par un raisonnement récursif, mais seulement que les choses fausses sont fausses, et donc implique l'affirmation précédente (A implique B, mais pas l'inverse). Voyez ça une façon de définir le faux.

Edit :

Ici A="Les choses fausses", qui implique l'affirmation B=""rien n'est pas plus proche du vrai que le faux"

Mais B n'implique pas que A soit vrai ou faux, et encore moins que B soit vrai ou faux. Si vous considérez que B est faux, c'est par votre jugement, par par la logique. Le "donc" que vous avez employé n'était pas logique.
votre avatar
Si on remplace "IA" par "outil statistique", ce qui est dans le cas présent plutôt équivalent, on arrive à une remarque qui était déjà vraie avant l'avènement des outils de ML, beaucoup de scientifiques sont des tanches en statistique. Mais bon, ça fait des décennies qu'on sait ça.

Dans la recherche, l’IA pourrait faire « plus de mal que de bien »

  • L'IA est un outil qui comporte des risques

  • Le « leakage », un problème croisé dans une multitude d'études scientifiques

  • Démarche constructive et d'amélioration

Fermer