L’IA générative rend idiot, et c’est Microsoft qui le dit
Microsoft rend idiot, et c’est l’IA générative qui le dit

Dans une étude réalisée avec l’université de Carnegie Mellon, des chercheurs de Microsoft ont pointé un appauvrissement de l’esprit critique allant de pair avec la confiance portée aux IA génératives. Ils mettent en avant un lien de cause à effet et les dangers qui l’accompagnent.
Le 14 février à 10h00
9 min
IA et algorithmes
IA
Lors de la Bordeaux I/O, nos discussions avec les ingénieures Marie-Alice Blete et Cécile Hannotte s’étaient orientées vers le danger de « l’assèchement » engendré par les IA génératives (GenAI). Ces dernières pouvaient, à force de dévorer tout nouveau contenu pour le recracher sous une forme digérée, lissée et uniforme, appauvrir petit à petit le socle des connaissances. La baisse drastique de fréquentation de sites comme Stack Overflow, servant au partage des connaissances, était perçue comme un indice.
Si la réflexion prenait place dans le domaine du développement logiciel, elle a des ramifications plus profondes. Elle posait ainsi la question d’un tarissement de la pensée créative. Des chercheurs de Microsoft, en partenariat avec l’université de Carnegie Mellon, vont encore plus loin : plus on fait confiance aux IA générative, moins on a d’esprit critique, avec tous les dangers que cela suppose.
Un schéma se dessine
L’étude a porté sur 319 personnes, des « travailleurs de la connaissance » recouvrant donc de nombreux corps de métiers, mais dont l’activité comprend dans tous les cas la manipulation d’informations ou de données.
Via une série de questions, les chercheurs leur ont demandé comment elles se servaient des IA. Les personnes devaient ainsi indiquer les tâches qui leur étaient confiées, celles réalisées grâce aux IA génératives, le degré d’aide apportées par ces dernières, le degré de confiance accordé aux réponses, leur capacité à évaluer le résultat offert par ces IA, ou encore leur degré de confiance en leurs propres capacités à réaliser ces tâches sans l’aide d’une IA générative. En tout, 936 cas d’utilisation ont été rapportés.
Les exemples cités par les chercheurs sont présentés comme représentatifs : un enseignant se servant de Dall-E pour générer des images de personnes se lavant les mains pour apprendre les règles d’hygiène en classe, une infirmière utilisant ChatGPT pour l’aider à créer une brochure adressée aux patients nouvellement diagnostiqués d’un diabète, un négociant utilisant aussi ChatGPT pour obtenir des recommandations sur les nouvelles ressources et stratégies à explorer, etc.
Au fur et à mesure des réponses, les chercheurs ont relevé une corrélation : plus ces personnes faisaient confiance aux IA dans l’accomplissement de leurs missions, plus elles avaient tendance à leur confier des tâches et faire confiance à leurs résultats. Parallèlement, ce niveau de confiance présentait un risque de devenir excessif, le spectre de la dépendance n’étant pas loin, avec l’érosion de l’esprit critique. Le schéma inverse se dégageait également : moins les personnes avaient confiance en l’IA, plus elles en avaient dans leur capacité à évaluer ce que l'IA produisait.
« Cela peut inhiber l'engagement critique dans le travail et peut potentiellement conduire à une dépendance excessive à long terme à l'égard de l'outil et à une diminution des compétences en matière de résolution indépendante des problèmes », notent les chercheurs.
Danger de l’assèchement
L’étude établit un parallèle intéressant entre les craintes entendues lors de la conférence Bordeaux I/O et l’esprit critique. Les chercheurs ont ainsi constaté chez les utilisateurs intensifs d’IA génératives un « ensemble moins diversifié de résultats pour la même tâche ».
Ce résultat recoupe les constats – et parfois les inquiétudes – des développeurs et développeuses rencontrés en novembre. Les gains de performances, réels, pourraient être contrebalancés à l’avenir par une uniformisation des pratiques. On comprend pourquoi : une IA générative ne peut fournir de résultat que sur la base des données sur lesquelles elle a été entrainée. Elle ne peut produire, par définition, aucun savoir neuf. La réponse donnée est donc bâtie sur une connaissance ancienne.
Les chercheurs font un lien direct entre ce manque de diversité dans les résultats et l’érosion de l’esprit critique. Un lien ayant à voir avec la cognition développée durant des années de pratique. L’usage intensif de l’IA générative gommerait lentement le goût de la recherche, les personnes concernées tombant alors dans la facilité, où les réponses surviennent sans trop réfléchir.
« L’une des principales ironies de l'automatisation est qu'en mécanisant les tâches routinières et en laissant le traitement des exceptions à l'utilisateur humain, vous privez ce dernier des occasions habituelles d'exercer son jugement et de renforcer sa musculature cognitive, ce qui le laisse atrophié et mal préparé lorsque les exceptions se présentent », notent les chercheurs. Le problème augmente « dans les tâches routinières ou à faible enjeu ».
Favoriser la pensée critique
Si l’explosion des investissements dans les IA génératives pose de nombreuses questions, l’étude n’est cependant pas à charge contre les IA elles-mêmes.
Les chercheurs notent ainsi qu’il existe de nombreuses situations dans lesquelles l’IA peut non seulement aider, mais aussi exceller. Une fois encore, on rejoint les propos entendus en novembre : oui l’IA permet de vrais gains de productivité, surtout quand elle s’occupe des tâches rébarbatives, où elle excelle.
Marie-Alice Blete reprenait à ce titre la déclaration de Google, quand la firme assurait que le code généré par IA représentait 25 % de sa production désormais. Pour l’ingénieure, ce code correspondait aux gains moyens de productivité constatés, quand l’IA est appelée à la rescousse sur les pans de code rébarbatifs. En revanche, elle témoignait de la nécessaire compétence intrinsèque des développeurs pour superviser les résultats de l’IA. En d’autres termes, une question d’esprit critique.
« Lors de l'utilisation d'outils de GenAI, l'effort investi dans la réflexion critique passe de la collecte d'informations à la vérification des informations, de la résolution de problèmes à l'intégration de la réponse de l'IA, et de l'exécution de la tâche à la gestion de la tâche. Les travailleurs sont confrontés à de nouveaux défis en matière de réflexion critique lorsqu'ils intègrent la GenAI dans leurs flux de connaissances », notent les chercheurs.
Pour les chercheurs, la publication de ces résultats doit justement participer au développement des IA. Ils espèrent que leurs découvertes pourront intégrer les réflexions sur la construction des IA, en mettant l’accent sur la pensée critique et la stimulation, pour prévenir l’atrophie contre laquelle ils mettent en garde.
« Les outils d'IA générique pourraient intégrer des fonctions qui facilitent l'apprentissage de l'utilisateur, par exemple en fournissant des explications sur le raisonnement de l'IA, en suggérant à l'utilisateur des domaines à perfectionner ou en proposant des critiques guidées. L'outil pourrait aider à développer des compétences spécifiques en matière de pensée critique, telles que l'analyse d'arguments ou le recoupement de faits avec des sources faisant autorité. Cela irait dans le sens de l'approche de renforcement de la motivation qui consiste à positionner l'IA comme un partenaire dans le développement des compétences », estiment les chercheurs.
Un air de déjà-vu
Les conclusions des chercheurs peuvent s’intégrer dans une réflexion plus vaste sur la technologie et l’impact qu’elle peut avoir sur nos vies. On la rencontre souvent dans le domaine de l’UX, la thématique revenant souvent sur le tapis avec les produits proposés par les grandes entreprises de la tech, quand des moyens importants sont investis dans la simplification des interfaces.
On pourrait dresser un parallèle avec l’automatisation dans l’industrie automobile. Ainsi, plus les véhicules sont récents, plus ils peuvent être accompagnés de fonctions comme le régulateur dynamique de vitesse, le signalement de franchissement de ligne, le braquage d’urgence en cas de risque de collision ou encore le créneau automatique pour se garer. La personne doit cependant rester maitresse de son véhicule. L’automatisation complète change le paradigme et bouscule les responsabilités.
On peut se demander également si l’arrivée d’un nombre toujours plus important de services dopés à l’IA nous rend service ou nous rend plus paresseux, les deux ne s’excluant pas mutuellement. Par exemple, la présence de correcteurs orthographiques toujours plus poussés nous rend-elle meilleurs dans la rédaction ou sape-t-elle l’envie de comprendre l’orthographe et la grammaire ? La traduction automatique peut-elle court-circuiter l’envie d’apprendre des langues ?
L’IA générative pose ses propres questions. Les résultats des chercheurs tendent à montrer qu’elle peut nous rendre paresseux et plus bêtes quand on lui fait trop confiance. Pourtant, ils ajoutent que c’est un mouvement habituel de l’humanité, qui dépose dès qu’elle le peut ses charges cognitives sur les nouvelles technologies. Comme nous l'avons fait avec les numéros de téléphone et les itinéraires routiers, entre autres exemples.
L’IA générative rend idiot, et c’est Microsoft qui le dit
-
Un schéma se dessine
-
Danger de l’assèchement
-
Favoriser la pensée critique
-
Un air de déjà-vu
Commentaires (26)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 14/02/2025 à 10h13
Le 14/02/2025 à 14h08
Le 14/02/2025 à 10h14
Le 14/02/2025 à 10h14
Le 14/02/2025 à 10h37
Le 14/02/2025 à 10h46
(Comprenne qui pourra.)
Le 14/02/2025 à 10h44
L'esprit critique n'est pas inné, ça s'apprend. Mais quand on habitue les gens à consommer passivement, il ne se développe pas.
Le 14/02/2025 à 10h48
Ensuite, n'est-il pas normal de moins contrôler et plus confier de tâches à partir du moment où l'on a plus confiance en un outil ? On fait la même chose avec les humains.
Je ne sais pas si pour autant on perd son esprit critique. On l'exerce probablement moins et ça peut devenir embêtant quand on en a besoin.
Ce n'est pas une raison pour dire que l'on devient bête en utilisant ces outils.
Je suis déçu de l'utilisation de tels qualificatifs qui ne reflètent pas l'étude.
Modifié le 14/02/2025 à 11h09
Par contre, je vois quand même un risque à vouloir faire confiance dans ces outils si on a pas la prise de recul nécessaire. C'est comme tout, cela dit.
J'ai le recul pour savoir que l'IA générative peut se tromper, je remets donc assez systématiquement en cause ce qu'elle produit (et à l'inverse, elle m'a déjà produit un excellent résultat en 5 min là où une heure de recherche web s'est avérée infructueuse). Et j'ai pris pour habitude de ne jamais la croire sur un sujet que je ne maîtrise pas.
Alors je te laisse imaginer ma réponse quand une fois on m'a demandé de convertir un script python vers un langage que je ne connaissais pas en me disant "t'as qu'à utiliser ChatGPT". Hélas, beaucoup s'en contenteront sans même challenger le résultat
Bref, l'IA générative ne rend pas idiot, elle montre qu'on l'est.
Ça me rappelle le même Linux / Windows : Windows prend l'utilisateur pour un imbécile, Linux en veut la preuve.
Le 14/02/2025 à 11h26
-------
L’IA générative rend idiot, et c’est Microsoft qui le dit
Microsoft rend idiot, et c’est l’IA générative qui le dit
Dans une étude réalisée avec l’université de Carnegie Mellon, des chercheurs de Microsoft ont pointé un appauvrissement de l’esprit critique allant de pair avec la confiance portée aux IA génératives. Ils mettent en avant un lien de cause à effet et les dangers qui l’accompagnent.
-------
Mouais, comme la télé, le matraquage de discours quelque soit le media de diffusion et pour certains d'entre eux les manuels scolaires (au hasard les livres d'histoire).
Le 14/02/2025 à 16h06
Le 14/02/2025 à 17h08
Intro :
Le 14/02/2025 à 12h38
Modifié le 14/02/2025 à 13h07
Le 14/02/2025 à 13h55
Modifié le 14/02/2025 à 14h19
Infomaniak a intégré du LLM pour sa suite kDrive, Antidote en propose pour de la reformulation / retouche de texte ainsi que l'analyse, GitLab a une offre de code assisté par IA, etc. Ajoutons à cela les moteurs de recherche Web augmentés par ce moyen, le RAG, etc. Les fonctions de retouche de Photoshop aussi.
Dire qu'il n'existe pas de cas concret d'utilisation est donc un mensonge ou une méconnaissance du sujet.
Le 14/02/2025 à 14h42
Pour le développement et la rédaction assisté c'est effectivement lié à l'IA générative.
Reste à voir l'utilité de ça et du coup le risque pour M$ (et les autres).
Sans parler de l'impact environnemental qui pour moi est le plus gros problème.
Modifié le 14/02/2025 à 15h18
Le 14/02/2025 à 16h08
Le 14/02/2025 à 16h29
Après, je relativiserai en disant que dans la Tech, c'est courant qu'ils perdent de l'argent pendant longtemps. On est dans la phase d'investissement donc le ROI est encore loin. Et je me demande s'il sera si évident à calculer. Encore pour le Cloud, avec tous les grosses entreprises de la Tech qui ont mis leurs propres services dessus, l'investissement se rentabiliser au travers des produits SaaS + des clients Cloud.
Pour les services basés IA, c'est plus un complément qu'un véritable backend aujourd'hui.
Modifié le 14/02/2025 à 15h31
Le 14/02/2025 à 14h28
Promis je ne touche rien, en fait techniquement je fais de la pub pour un concurrent !!
Le 14/02/2025 à 16h08
Du coup, sur la base de cette expérience (qui vaut ce qu'elle vaut), j'ai ma réponse à la question.
Le 14/02/2025 à 18h53
Le 14/02/2025 à 18h58
Le 14/02/2025 à 20h14