À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée
IA débat
Trois ans après l'arrivée de ChatGPT, les universitaires sont partagés sur la position à tenir face à cet outil, notamment dans les amphis. Refus poli et argumenté ou intégration malgré tout ? À l’université de Bordeaux-Montaigne, par exemple, des assises sur le sujet sont en cours. À Grenoble, l'enseignante-chercheuse en informatique Florence Maraninchi explique à Next que « ce n’est pas un tabou avec les étudiants, on en discute ».
Le 05 janvier à 11h17
14 min
Société numérique
Société
Avant même la sortie de ChatGPT, certains étudiants utilisaient déjà les modèles de langage pour générer tout ou partie de leurs devoirs. Cette pratique, qui s’est largement popularisée avec l’arrivée du chatbot d’OpenAI, a changé les choses à l’université. Il est devenu compliqué de garder les mêmes systèmes d’évaluation. En effet, les devoirs, notamment ceux traditionnellement faits à la maison, ne peuvent plus être considérés comme des travaux personnels.
Trois ans après l’arrivée massive de l’IA générative dans notre quotidien, son utilisation est massive à l’université, par les étudiants de toutes disciplines, qu’ils soient en sciences humaines et sociales, en informatique, en philosophie, en ingénierie ou ailleurs.
Ainsi, 85 % des étudiants de l’université de Bordeaux-Montaigne (axée notamment sur la littérature et les sciences humaines et sociales) déclarent, en réponse à un questionnaire de l’établissement, avoir souvent recours aux IA génératives, et près de 70 % affirment l’utiliser tout le temps.
Si vous traînez en bibliothèque universitaire, vous pouvez parfois entendre des « il dit quoi ChatGPT ? » dans la bouche d’étudiants et d’étudiantes qui bossent leurs cours avec l’IA sans pour autant répéter bêtement ce que dit la machine.
Des universitaires appellent à l’ « arrêt de l'adoption aveugle » ou à l'« objection de conscience »
Si certains estiment que l’IA générative est là et qu’il faut faire avec, force est de constater que le sujet fait encore débat à l'université, en France mais aussi à l’étranger. Ainsi, en juin 2025, plusieurs universitaires néerlandais ont publié une lettre ouverte adressée aux universités de leur pays réclamant l’ « arrêt de l'adoption aveugle des technologies d'IA dans le milieu universitaire ». Celle-ci a recueilli plus de 1 500 signatures, dont celles de plusieurs de leurs collègues en dehors du pays.
En septembre, les enseignants-chercheurs qui ont impulsé cette lettre ouverte ont publié un nouveau texte plus précis pour expliquer « pourquoi les universités doivent prendre leur rôle au sérieux afin a) de contrer le marketing, le battage médiatique et les effets néfastes de l'industrie technologique, et b) de préserver l'enseignement supérieur, la pensée critique, l'expertise, la liberté académique et l'intégrité scientifique ».
Ces critiques ne viennent pas de nulle part ou de personnes qui n’y comprennent rien, au contraire. Par exemple, la première autrice de ces deux textes, Olivia Guest, est enseignante-chercheuse en neurosciences computationnelles, un domaine où on essaie de « comprendre le traitement de l'information opéré par le cerveau à l'aide des modèles de l'informatique », comme le rappelle Wikipédia.
« Étude après étude, il apparaît que les étudiants souhaitent développer ces compétences de pensée critique, qu'ils ne sont pas paresseux et qu'un grand nombre d'entre eux seraient favorables à l'interdiction de ChatGPT et d'outils similaires dans les universités », expliquait Olivia Guest dans un communiqué de son université.
Du côté français aussi la question reste discutée. En février 2025, Florence Maraninchi, professeure en informatique à Grenoble-INP UGA, a publié un billet pour expliquer pourquoi elle n’utilise pas ChatGPT et d’autres outils du genre. « Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques », expliquait-elle.
Depuis, un manifeste pour une « objection de conscience » dans l’enseignement supérieur a été publié. Il réunit à ce jour près de 2 000 signatures. « Nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser », y expliquent les enseignants-chercheurs.
« La mission de l’université n’a jamais consisté à ignorer ce qui se passe dans la société, mais à en construire la compréhension critique », lui rétorque le Réseau scientifique de recherche et de publication (TERRA-HN) dans un texte intitulé « Refuser l’IA à l’université, c’est en abandonner le contrôle au capitalisme ».
Il reste 70% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée
-
Des universitaires appellent à l’ « arrêt de l'adoption aveugle » ou à l'« objection de conscience »
-
Des assises pour réfléchir collectivement sur le sujet
-
Une contradiction profonde avec les objectifs d'enseignement
-
Des machines coupées du monde pour les examens en informatique
-
Des langages exotiques dans lesquels les LLM sont incapables de générer du code
-
Un service d’expérimentation en collaboration avec Mistral en 2026 pour les universités françaises
Commentaires (9)
Le 05/01/2026 à 11h49
- l'université, c'est pour apprendre, développer l'esprit critique et la capacité de rédaction qui permet d'expliquer sa réflexion. Si l'on fait faire son travail par de l'IA générative, on n'apprend pas.
- les étudiants pensent comprendre comment fonctionne l'IA gen alors qu'il comprennent seulement comment l'utiliser.
- il y a des domaines ou cette IA est utile à la recherche et dans ce cas, il faut apprendre à l'utiliser
- même la génération de code est problématique ; j'aime bien le : "Est-ce qu’on embaucherait quelqu’un qui se goure une fois sur deux ?"
Le 05/01/2026 à 11h56
D'ailleurs, la version en anglais de l'article dit bien :La fin de la citation (à partir de although) est cependant nuancée.
Le 05/01/2026 à 12h00
Le 08/01/2026 à 03h39
Le 05/01/2026 à 14h07
Excellent article en tous cas, ça résume extrêmement bien la situation actuelle et le contexte dans lequel on se trouve.
Le 05/01/2026 à 14h23
Le 05/01/2026 à 14h40
L'IA générative peut être une aide à la compréhension parmi d'autres mais simplement une aide, pas l'outil permettant de faire le travail à ta place.
Le 05/01/2026 à 21h21
Sinon très bon article. Dans l'ensemble, les opinions sont variées, pensées et mesurées. Sur ce sujet comme sur beaucoup d'autres, on s'en porterait sûrement pas plus mal on prenait d'avantage exemple sur les universitaires plutôt que sur les médias en quête d'audience ou sur le marketing en quête de profits records ...
Modifié le 06/01/2026 à 20h02
Comme l'indique la conclusion de l'excellente vulgarisation de la relation entre stéréotypes en théorie des jeux The Evolution of Trust :Utiliser un outil non-déterministe et opaque dans le traitement d'information me glace le sang, car il prévoit par nature l'indiscernement entre vérité et mensonge : rien de pire pour torpiller confiance, puis donc coopération.
C'est pourtant cette dernière qui tire le haut tout groupe.
Quelle société voulons-nous ? Nos propres actions participent-elles à sa construction ?
Quelle conditions créons-nous ? Souhaitons-nous les voir être créées ?
Certains enseignants et/ou chercheurs mentionnés dans cet article pointent tout simplement le manque de culture informatique permettant d'avoir accès à la compréhension de ces systèmes de réseaux de neurones, qui à leur tour, donnent les clés des problèmes fondamentaux de ces systèmes lorsqu'ils sont utilisés pour des usages mal maitrisés.
Utiliser ces systèmes pour un spectre trop large (recherche d'information et/ou tâches quotidiennes) sans cadrage de leur sortie, notamment leur erreur (approche statistique non-triviale, comparaison à d'autres sorties, établissement d'un intervalle de confiance, etc.), amène nécessairement à la catastrophe.
Le problème n'est donc pas l'outil, qui peut être tout à fait pertinent dans un usage correctement défini, mais bien son mauvais emploi, de la même manière que n'importe quel outil.
Comme indiqué dans les propos énoncés dans l'article, réduire donc l'approche des réseaux de neurones à des opinions incantatoire (voire absolue) sur l'outil ne mène nulle part.
Pour sortir de ces ornières d'opinions & d'incantation, il faut donc grandir en compréhension. Cela nécessite donc une éducation & une culture informatique, qui manque cruellement dans notre société.
L'essentiel du problème pour moi tient dans cette phrase, que je vais répéter :
Utiliser un outil non-déterministe et opaque dans le traitement d'information.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?