À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

IA débat

À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

Trois ans après l'arrivée de ChatGPT, les universitaires sont partagés sur la position à tenir face à cet outil, notamment dans les amphis. Refus poli et argumenté ou intégration malgré tout ? À l’université de Bordeaux-Montaigne, par exemple, des assises sur le sujet sont en cours. À Grenoble, l'enseignante-chercheuse en informatique Florence Maraninchi explique à Next que « ce n’est pas un tabou avec les étudiants, on en discute ».

Le 05 janvier à 11h17

Commentaires (9)

votre avatar
Article intéressant qui couvre un large spectre et qui pointe bien quelques problèmes :
- l'université, c'est pour apprendre, développer l'esprit critique et la capacité de rédaction qui permet d'expliquer sa réflexion. Si l'on fait faire son travail par de l'IA générative, on n'apprend pas.
- les étudiants pensent comprendre comment fonctionne l'IA gen alors qu'il comprennent seulement comment l'utiliser.
- il y a des domaines ou cette IA est utile à la recherche et dans ce cas, il faut apprendre à l'utiliser
- même la génération de code est problématique ; j'aime bien le : "Est-ce qu’on embaucherait quelqu’un qui se goure une fois sur deux ?"
votre avatar
Ces critiques ne viennent pas de nulle part ou de personnes qui n’y comprennent rien, au contraire. Par exemple, la première autrice de ces deux textes, Olivia Guest, est enseignante-chercheuse en neurosciences computationnelles, un domaine où on essaie de « comprendre le traitement de l'information opéré par le cerveau à l'aide des modèles de l'informatique », comme le rappelle Wikipédia.
Là, je ne suis pas sûr que son domaine d'expertise soit proche de l'IA. Il fait appel à l'informatique pour simuler le comportement du cerveau (et donc de neurones réels) ce qui est différent des réseaux de neurones artificiels de l'IA.

D'ailleurs, la version en anglais de l'article dit bien :
Computational neuroscience focuses on the description of biologically plausible neurons (and neural systems) and their physiology and dynamics. It is therefore not directly concerned with biologically unrealistic models used in connectionism, control theory, cybernetics, quantitative psychology, machine learning, artificial neural networks, artificial intelligence and computational learning theory;[8][9][10] although mutual inspiration exists and sometimes there is no strict limit between fields,[11][12][13] with model abstraction in computational neuroscience depending on research scope and the granularity at which biological entities are analyzed.
La fin de la citation (à partir de although) est cependant nuancée.
votre avatar
Quand on parle d'expertise, c'est aussi au niveau conceptuel. Et oui, il y a des intrications conceptuelles entre les recherches en IA et en neurosciences (notamment neurosciences computationnelles mais pas que). Mais le sujet de l'article n'est pas celui là, on pourrait faire tout un article sur ces intrications en en faisant l'historique par exemple.
votre avatar
Excellent, et il est pour bientôt cet article? 😁😁😁
votre avatar
Je suis persuadé qu’elle utilise des modèles de neurones synthétiques dans ce but, donc qu’elle doit savoir parfaitement comment ça marche. L’étiquette d’experte n’est clairement pas volée dans ce cas même si son expertise dans le machine learning est appliquée à un autre domaine.

Excellent article en tous cas, ça résume extrêmement bien la situation actuelle et le contexte dans lequel on se trouve.
votre avatar
Cette image de @Flock <3 ! Merci !
votre avatar
De toute façon, il n'y a pas à réfléchir bien loin. Si à l'université tu es incapable de produire un résultat sans IA, c'est que tôt ou tard, tu pourras être remplacé par l'IA.
L'IA générative peut être une aide à la compréhension parmi d'autres mais simplement une aide, pas l'outil permettant de faire le travail à ta place.
votre avatar
Si certains estiment que l’IA générative est là et qu’il faut faire avec
J'ai beaucoup de mal avec cette posture, qui est l'excuse parfaite pour éviter de réfléchir et de faire des efforts. Heureusement que l'humanité ne s'est pas dit « Ah ben ça existe, il faut juste faire avec » avec les armes nucléaires ou le trou de la couche d'ozone.

Sinon très bon article. Dans l'ensemble, les opinions sont variées, pensées et mesurées. Sur ce sujet comme sur beaucoup d'autres, on s'en porterait sûrement pas plus mal on prenait d'avantage exemple sur les universitaires plutôt que sur les médias en quête d'audience ou sur le marketing en quête de profits records ...
votre avatar
Le choix des outils de traitement de l'information modèlent la société.
Comme l'indique la conclusion de l'excellente vulgarisation de la relation entre stéréotypes en théorie des jeux The Evolution of Trust :
À long terme, ce sont les joueurs qui déterminent la partie
Utiliser un outil non-déterministe et opaque dans le traitement d'information me glace le sang, car il prévoit par nature l'indiscernement entre vérité et mensonge : rien de pire pour torpiller confiance, puis donc coopération.
C'est pourtant cette dernière qui tire le haut tout groupe.
Quelle société voulons-nous ? Nos propres actions participent-elles à sa construction ?
Quelle conditions créons-nous ? Souhaitons-nous les voir être créées ?

Certains enseignants et/ou chercheurs mentionnés dans cet article pointent tout simplement le manque de culture informatique permettant d'avoir accès à la compréhension de ces systèmes de réseaux de neurones, qui à leur tour, donnent les clés des problèmes fondamentaux de ces systèmes lorsqu'ils sont utilisés pour des usages mal maitrisés.
Utiliser ces systèmes pour un spectre trop large (recherche d'information et/ou tâches quotidiennes) sans cadrage de leur sortie, notamment leur erreur (approche statistique non-triviale, comparaison à d'autres sorties, établissement d'un intervalle de confiance, etc.), amène nécessairement à la catastrophe.

Le problème n'est donc pas l'outil, qui peut être tout à fait pertinent dans un usage correctement défini, mais bien son mauvais emploi, de la même manière que n'importe quel outil.
Comme indiqué dans les propos énoncés dans l'article, réduire donc l'approche des réseaux de neurones à des opinions incantatoire (voire absolue) sur l'outil ne mène nulle part.
Pour sortir de ces ornières d'opinions & d'incantation, il faut donc grandir en compréhension. Cela nécessite donc une éducation & une culture informatique, qui manque cruellement dans notre société.

L'essentiel du problème pour moi tient dans cette phrase, que je vais répéter :
Utiliser un outil non-déterministe et opaque dans le traitement d'information.

À l’université, l’IA générative « n’est pas tabou », mais toujours questionnée

  • Des universitaires appellent à l’ « arrêt de l'adoption aveugle » ou à l'« objection de conscience »

  • Des assises pour réfléchir collectivement sur le sujet

  • Une contradiction profonde avec les objectifs d'enseignement

  • Des machines coupées du monde pour les examens en informatique

  • Des langages exotiques dans lesquels les LLM sont incapables de générer du code

  • Un service d’expérimentation en collaboration avec Mistral en 2026 pour les universités françaises

Fermer