Connexion Premium

« Perroquets stochastiques » : une notion toujours valide malgré les critiques

🦜 🤖

« Perroquets stochastiques » : une notion toujours valide malgré les critiques

Illustration : Flock

Introduite par quatre chercheuses en 2021, la notion de « perroquets stochastiques » est critiquée cinq ans après. Elle ne représenterait pas ce qu’est l’état de l’art actuel et bloquerait les réflexions critiques sur l’IA générative. Le travail de ces chercheuses sur les dangers des grands modèles de langage et leur métaphore reste, cependant, toujours valide concernant les modèles de langage.

Le 19 mars à 15h39

Depuis quelques semaines, plusieurs critiques fleurissent à propos de l’article scientifique fondateur pour la réflexion sur les modèles de langage et l’IA générative qui introduisait la notion de « perroquets stochastiques » (ou, en termes plus accessibles, « perroquets probabilistes »).

Certains demandent carrément aux autrices de revenir dessus, alors que d’autres soulignent surtout sa « réception publique paresseuse » dans les argumentations anti-IA bloquant toute réflexion autour des transformations que l’IA générative implique dans nos vies.

Les perroquets stochastiques ont plus de cinq ans

Comme nous l’expliquions il y a déjà trois ans, les chercheuses Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont mené cette réflexion sur les modèles de langage (LLM) en 2020 (l’article a été publié en 2021), alors que ChatGPT n’était pas encore sorti.

L’article ne minimisait pas la puissance des LLM mais il prévenait des dangers des grands modèles de langage, des risques de dissémination des biais et de désinformation aux coûts environnementaux.

Elles y reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ». Mais elles alertaient justement sur le fait qu’ils pouvaient facilement nous faire croire, « en apparence », à une réflexion et une interaction humaine.

C’est là où elles mobilisaient leur notion de « perroquets stochastiques » pour expliquer que, même si c’est contre-intuitif, c’est « notre perception du texte en langage naturel [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ».

Des demandes insistantes pour gagner un point

Il reste 66% de l'article à découvrir.

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (14)

votre avatar
J'ai l'impression que certaines personnes veulent réécrire l'histoire et la réalité (ou faire dire au papier ce qu'il ne dit pas) parce que ça va à l'encontre de leur narratif particulier.
votre avatar
Des chercheurs en sciences sociales et politique ou des linguistes peuvent être compétents pour évaluer les impacts de l'IA sur la société ou le langage, mais pas pour qualifier ou non les modèles actuels de perroquets stochastiques. Leur opinion sur le sujet n'a pas vraiment d'intérêt académique.

Les réseaux de neurones profonds, incluant les LLMs, ne sont clairement pas des perroquets stochastiques, autant formellement qu'au sens où la plupart des gens le comprennent.

On peut tout de même rappeler que le titre de l'article d'origine est "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜" (oui, l'emoji perroquet fait partie du titre).

Cette présentation a été à l'origine d'erreurs d'appréciation sur ces outils dans la société.
« Les LLM produisent un langage fluide. Or, c’est précisément ce langage fluide que les humains associent à l’intelligence. Par conséquent, selon ce raisonnement, les LLM seraient intelligents. Il s’agit là d’une erreur de raisonnement que ce cadre conceptuel a été conçu pour mettre en évidence. »
L'expression "Stochastic Parrots" est, d'après ses auteurs, avancée non pas dans le but de décrire la réalité mais, littéralement, pour empêcher les gens de croire que les LLMs sont intelligents parce qu’ils maitrisent le langage. C'est une expression qui est explicitement conçue à l'origine pour orienter la perception et le débat public, dans l'objectif de contrer un biais de perception réel, mais qui n'a rien à voir avec la qualification précise de ces outils, ni avec le débat relatif à leur intelligence.
votre avatar
Vous avez pris la peine de vous renseigner sur ces autrices avant d'écrire votre commentaire ?
votre avatar
Oui bien sûr, ce débat ne date pas d'aujourd'hui.
Il est intéressant de lire l'article Medium - dont le lien est aussi dans l'article - dans lequel leur raisonnement est assez clairement décrit:
https://medium.com/@margarmitchell/no-ai-is-not-a-stochastic-parrot-a99e57766bed
Why Call Them Stochastic Parrots? The stochastic parrot metaphor is useful to pinpoint these anthropomorphic traps and disrupt them.
votre avatar
Et donc selon vous ce ne sont que de vulgaires chercheuses en sciences sociales ou politiques, à la rigueur des linguistes, qui n'ont aucune légitimité pour aborder ces questions ? OK.
Bon, manifestement les reviewers de leurs (nombreux) articles ne sont pas d'accords avec vous.
votre avatar
Tu veux dire que pour savoir si on est d'accord ou non avec des gens, il ne suffit pas de se pencher sur le fond, mais il faut aussi étudier leur CV ?
votre avatar
il faut surtout avoir envie de comprendre ce que les gens veulent dire avant de dire qu'on n'est pas d'accord. Critiquer pour critiquer n'a aucun intérêt (scientifique).
votre avatar
Si on critique en déniant par principe à des chercheuses de pouvoir avoir un avis pertinent, oui c'est mieux. Après, c'est vous qui voyez.
votre avatar
Voilà.
C'est marrant cette critique pseudo-sérieuse qui cherche à pseud-remettre en contexte pour en fait légitimer le torrent de boue et les effets très néfastes qu'ils vendent à côté.
Encore une fois les premières cibles sont des femmes. En fait, ces critiques c'est juste du mansplaining qui a tord.
votre avatar
La question reste toujours la même :
La question de la qualité de l'outil vs la question de la perception de la qualité de l'outil.

Une fois encore, un outil a des limites. Qu'il faut connaître.
Nous ne sommes pas restés naïfs face à une image mobile d'un train entrant en gare, qui n'était qu'une reproduction de la réalité. Nous avons à ne pas rester naïfs en face d'un texte proposé par une machine, qui n'est qu'une reproduction d'un mélange d'éléments de réalité.

Il y a un sujet à propos de notre jeune expérience en face de ce type d'outils bien entendu. Mais appeler à la vigilance n'a jamais rendu les choses dangereuses ou sûres, intrinsèquement. C'est une question de bon sens et de prudence.
votre avatar
Désolé (ou pas) que ça dérange les big-tech, mais quand ça en a l'aspect, le goût, et l'odeur...
votre avatar
Le simple fait que l'IA utilise autant d'eau potable, d'énergie et de ressources en général devrait être un énorme problème en soi, avant même d'attaquer tous les autres problèmes que ça cause.
votre avatar
L’IA n’utilise pas beaucoup d’eau potable puisque c’est du refroidissement liquide en circuit fermé, avec un rendement excellent sur cette partie. Sur le reste, moins en effet.
votre avatar
IA, ça fait trop commercial, et c'est non défini, m'enfin, soit on voit a peu près comment ça fonctionne, et le mot n'a pas d'importance, soit non, et alors puisque les résultats que produisent les LLMs pourraient plus impressionner que la dénomination IA, la question de savoir s'il faut mieux décrire par le nom ce qu'on doit comprendre peut paraître logique.

La dénomination courte "LLM" parait mieux nommer un segment applicatif, et donc est plus précis quand on parle uniquement des LLMs, mais il ne dit pas vraiment comment ça fonctionne.

La dénomination "perroquet stochastique" est plus descriptive de ce que c'est réellement. Pour la partie "perroquet", c'est évident (à mon sens). Pour la partie "stochastique", dire que l'apprentissage a une composante aléatoire n'est pas totalement faux, mais en même temps, s'il fallait faire converger le système en explorant les solutions uniquement par de l'aléatoire, ça n'en finirait jamais. D'où l'utilisation d'heuristiques pour accélérer le processus d'apprentissage. C'est pour ça que je trouve le mot évocateur, mais peut être pas assez juste si ça qu'il décrit, mais je pense pas que ce soit ça. Je vois plus les LLMs comme des algorithmes de compression de données avec perte, et qui décompressent ces données quand on leur pose une question.

Toutefois, le résultat que produit un LLM est plutôt assez aléatoire, à la fois en qualité, comme en fiabilité. Et dans ce cas, le mot stochastique a toute sa place, car il est à la fois neutre (il ne dit pas si le modèle est orienté ou non, si c'est bien ou pas bien, même si on sais qu'il peut être orienté), et en même temps, il décrit bien un phénomène quand même systématique pour ces perroquets donc.