« Perroquets stochastiques » : une notion toujours valide malgré les critiques
🦜 🤖
Illustration : Flock
Le 19 mars à 15h39
Introduite par quatre chercheuses en 2021, la notion de « perroquets stochastiques » est critiquée cinq ans après. Elle ne représenterait pas ce qu’est l’état de l’art actuel et bloquerait les réflexions critiques sur l’IA générative. Le travail de ces chercheuses sur les dangers des grands modèles de langage et leur métaphore reste, cependant, toujours valide concernant les modèles de langage.
« Perroquets stochastiques » : une notion toujours valide malgré les critiques
🦜 🤖
Illustration : Flock
Introduite par quatre chercheuses en 2021, la notion de « perroquets stochastiques » est critiquée cinq ans après. Elle ne représenterait pas ce qu’est l’état de l’art actuel et bloquerait les réflexions critiques sur l’IA générative. Le travail de ces chercheuses sur les dangers des grands modèles de langage et leur métaphore reste, cependant, toujours valide concernant les modèles de langage.
Le 19 mars à 15h39
IA et algorithmes
IA
6 min
Depuis quelques semaines, plusieurs critiques fleurissent à propos de l’article scientifique fondateur pour la réflexion sur les modèles de langage et l’IA générative qui introduisait la notion de « perroquets stochastiques » (ou, en termes plus accessibles, « perroquets probabilistes »).
Certains demandent carrément aux autrices de revenir dessus, alors que d’autres soulignent surtout sa « réception publique paresseuse » dans les argumentations anti-IA bloquant toute réflexion autour des transformations que l’IA générative implique dans nos vies.
Les perroquets stochastiques ont plus de cinq ans
Comme nous l’expliquions il y a déjà trois ans, les chercheuses Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell ont mené cette réflexion sur les modèles de langage (LLM) en 2020 (l’article a été publié en 2021), alors que ChatGPT n’était pas encore sorti.
L’article ne minimisait pas la puissance des LLM mais il prévenait des dangers des grands modèles de langage, des risques de dissémination des biais et de désinformation aux coûts environnementaux.
Elles y reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ». Mais elles alertaient justement sur le fait qu’ils pouvaient facilement nous faire croire, « en apparence », à une réflexion et une interaction humaine.
C’est là où elles mobilisaient leur notion de « perroquets stochastiques » pour expliquer que, même si c’est contre-intuitif, c’est « notre perception du texte en langage naturel [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ».
Des demandes insistantes pour gagner un point
Il reste 66% de l'article à découvrir.
Déjà abonné ou lecteur ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
expert et sans pub.
Commentaires (14)
Modifié le 19 mars à 16h30
Modifié le 19 mars à 21h09
Les réseaux de neurones profonds, incluant les LLMs, ne sont clairement pas des perroquets stochastiques, autant formellement qu'au sens où la plupart des gens le comprennent.
On peut tout de même rappeler que le titre de l'article d'origine est "On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜" (oui, l'emoji perroquet fait partie du titre).
Cette présentation a été à l'origine d'erreurs d'appréciation sur ces outils dans la société.
L'expression "Stochastic Parrots" est, d'après ses auteurs, avancée non pas dans le but de décrire la réalité mais, littéralement, pour empêcher les gens de croire que les LLMs sont intelligents parce qu’ils maitrisent le langage. C'est une expression qui est explicitement conçue à l'origine pour orienter la perception et le débat public, dans l'objectif de contrer un biais de perception réel, mais qui n'a rien à voir avec la qualification précise de ces outils, ni avec le débat relatif à leur intelligence.
Le 19 mars à 20h58
Modifié le 19 mars à 21h19
Il est intéressant de lire l'article Medium - dont le lien est aussi dans l'article - dans lequel leur raisonnement est assez clairement décrit:
https://medium.com/@margarmitchell/no-ai-is-not-a-stochastic-parrot-a99e57766bed
Le 20 mars à 16h20
Bon, manifestement les reviewers de leurs (nombreux) articles ne sont pas d'accords avec vous.
Le 19 mars à 22h27
Modifié le 20 mars à 16h06
Modifié le 20 mars à 19h24
Le 20 mars à 18h56
C'est marrant cette critique pseudo-sérieuse qui cherche à pseud-remettre en contexte pour en fait légitimer le torrent de boue et les effets très néfastes qu'ils vendent à côté.
Encore une fois les premières cibles sont des femmes. En fait, ces critiques c'est juste du mansplaining qui a tord.
Le 19 mars à 19h11
La question de la qualité de l'outil vs la question de la perception de la qualité de l'outil.
Une fois encore, un outil a des limites. Qu'il faut connaître.
Nous ne sommes pas restés naïfs face à une image mobile d'un train entrant en gare, qui n'était qu'une reproduction de la réalité. Nous avons à ne pas rester naïfs en face d'un texte proposé par une machine, qui n'est qu'une reproduction d'un mélange d'éléments de réalité.
Il y a un sujet à propos de notre jeune expérience en face de ce type d'outils bien entendu. Mais appeler à la vigilance n'a jamais rendu les choses dangereuses ou sûres, intrinsèquement. C'est une question de bon sens et de prudence.
Le 20 mars à 16h42
Le 20 mars à 19h13
Le 21 mars à 06h02
Le 21 mars à 18h13
La dénomination courte "LLM" parait mieux nommer un segment applicatif, et donc est plus précis quand on parle uniquement des LLMs, mais il ne dit pas vraiment comment ça fonctionne.
La dénomination "perroquet stochastique" est plus descriptive de ce que c'est réellement. Pour la partie "perroquet", c'est évident (à mon sens). Pour la partie "stochastique", dire que l'apprentissage a une composante aléatoire n'est pas totalement faux, mais en même temps, s'il fallait faire converger le système en explorant les solutions uniquement par de l'aléatoire, ça n'en finirait jamais. D'où l'utilisation d'heuristiques pour accélérer le processus d'apprentissage. C'est pour ça que je trouve le mot évocateur, mais peut être pas assez juste si ça qu'il décrit, mais je pense pas que ce soit ça. Je vois plus les LLMs comme des algorithmes de compression de données avec perte, et qui décompressent ces données quand on leur pose une question.
Toutefois, le résultat que produit un LLM est plutôt assez aléatoire, à la fois en qualité, comme en fiabilité. Et dans ce cas, le mot stochastique a toute sa place, car il est à la fois neutre (il ne dit pas si le modèle est orienté ou non, si c'est bien ou pas bien, même si on sais qu'il peut être orienté), et en même temps, il décrit bien un phénomène quand même systématique pour ces perroquets donc.
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?