Pendant quelques heures, ChatGPT racontait n’importe quoi
Le 22 février à 07h41
1 min
IA et algorithmes
IA
Un exemple de plus que l’intelligence artificielle doit être surveillée et encadrée. L’IA générative d’OpenAI « a débloqué pendant plusieurs heures mardi, répondant aux questions des utilisateurs avec des phrases sans aucun sens », explique l’AFP.
L’IA « génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies […] On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté », explique un utilisateur repris par nos confrères.
Toujours selon l’AFP, OpenAI affirme que ChatGPT fonctionne de nouveau « normalement ». La société avait annoncé « enquêter sur des signalements de réponses inattendues de la part de ChatGPT », puis avoir « identifié le problème » et « être en train de le résoudre ». L’entreprise ne donne par contre aucune précision supplémentaire.
Le 22 février à 07h41
Commentaires (31)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 22/02/2024 à 08h09
Le 22/02/2024 à 08h48
Le 22/02/2024 à 11h13
Le 22/02/2024 à 11h18
– Abraham Lincoln
Le 22/02/2024 à 08h28
Le 22/02/2024 à 08h34
https://status.openai.com/incidents/ssg8fh7sfyz3
Le 22/02/2024 à 12h44
Le 20 février 2024, une optimisation de l'expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage.
Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur "langage" consiste en des nombres qui correspondent à des jetons.
Dans ce cas, le problème se situe à l'étape où le modèle choisit ces nombres. Comme s'il s'agissait d'une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n'avaient aucun sens. Plus techniquement, les noyaux d'inférence produisaient des résultats incorrects lorsqu'ils étaient utilisés dans certaines configurations de GPU.
Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l'incident était résolu.
Le 22/02/2024 à 09h07
Modifié le 22/02/2024 à 10h43
Le 22/02/2024 à 10h53
C'est notamment pour ça qu'on ne peut pas lui demander de "savoir" si 2+2=4. Et que l'on peut lui faire avoir des "hallucinations" assez facilement. Le mot hallucination est d'ailleurs désagréable à mes oreilles : il renforce l'idée que c'est "intelligent" et qu'il est trompé par un événement/une intervention extérieure, alors que c'est juste une réponse "statistiquement valide" (selon le modèle)
(bon, d'accord, j'ai un bon peu simplifié...)
Le 22/02/2024 à 11h32
Toujours pareil avec les sceptiques, quand vous parlez de l'intelligence humaine vous parlez de la découverte de la relativité générale par Einstein, quand vous parlez de l'IA vous la jugez sur sa pire performance.
Le 22/02/2024 à 11h37
OpenAI rappelle d'ailleurs que c'est ce qui est fait dans leur Postmortem en lien un peu plus haut.
Le 22/02/2024 à 12h01
Je suppose que les humains ne fonctionnent pas par association d'idée et qu'à chaque fois qu'on nous présente une multiplication on refait la démonstration fondamentale de la multiplication dans notre esprit.
Pour se pignoler sur "la formidable intelligence des plantes" parce qu'elles orientent leurs feuilles vers le soleil y'a du monde, par contre une machine qui peut faire une dissertation meilleure que 50% des lycéens non c'est pas intelligent, tiens on va plutôt la comparer à un philosophe professionnel comme Raphaël Enthoven. Perso j'aurais trouvé ça plus drôle si au dernier moment on avait demandé à Enthoven et à l'IA de la faire en Coréen la dissertation.
Je suis sûr que quelque part dans la jungle il y a un chimpanzé avec un égo un peu plus boursouflé que les autres, qui est convaincu que son espèce est supérieure et que si les humains ont conquis le monde c'est de la triche car ils utilisent des outils.
Le 22/02/2024 à 12h07
Modifié le 22/02/2024 à 14h29
Je pensais que l'orientation des feuilles se faisait via phototropisme: https://fr.wikipedia.org/wiki/Phototropisme
Rien d'intelligent là-dedans, c'est simplement de la physique/biologie ;)
Mais comme pour beaucoup de choses, l'anthropomorphisme nous pousse à imaginer une intelligence là où il n'y en a pas. Il "suffit" généralement de garder l'esprit critique et de faire ses petites recherches pour voir si des scientifiques ont déjà fait des études à ce sujet.
Je vous invite à lire sur les transformers (on parle de réseau de neurones, pas d'Optimus Prime ;) ) et le fonctionnement de GPT pour comprendre un peu plus et éviter de lui accorder trop de capacité.
Le 22/02/2024 à 18h10
J'ai pas fait mes "petites recherches" j'ai fait mes grandes recherches et je comprends très bien le fonctionnement des transformers, et des modèles de diffusion. Notre désaccord n'est pas technique, il est philosophique.
Le 22/02/2024 à 22h26
Modifié le 23/02/2024 à 11h27
On s'est longtemps fourvoyer à tenter de construire des chatbots en essayant de leur faire intégrer une logique et ça n'a jamais rien donner de concluant. Avec les LLM, étonnament, une capacité de raisonnement ou d'intelligence en émerge, mais il est important de garder la nuance, le système n'en devient pas intelligent ni doué de raisonnement pour autant.
En disant que chatGPT est intelligent sans cette nuance, tu pousses juste des personnes à faire confiance aveuglément à ce que sort chatGPT.
En gros, chatGPT n'est pas intelligent.
Ton chat oui, mais le chat de chatGPT ne vient pas de là ;)
Le 22/02/2024 à 13h07
Pour le moment c'est niveau Lycée, mais vu la vitesse d'évolution des IA dans quelques années il y aura probablement des théories scientifiques et/ou des démonstrations mathématiques découverte par IA.
Le 22/02/2024 à 14h19
D'ailleurs, il sera tout aussi simple pour chatGPT de répondre à votre demande quelque soit sa complexité. Le modèle sort de manière déterministe un set de tokens probables pour continuer la conversation (l'aléatoire provient d'un choix arbitraire de ne pas forcément sélectionner le token le plus probable selon le modèle) et en un temps constant que le texte précédant représente des concepts simples ou ultra complexes.
L'une des voies observées sur chatGPT est de laisser la possibilité au LLM de se servir de plugins pour demander des informations à des systèmes qui savent résoudre des problèmes mathématiques par exemple. Cela s'exprime généralement par le fait que l'IA écrive du code python qui est ensuite exécuté pour produire un résultat plus stable que de laisser le modèle générer une réponse plausible et du coup complètement fausse quand on s'attend à un résultat mathématique précis. C'est devenu vachement plus utilisable depuis mais ça n'empêche pas de garder un oeil critique sur le texte produit et de connaitre les limites du systèmes.
Je rejoins le commentaire sur le fait que la presse n'aide pas leurs lecteurs à relativiser sur le message commercial d'openAI, Google, Microsoft et autres. On persiste à présenter les "hallucinations" comme des bugs qui doivent être résolus sans même indiquer que ça fait partie intégrante des systèmes à LLM.
Et on finit par avoir des gens qui utilisent ces solutions en fermant les yeux, comme récemment ces avocats aux US qui reprennent tel quel ce que leur dit chatGPT pour préparer leur plaidoirie et citer des dossiers qui n'existent même pas. (https://www.reuters.com/legal/transactional/another-ny-lawyer-faces-discipline-after-ai-chatbot-invented-case-citation-2024-01-30/)
Le 22/02/2024 à 13h31
On utilise souvent le terme d'une façon péjorative, mais en réalité c'est bel et bien une feature de l'IA générative. ce n'est pas un bug pour reprendre la vieille expression, c'est sa "créativité". C'est notamment la température qui permet de rendre le modèle plus ou moins créatif. Une température à 0 le rendra déterministe avec de très fortes chances de toujours produire le même résultat. Zéro n'est pas recommandé, mais une température basse l'est pour la traduction ou la génération de code par exemple. Par contre, une température moyenne est plus adaptée au cas d'usage d'un chat bot. Trop haute, le modèle peut devenir un peu trop "créatif" par contre et risque de divaguer.
Dans tous les cas, l'hallucination est inévitable pour un LLM. Ce ne sont pas des bases de données ou des indexes, mais des modèles statistiques dont le traitement contient une part d'aléatoire (paramétrable, mais présente). Donc il y aura toujours des résultats incohérents ou incorrects. Il faut juste apprendre à faire avec. C'est notamment pour ça qu'en matière de génération d'image, on fait des batchs de plusieurs résultats pour un prompt, y compris avec la même seed.
Le 22/02/2024 à 12h40
Modifié le 22/02/2024 à 13h13
Edit : les "excuses" de Google
Modifié le 22/02/2024 à 14h34
Modifié le 22/02/2024 à 22h47
https://fr.wikipedia.org/wiki/Relations_entre_l%27Allemagne_et_le_Japon
https://fr.wikipedia.org/wiki/Politique_%C3%A9trang%C3%A8re_du_Troisi%C3%A8me_Reich_avec_le_Moyen-Orient
Allez, avec un peu plus d’inclusivité ils vont illustrer des esclavagistes non-blancs, ce qu'ils démentiront car ça ne correspond a aucune réalité historique , oh wait...
Modifié le 23/02/2024 à 07h33
Il y a aussi les Pilgrim Fathers noirs ou indiens : lien !
Edit : ortho
Le 23/02/2024 à 10h11
Le 22/02/2024 à 12h54
Les params d'un LLM permettent de le faire agir d'une façon stricte ou de plus en plus créative. Mal dosé, le comportement peut devenir erratique et complètement aléatoire.
Ca n'a rien à voir avec une question de surveillance ou d'encadrement, à moins qu'on ne veuille légiférer sur les paramètres de température, top_k, top,p, la pénalité de répétition, etc, qu'on donne au modèle pour le requêter... C'est juste une MEP foireuse comme on en a tous les jours sur le Web.
Le 22/02/2024 à 14h42
Le 22/02/2024 à 17h50
Le 22/02/2024 à 15h03
Sinon, quel rapport ?