Un exemple de plus que l’intelligence artificielle doit être surveillée et encadrée. L’IA générative d’OpenAI « a débloqué pendant plusieurs heures mardi, répondant aux questions des utilisateurs avec des phrases sans aucun sens », explique l’AFP.
L’IA « génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies […] On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté », explique un utilisateur repris par nos confrères.
Toujours selon l’AFP, OpenAI affirme que ChatGPT fonctionne de nouveau « normalement ». La société avait annoncé « enquêter sur des signalements de réponses inattendues de la part de ChatGPT », puis avoir « identifié le problème » et « être en train de le résoudre ». L’entreprise ne donne par contre aucune précision supplémentaire.
Commentaires (31)
#1
#1.1
#1.2
#1.3
– Abraham Lincoln
#2
#3
https://status.openai.com/incidents/ssg8fh7sfyz3
#3.1
Le 20 février 2024, une optimisation de l'expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage.
Les LLM génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur "langage" consiste en des nombres qui correspondent à des jetons.
Dans ce cas, le problème se situe à l'étape où le modèle choisit ces nombres. Comme s'il s'agissait d'une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n'avaient aucun sens. Plus techniquement, les noyaux d'inférence produisaient des résultats incorrects lorsqu'ils étaient utilisés dans certaines configurations de GPU.
Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l'incident était résolu.
#4
#5
Historique des modifications :
Posté le 22/02/2024 à 10h41
« Les calculs sont pas bons Kevin ! »
#6
C'est notamment pour ça qu'on ne peut pas lui demander de "savoir" si 2+2=4. Et que l'on peut lui faire avoir des "hallucinations" assez facilement. Le mot hallucination est d'ailleurs désagréable à mes oreilles : il renforce l'idée que c'est "intelligent" et qu'il est trompé par un événement/une intervention extérieure, alors que c'est juste une réponse "statistiquement valide" (selon le modèle)
(bon, d'accord, j'ai un bon peu simplifié...)
#6.1
Toujours pareil avec les sceptiques, quand vous parlez de l'intelligence humaine vous parlez de la découverte de la relativité générale par Einstein, quand vous parlez de l'IA vous la jugez sur sa pire performance.
#6.2
OpenAI rappelle d'ailleurs que c'est ce qui est fait dans leur Postmortem en lien un peu plus haut.
#6.3
Je suppose que les humains ne fonctionnent pas par association d'idée et qu'à chaque fois qu'on nous présente une multiplication on refait la démonstration fondamentale de la multiplication dans notre esprit.
Pour se pignoler sur "la formidable intelligence des plantes" parce qu'elles orientent leurs feuilles vers le soleil y'a du monde, par contre une machine qui peut faire une dissertation meilleure que 50% des lycéens non c'est pas intelligent, tiens on va plutôt la comparer à un philosophe professionnel comme Raphaël Enthoven. Perso j'aurais trouvé ça plus drôle si au dernier moment on avait demandé à Enthoven et à l'IA de la faire en Coréen la dissertation.
Je suis sûr que quelque part dans la jungle il y a un chimpanzé avec un égo un peu plus boursouflé que les autres, qui est convaincu que son espèce est supérieure et que si les humains ont conquis le monde c'est de la triche car ils utilisent des outils.
#6.4
C'est quoi ?
#6.8
Ha ?
Je pensais que l'orientation des feuilles se faisait via phototropisme: https://fr.wikipedia.org/wiki/Phototropisme
Rien d'intelligent là-dedans, c'est simplement de la physique/biologie ;)
Mais comme pour beaucoup de choses, l'anthropomorphisme nous pousse à imaginer une intelligence là où il n'y en a pas. Il "suffit" généralement de garder l'esprit critique et de faire ses petites recherches pour voir si des scientifiques ont déjà fait des études à ce sujet.
Je vous invite à lire sur les transformers (on parle de réseau de neurones, pas d'Optimus Prime ;) ) et le fonctionnement de GPT pour comprendre un peu plus et éviter de lui accorder trop de capacité.
Historique des modifications :
Posté le 22/02/2024 à 14h27
Ha ?
Je pensais que l'orientation des feuilles se faisait via phototropisme: https://fr.wikipedia.org/wiki/Phototropisme
Rien d'intelligent là-dedans, c'est simplement de la physique ;)
Mais comme pour beaucoup de choses, l'anthropomorphisme nous pousse à imaginer une intelligence là où il n'y en a pas. Il "suffit" généralement de garder l'esprit critique et de faire ses petites recherches pour voir si des scientifiques ont déjà fait des études à ce sujet.
Je vous invite à lire sur les transformers (on parle de réseau de neurones, pas d'Optimus Prime ;) ) et le fonctionnement de GPT pour comprendre un peu plus et éviter de lui accorder trop de capacité.
#6.9
J'ai pas fait mes "petites recherches" j'ai fait mes grandes recherches et je comprends très bien le fonctionnement des transformers, et des modèles de diffusion. Notre désaccord n'est pas technique, il est philosophique.
#6.10
#6.11
On s'est longtemps fourvoyer à tenter de construire des chatbots en essayant de leur faire intégrer une logique et ça n'a jamais rien donner de concluant. Avec les LLM, étonnament, une capacité de raisonnement ou d'intelligence en émerge, mais il est important de garder la nuance, le système n'en devient pas intelligent ni doué de raisonnement pour autant.
En disant que chatGPT est intelligent sans cette nuance, tu pousses juste des personnes à faire confiance aveuglément à ce que sort chatGPT.
En gros, chatGPT n'est pas intelligent.
Ton chat oui, mais le chat de chatGPT ne vient pas de là ;)
Historique des modifications :
Posté le 23/02/2024 à 10h28
Je comprend du coup que tu veux jouer sur le sens donné à l'intelligence. Tu réagis quand même à un commentaire qui indique juste que pour l'instant on survent on peu trop chatGPT et beaucoup de gens se pignolent justement sur l'intelligence de chatGPT et l'utilise en ne prenant pas la mesure de ce qu'il est capable de faire. Parce que justement, l'intelligence que tu peux y voir n'est pas intrinsèque à chatGPT, elle est émergente. Tout comme l'adaptation des espèce est émergente du processus de mutation génétique, ce processus n'est en aucun cas intelligent ni même n'a l'adaptation comme but, ce processus existe tout simplement et a permis de soutenir une évolution des espèces. Ca reste un processus émergent. C'est toute la beauté d'arriver à des systèmes complexes basés sur des briques toute simples.
On s'est longtemps fourvoyer à tenter de construire des chatbots en essayant de leur faire intégrer une logique et ça n'a jamais rien donner de concluant. Avec les LLM, étonnament, une capacité de raisonnement ou d'intelligence en émerge, mais il est important de garder la nuance, le système n'en devient pas intelligent ni doué de raisonnement pour autant.
En disant que chatGPT est intelligent sans cette nuance, tu pousses juste des personnes à faire confiance aveuglément à ce que sort chatGPT.
En gros, chatGPT n'est pas intelligent.
Ton chat oui, mais le chat de chatGPT ne vient pas de là ;)
Posté le 23/02/2024 à 11h27
Je comprend du coup que tu veux jouer sur le sens donné à l'intelligence. Tu réagis quand même à un commentaire qui indique juste que pour l'instant on survend un peu trop chatGPT et beaucoup de gens se pignolent justement sur l'intelligence de chatGPT et l'utilise en ne prenant pas la mesure de ce qu'il est capable de faire. Parce que justement, l'intelligence que tu peux y voir n'est pas intrinsèque à chatGPT, elle est émergente. Tout comme l'adaptation des espèce est émergente du processus de mutation génétique, ce processus n'est en aucun cas intelligent ni même n'a l'adaptation comme but, ce processus existe tout simplement et a permis de soutenir une évolution des espèces. Ca reste un processus émergent. C'est toute la beauté d'arriver à des systèmes complexes basés sur des briques toute simples.
On s'est longtemps fourvoyer à tenter de construire des chatbots en essayant de leur faire intégrer une logique et ça n'a jamais rien donner de concluant. Avec les LLM, étonnament, une capacité de raisonnement ou d'intelligence en émerge, mais il est important de garder la nuance, le système n'en devient pas intelligent ni doué de raisonnement pour autant.
En disant que chatGPT est intelligent sans cette nuance, tu pousses juste des personnes à faire confiance aveuglément à ce que sort chatGPT.
En gros, chatGPT n'est pas intelligent.
Ton chat oui, mais le chat de chatGPT ne vient pas de là ;)
#6.5
Pour le moment c'est niveau Lycée, mais vu la vitesse d'évolution des IA dans quelques années il y aura probablement des théories scientifiques et/ou des démonstrations mathématiques découverte par IA.
#6.7
D'ailleurs, il sera tout aussi simple pour chatGPT de répondre à votre demande quelque soit sa complexité. Le modèle sort de manière déterministe un set de tokens probables pour continuer la conversation (l'aléatoire provient d'un choix arbitraire de ne pas forcément sélectionner le token le plus probable selon le modèle) et en un temps constant que le texte précédant représente des concepts simples ou ultra complexes.
L'une des voies observées sur chatGPT est de laisser la possibilité au LLM de se servir de plugins pour demander des informations à des systèmes qui savent résoudre des problèmes mathématiques par exemple. Cela s'exprime généralement par le fait que l'IA écrive du code python qui est ensuite exécuté pour produire un résultat plus stable que de laisser le modèle générer une réponse plausible et du coup complètement fausse quand on s'attend à un résultat mathématique précis. C'est devenu vachement plus utilisable depuis mais ça n'empêche pas de garder un oeil critique sur le texte produit et de connaitre les limites du systèmes.
Je rejoins le commentaire sur le fait que la presse n'aide pas leurs lecteurs à relativiser sur le message commercial d'openAI, Google, Microsoft et autres. On persiste à présenter les "hallucinations" comme des bugs qui doivent être résolus sans même indiquer que ça fait partie intégrante des systèmes à LLM.
Et on finit par avoir des gens qui utilisent ces solutions en fermant les yeux, comme récemment ces avocats aux US qui reprennent tel quel ce que leur dit chatGPT pour préparer leur plaidoirie et citer des dossiers qui n'existent même pas. (https://www.reuters.com/legal/transactional/another-ny-lawyer-faces-discipline-after-ai-chatbot-invented-case-citation-2024-01-30/)
#6.6
Ce n'est pas un événement ou une intervention, le modèle n'est pas "trompé" quand il hallucine. C'est d'ailleurs même la définition d'hallucination : percevoir quelque chose qui n'existe pas en l'absence de stimuli externe. Dans le cas du LLM, il tombe simplement dans un embranchement statistique produisant un résultat incohérent par manque de données d'entraînement.
On utilise souvent le terme d'une façon péjorative, mais en réalité c'est bel et bien une feature de l'IA générative. ce n'est pas un bug pour reprendre la vieille expression, c'est sa "créativité". C'est notamment la température qui permet de rendre le modèle plus ou moins créatif. Une température à 0 le rendra déterministe avec de très fortes chances de toujours produire le même résultat. Zéro n'est pas recommandé, mais une température basse l'est pour la traduction ou la génération de code par exemple. Par contre, une température moyenne est plus adaptée au cas d'usage d'un chat bot. Trop haute, le modèle peut devenir un peu trop "créatif" par contre et risque de divaguer.
Dans tous les cas, l'hallucination est inévitable pour un LLM. Ce ne sont pas des bases de données ou des indexes, mais des modèles statistiques dont le traitement contient une part d'aléatoire (paramétrable, mais présente). Donc il y aura toujours des résultats incohérents ou incorrects. Il faut juste apprendre à faire avec. C'est notamment pour ça qu'en matière de génération d'image, on fait des batchs de plusieurs résultats pour un prompt, y compris avec la même seed.
#7
Je ne vois pas bien le rapport...
#8
Edit : les "excuses" de Google
Historique des modifications :
Posté le 22/02/2024 à 12h48
Pour Gemini (IAG de Google), la diversité existait aussi chez les soldats SS : lien !
#8.1
Historique des modifications :
Posté le 22/02/2024 à 14h32
Plus globalement, Gemini ne reconnait pas l'existence des personnes de couleur blanche, c'est pourquoi cette image existe. Si tu précises explicitement que tu veux ces personnes, il sortait un pamphlet que l'on peut qualifier de « woke » parlant d'inclusion et de représentation pour refuser au final, mais par contre aucun problème avec d'autres.
Sauf que d'après les réseaux sociaux donc à prendre avec des pincettes, ce serait même au point qu'il aurait du mal avec la couleur blanche en général. Tu lui demandes du pudding blanc, il te sortira une crème au chocolat
Posté le 22/02/2024 à 14h33
Plus globalement, Gemini a beaucoup de mal à reconnaître l'existence des personnes de couleur blanche, c'est pourquoi cette image existe. Si tu précises explicitement que tu veux ces personnes, il peut sortir un pamphlet que l'on peut qualifier de « woke » parlant d'inclusion et de représentation pour refuser au final, mais par contre aucun problème avec d'autres.
Sauf que d'après les réseaux sociaux donc à prendre avec des pincettes, ce serait même au point qu'il aurait du mal avec la couleur blanche en général. Tu lui demandes du pudding blanc, il te sort une crème au chocolat Tout sauf du blanc.
Posté le 22/02/2024 à 14h33
Plus globalement, Gemini a beaucoup de mal à reconnaître l'existence des personnes de couleur blanche, c'est pourquoi cette image existe. Si tu précises explicitement que tu veux ces personnes, il peut sortir un pamphlet que l'on peut qualifier de « woke » parlant d'inclusion et de représentation pour refuser au final, mais par contre aucun problème avec d'autres.
#8.2
https://fr.wikipedia.org/wiki/Relations_entre_l%27Allemagne_et_le_Japon
https://fr.wikipedia.org/wiki/Politique_%C3%A9trang%C3%A8re_du_Troisi%C3%A8me_Reich_avec_le_Moyen-Orient
Allez, avec un peu plus d’inclusivité ils vont illustrer des esclavagistes non-blancs, ce qu'ils démentiront car ça ne correspond a aucune réalité historique , oh wait...
Historique des modifications :
Posté le 22/02/2024 à 22h34
https://fr.wikipedia.org/wiki/Indische_Freiwilligen-Legion_der_Waffen-SS
https://fr.wikipedia.org/wiki/Relations_entre_l%27Allemagne_et_le_Japon
Allez, avec un peu plus d’inclusivité ils vont illustrer des esclavagistes non-blancs, ce qu'ils démentiront car ça ne correspond a aucune réalité historique , oh wait...
Posté le 22/02/2024 à 22h34
https://fr.wikipedia.org/wiki/Indische_Freiwilligen-Legion_der_Waffen-SS
https://fr.wikipedia.org/wiki/Relations_entre_l%27Allemagne_et_le_Japon
Allez, avec un peu plus d’inclusivité ils vont illustrer des esclavagistes non-blancs, ce qu'ils démentiront car ça ne correspond a aucune réalité historique , oh wait...
Posté le 22/02/2024 à 22h35
https://fr.wikipedia.org/wiki/Indische_Freiwilligen-Legion_der_Waffen-SS
https://fr.wikipedia.org/wiki/Relations_entre_l%27Allemagne_et_le_Japon
https://fr.wikipedia.org/wiki/Politique_%C3%A9trang%C3%A8re_du_Troisi%C3%A8me_Reich_avec_le_Moyen-Orient
Allez, avec un peu plus d’inclusivité ils vont illustrer des esclavagistes non-blancs, ce qu'ils démentiront car ça ne correspond a aucune réalité historique , oh wait...
#8.3
Il y a aussi les Pilgrim Fathers noirs ou indiens : lien !
Edit : ortho
Historique des modifications :
Posté le 23/02/2024 à 07h32
De là à inventer des nazis noirs... (en général, les soldats noirs sous uniforme français n'étaient pas faits prisonniers, ils étaient exécutés sur le champ).
Il y a aussi les Pilgrim Father noirs ou indiens : lien !
#8.4
#9
Les params d'un LLM permettent de le faire agir d'une façon stricte ou de plus en plus créative. Mal dosé, le comportement peut devenir erratique et complètement aléatoire.
Ca n'a rien à voir avec une question de surveillance ou d'encadrement, à moins qu'on ne veuille légiférer sur les paramètres de température, top_k, top,p, la pénalité de répétition, etc, qu'on donne au modèle pour le requêter... C'est juste une MEP foireuse comme on en a tous les jours sur le Web.
#9.1
#9.2
#10
J'ai eu peur, il a failli se passer plus de 24h sur Next sans que le fantôme de Thierry Breton qui hante la rédaction ne vienne nous tanner.
Sinon, quel rapport ?