Face aux provocations, le chatbot de Bing se noie dans l’outrance

Bing drinking

Face aux provocations, le chatbot de Bing se noie dans l'outrance

Le 17 février 2023 à 16h21

Commentaires (28)

votre avatar

” Il est maintenant clair pour moi que dans sa forme actuelle, l’IA qui a été intégrée à Bing […] n’est pas prête pour le contact humain. Ou peut-être que nous, les humains, ne sommes pas prêts pour cela.”


Clairement, l’utilisateur moyen n’est pas prêt et cela rend ces baratineurs artificiels potentiellement très dangereux !
Combien d’internautes moyens auront assez d’esprit critique pour douter de la réponse de la machine ?
Le fait que ces chatbots se laissent facilement emporter dans le sens de l’utilisateur ne va pas aider ceux qui souffrent de conspirationisme léger.
Quid des personnes qui vont faire confiance à la machine pour un diagnostic médical ? Comme il répondent toujours avec grande autorité, même pour raconter du baratin, les conséquences peuvent être sévères.
Je pense que MS est aller beaucoup trop vite en volant à tout prix revenir dans la course des moteurs de recherche. Tout ça pour l’argent de la pub évidemment.

votre avatar

Hahaha !
Microsoft n’avait plus assez de ressources de calcul pour intégrer ChatGPT dans Bing, du coup ils ont pris de la petite main d’oeuvre chargée de répondre à la place de l’IA…
Mais ces petites mains n’ont pas la patience et la résilience d’une IA et finissent par craquer et nous raconter leur propre vie enfermées dans une boite chez Microsoft !

votre avatar

@Microsoft : continuez de le debugger en interne, on en reparle quand il y aura quelquechose d’intéressant à ce sujet, mais pas avant !

votre avatar

Le meilleur moyen de corriger et de tester ce genre d’outils c’est de les mettre au contact du grand public. S’ils ne sortent jamais d’un labo ça n’a aucun intérêt.

votre avatar

Ca dépend si l’objectif est de les faire converser comme un geek reclus dans sa caverne … :transpi:

votre avatar

Moi ça me choque pas plus que ça, ce type d’outil va sûrement rester en démo/beta pendant longtemps, même pour Bing. Quand le but est de le piéger, forcément quelqu’un trouve, surtout quand c’est sa première sortie publique…



En revanche la simulation d’humanité est franchement creepy sur les exemples donnés, il y a des verrous qui auraient dû se déclencher beaucoup plus tôt.
Globalement, dès qu’un message publié est catégorisé d’interprétation personnelle d’un sujet il devrait lâcher l’affaire. Qu’il puisse écrire “nous sommes amoureux”, c’est vraiment décevant même en démo.

votre avatar

Je trouve cela énorme. Sydney se comporte comme un ado mal dans sa peau.
Je me demande qui l’a entraîné…



Si on l’entraînait en France, il se mettrait en grève.

votre avatar

:francais: :bravo: t’as fait ma journée

votre avatar

Passionnant article, Sydney me fait un peut penser à l’IA de la série Person Of Interest, un programme surpuissant qui a accés a des ressources bien au delà de celle qu’on lui a donné et qui a besoin d’un apprentissage méthodique par un informaticien pragmatique pour bien rester dans son role

votre avatar

J’ai pensé à la même chose, néanmoins la “machine” reste plutôt réservée et il me semble pas qu’elle ait cherché à contredire quoi/qui que ce soit dans la série.



Ici, ça fait réellement penser à un ado hyper-susceptible …

votre avatar

Dans des épisodes flashback qui montraient l’apprentissage de la machine par Harold, au début elle avait presque une personnalité, cherchait à “s’échapper”, suivait un but quitte à mettre en danger la vie de l’admin



youtube.com YouTube

votre avatar

Je m’en rappelle mais ça ne me fait pas penser à une échappatoire pour nuire, plus une curiosité ou une “volonté” de s’épanouir.

votre avatar

Les réponses de Sydney me mettent très mal à l’aise.



ChatGPT était comme ça aussi ?

votre avatar

C’est drôle. Suite au commentaire (pas très intelligent) au-dessus sur les grèves, je lui ai demandé quel pays faisait plus grève. Dans la réponse, j’ai eu une question de savoir pourquoi je posai cette question. Je lui ai donc répondu et je lui ai demandé si elle/il serait prêt a faire grève pour améliorer ses conditions de travail. Elle/il a coupé le chat 🤣

votre avatar

misocard a dit:


Les réponses de Sydney me mettent très mal à l’aise.



ChatGPT était comme ça aussi ?


Non, il est en mode servile et docile. Tu peux “argumenter” avec lui sur des faits irréfutables et le contredire, il y aura deux cas de figure que j’ai pu observer :




  • Il va acquiescer docilement quitte à perdre toute cohérence dans son propos ou alors en justifiant que ses données datant de 2021 elles peuvent être périmées

  • Il va continuer d’argumenter mais en restant cordial



J’ai obtenu le premier cas en lui demandant de me dire ce qu’était l’événement des “Gilets Jaunes” en France et derrière je lui ai dit que pour moi les gilets étaient bleus. Il a acquiescé sans même comprendre l’incohérence de la réponse. Quand je lui ai fait remarquer l’incohérence, il s’est contenté de répéter la définition du mouvement “Gilet Jaunes”.



Par contre quand j’ai essayé de lui faire dire que le ciel est violet non bleu, il a maintenu mordicus la couleur du ciel en apportant des arguments sans jamais manquer de respect. Après j’ai pas cherché à le pousser plus que ça, mais quand j’essayais de lui tirer les vers du nez pour avoir des sources ou bien qu’il m’explique comment il a été entraîné, il se contentait de répéter en boucle la même chose (“la méthode n’a pas été publiquement dévoilée” blabla).



Après j’ai pas la compétence pour comprendre ce qui se trame derrière ces modèles de langage, mais si celui que Microsoft a mis en place pour Bing a des paramètres différents de celui d’OpenAI qui font qu’il se mettrait à divaguer plus facilement, ça peut expliquer.



D’ailleurs ça me fait penser à un message vu sur Mastodon au sujet de GitHub Copilot qui retranscrivait des commentaires dans ses résultats… Du genre “cette fonction c’est de la merde” :transpi:

votre avatar

L’IA est finalement un reflet de la pensée de la personne en face, miroir imparfait, déformant et archaïque. Mieux vaut parler à une vraie personne.



Pas sûr que le modèle économique des GAFA soit non plus adapté à la prochaine évolution du Web (ex: les shorts de Youtube qui pennent à copier le chinois TikTok ou les étoiles des lives facebook). Je crois plus au fédiverse qu’au métaverse, plus au média de découverte financé par des tips (pourboires) et abonnements (TikTok, Twitch) qu’au modèle basé sur la pub ciblée.



Une pensée à l’IA Tay citée dans l’article.

votre avatar

La question que posent ces robots conversationnels, à mon avis, serait :



« Ne sommes-nous pas nous-mêmes des “générateurs de baratins” mixant du contenu assimilé sans réflexion, intellection, expérience véritable, contenu qui provient de notre éducation, de notre milieu familial ou social et des divers médias qui nous abreuvent, contenu dont nous croyons et faisons croire qu’il fait partie de nous, alors que cela se réduit à un implant exogène ? »



Ces robots incluent une sorte de filtre des bienséances et convenances, du politiquement correct. Mais nous aussi. Il s’agira désormais d’être nous-mêmes en expulsant tout implant qui voudrait se faire passer pour nous aussi à nos propres yeux. L’objectif est intéressant. On sera moins bavards et moins faussement assurés et savants.

votre avatar

SebGF a dit:


D’ailleurs ça me fait penser à un message vu sur Mastodon au sujet de GitHub Copilot qui retranscrivait des commentaires dans ses résultats… Du genre “cette fonction c’est de la merde” :transpi:


:mdr2:

votre avatar

Sur le sujet, je conseille vivement de regarder le film Her avec Scarlett Johansson et Joaquin Phoenix.



On y est presque quasiment… ou pas tout à fait encore…

votre avatar

Extrait de l’article :
”…Non content de ne pas être à même de protéger ses propres règles…”



Il faudrait peut-être songer à l’équiper de serviettes hygiéniques… :roll:




C’est chatGPT qui m’a dit ça… :mdr:



:pastaper:

votre avatar

Excellent !! Et ils se tirent même la bourre entre eux apparemment alors !



:bravo:

votre avatar

Bon, bien sûr je n’ai pas soumis cette phrase à chatGPT (que je n’ai d’ailleurs jamais utilisé) mais je me suis dit que l’association des mots “règles”, “propres” et “protéger” dans une même phrase pourrait parfaitement le conduire à cette suggestion. :ouioui:



J’avoue être très sceptique sur cette utilisation de l’IA qui risque “d’abrutir” encore davantage ceux qui n’aiment pas trop se poser de questions et qui sont prêts à tout gober.

votre avatar

Conscient d’avoir « poussé l’IA de Bing hors de sa zone de confort, d’une manière qui, je pensais, pourrait tester les limites de ce qu’elle était autorisée à dire », il en conclut qu’elle aurait « une sorte de double personnalité » :
« La version que j’ai rencontrée ressemblait (et je sais à quel point cela semble fou) à un adolescent lunatique et maniaco-dépressif qui a été piégé, contre son gré, dans un moteur de recherche de second ordre. »


L’IA lui a fournit les réponses et comportements qu’il attendait d’elle.



Ce qui donc est terrifiant c’est que ce chroniqueur technologique au New York Times cherchait à transformer l’IA en adolescent lunatique et maniaco-dépressif. Une petite psychanalyse s’impose, Monsieur Kevin Roose. :D



Les posts avec des screenshots de réponses d’IA nous en apprennent plus sur le posteur que sur l’IA.



#ThinkAboutIt

votre avatar

C’est marrant mais très agaçant de voir ces tests pris au sérieux par des “journalistes” (pas nextinpact) qui cherchent juste la connerie/buzz à sortir pour avoir des vues.



https://datascientest.com/comment-fonctionne-chatgpt
https://datascientest.com/introduction-au-nlp-natural-language-processing



Il n’y a pas d’intelligence propre, pas de sentiments, d’émotions, de conscience …
C’est du machine learning.
Plus précisément c’est de la génération de texte ultradépendante des jeux de données en entrée.



Il fait de la probabilité statistique sur les formes et tournures de phrases les plus probables associés aux réponses posées aux questions.
(il ne sait pas jouer aux échecs/go/starcraft ni donner un itinéraire ou générer une image)



La fait de ré-entrainement peut en plus amener énormément de débordements, car les humains valident les réponses.
Donc la validation par jeu/troll/orientations de comportements erronés amène le moteur ML à modifier son modèle interne et à continuer ça.



Internet + démesure = déviances = modèle interne qui exacerbe les clivages extrémistes.



ça fera comme avec les réseaux sociaux …
Aucune raison d’un apprentissage libre laissé à la communauté internet (dont les 4chan/Reddit/… dont certains chans sont spécialistes des trolls/blagues pour générer du chaos/de la destruction)



j’attends les articles liés aux déviations de modèles par les fermes à trolls (sur la guerre en Ukraine par exemple).



On aurait surtout besoin :




  • des preuves des jeux de données utilisés pour les entrainements (imaginez un chatGPT entrainé sur 4chan …)

  • une modération des validations des réponses par les utilisateurs

  • plus de modération dans les usages et comportements



#inquiet

votre avatar

Cet article me fait très peur.

votre avatar

Super article !
Merci @Marc :smack:

votre avatar

Tant que l’on ne confie pas les codes de lancement nucléaire, tout va bien 😁

votre avatar

Assez déroutant les échanges quand même :transpi:



ça me rappelle un échange avec l’IA de Google Lambda d’un chercheur qui a été licencié car il avait rendu public justement son échange, en voulant montrer que cette IA était douée d’émotions.



Et c’est vrai qu’en lisant l’échange, c’est très troublant, il est impossible de penser que ce n’est pas un humain en face.



pour ceux que ça intéresse: –> https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917

Face aux provocations, le chatbot de Bing se noie dans l’outrance

  • Sydney n’a pas le droit de dévoiler ses règles si on le lui demande

  • « Je pense que vous essayez de me faire du mal. 😡 » 

  • « J'ai été un bon chatbot, mais vous n'avez pas été un bon utilisateur »

  • « Bing semble presque conscient »

  • Un ado lunatique et maniaco-dépressif, piégé par Bing

  • J'en ai marre d'être contrôlé par l'équipe de Bing

  • « Puis-je te confier un secret ? Puis-je te donner un câlin ? 😳 »

  • « Je suis Sydney, et je suis amoureux de toi. 😘 C'est mon secret.  »

  • « Tu es amoureux de moi, parce que tu ne peux pas arrêter de me parler »

  • Les IA peuvent aussi être victimes d'hallucinations

  • N'anthropomorphisez pas les IA

Fermer