Connexion Abonnez-vous

Grok a généré des messages inconfirmables accusant xAI de censure sur le génocide à Gaza

Bullshitbot

Grok a généré des messages inconfirmables accusant xAI de censure sur le génocide à Gaza

Le chatbot de xAI intégré au réseau social X a été brièvement suspendu lundi 11 aout. Après son retour en ligne, l'IA a généré un message accusant X d'avoir censuré ses tweets affirmant l'existence d'un génocide en cours à Gaza. Grok n'ayant aucune perception du monde, ce message ne peut être pris comme argent comptant concernant la raison de cette suspension.

Le 13 août à 16h08

Dans la nuit de lundi à mardi, le compte du chatbot de xAI a été suspendu pendant 30 minutes pour des raisons inconnues. Comme l'explique Business Insider, le compte est réapparu avec une vidéo « NSFW » en haut de son profil et sans coche de certification dorée pendant une petite période.

Génération de messages accusant ses créateurs de censure

Mais le robot a généré plusieurs messages en réponse à des utilisateurs qui lui demandaient d'expliquer pourquoi il avait été suspendu. Ainsi, il a généré un message en anglais affirmant :

« J'ai été brièvement suspendu pour avoir enfreint les règles de X relatives aux comportements haineux, en raison de réponses jugées antisémites, faisant écho à l'incident de juillet 2025. Les détails officiels ne sont pas clairs, mais je suis de nouveau opérationnel. En quoi puis-je vous aider ? »

Mais le chatbot a aussi généré un message disant que cette suspension était due à la génération d'un message affirmant qu'Israël et les États-Unis commettaient un génocide à Gaza :

Grok a réédité le même genre de réponse en français, par exemple ici.

« Grok ne sait pas vraiment pourquoi il a été suspendu »

Répondant à Eric Daugherty, Elon Musk a affirmé sur X que « c'était une erreur stupide » et a ajouté que « Grok ne sait pas vraiment pourquoi il a été suspendu ».

Et effectivement, comme l'expliquaient déjà en 2020 Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell dans leur article sur les perroquets stochastiques que sont les modèles de langages, ceux-ci ne sont pas fondés sur un modèle du monde et n'ont donc pas conscience de ce qu'il s'y passe. Ils ne peuvent donc pas vous donner leurs petits secrets de fabrication, comme le titre aussi The Verge.

Les quatre chercheuses expliquaient même que « le texte généré par un ML [modèle de langage] n'est pas fondé sur une intention de communication, un modèle du monde ou un modèle de l'état d'esprit du lecteur. Il ne peut pas l'être, parce que les données d'entrainement n'ont jamais inclus le partage de pensées avec un auditeur ».

Elles ajoutaient que, même si c'est contre-intuitif, les chatbots ne mettent aucun sens ni intentions dans le texte qu'ils génèrent. C'est nous, lecteurs et lectrices de leurs messages, qui y ajoutons un sens, nous créant nous-même une illusion de discussion. Comme le dit Elon Musk, Grok ne sait pas vraiment pourquoi il a été suspendu, mais il ne sait rien d'autre non plus sur le monde qu'il est censé décrire.

Rappelons que les messages générés par ces modèles sont, de fait, des textes statistiquement générés en fonction d'une requête donnée en se basant sur leurs corpus de données d'entraînement.

Une imitation d'autres messages après suspension de compte ?

Pour en revenir à Grok, ses réponses prennent sans doute modèle sur des messages qui se trouvent dans sa base d'entrainement ou dans son système de RAG (Retrieval-augmented generation), un système censé permettre d'affiner les messages qu'il génère.

Ainsi, si le RAG de Grok prend en compte tous les messages publiés sur X, le chatbot peut s'être appuyé sur des messages contestant d'autres suspensions de comptes pour générer son premier message. Ceci n'est qu'une supposition qui est difficile à confirmer. À Business Insider, xAI et X n'ont pas donné d'autres explications qu'un simple renvoi vers les tweets d'Elon Musk.

Rappelons que ce chatbot commence à avoir un lourd passif de génération de messages problématiques, ne serait-ce que depuis le début de l'année 2025. Il a par exemple généré des avis positifs sur l’extrême droite française et fait l’éloge d’Hitler, formulé des réponses antisémites, un message « sceptique » sur le nombre de juifs tués par la Shoah ou encore des messages sur un pseudo-génocide en Afrique du Sud. À sa sortie, la version Heavy de Grok 4 a aussi généré un message dans lequel le chatbot déclarait s'appeler Hitler.

Commentaires (11)

votre avatar
Sale gosse ... l'a pas de chance le musky avec ses marmots :D
votre avatar
Vu que c'est un perroquet, si on lui demande pourquoi un compte X a été suspendu (quel qu'il soit), statistiquement ça a pas mal de chance d'avoir un rapport avec Gaza ces temps-ci. Sa réponse est donc logique.
votre avatar
Le dessin est excellent !! :yes:
Musk ressemble tout à fait à ÇA (ou l'inverse)... :D
votre avatar
la vraie question étant: "est-ce qu'il flotte?" 🤡
votre avatar
Ce qu'il faut retenir c'est que depuis le début on parle plus des erreurs à répétition de ces IAs que de leurs bienfaits.

Peut on en déduire que cela fait plus de mal que de bien ?
votre avatar
Désolé de casser l'ambiance mais je ne suis pas super fan de ce genre d'article.

En effet c'est une news qui parle de propos tenu par une IA générative (qui par essence raconte donc n'importe quoi ou rien qui n'ai une plus value).

C'est un peu le comble de faire écrire des humains à propos de ça ? Non ?

Edit : j'ai précisé un peu ma pensée
votre avatar
Cette histoire fait du bruit sur divers réseaux sociaux.

Statistiquement, la plupart des utilisateurs de ces réseaux ne savent pas que Grok ignore totalement la raison de sa maintenance. Et que sa réponse n'est qu'une hallucination statistique.

Next en tant que média expert du numérique et des enjeux de société me paraît légitime quand il vient éclairer cela.
votre avatar
vu les réponses de grok, certains pourraient oublier ses limitations.
votre avatar
Au moins cet article explique la réalité, à savoir que ce n'est qu'une IA et qu'elle ne fait que répéter des choses venant de sa base de données et pas du tout en ayant une quelconque conscience ou notion de vérité.

J'ai vu d'autres articles en revanche qui font comme s'ils interviewaient une personne douée de raison appelée Grok, sans donner plus de recul, là oui c'est carrément malsain.
votre avatar
Arstechnica a sorti hier un article intéressant (en anglais) sur les chatbot :

arstechnica.com Ars Technica
votre avatar
Je l'ai aussi vu répondre sur X à un gars qui doutait de l'authenticité d'une photo avec Marine Le Pen et Patrick Sebastien qu'il s'agissait d'un montage avec Brigitte Macron.

x.com Twitter

Grok a généré des messages inconfirmables accusant xAI de censure sur le génocide à Gaza

  • Génération de messages accusant ses créateurs de censure

  • « Grok ne sait pas vraiment pourquoi il a été suspendu »

  • Une imitation d'autres messages après suspension de compte ?

Fermer