Connexion Premium

Ce que Grok dit des biais politiques de l’IA générative

Go (anti-)woke, go broke

Ce que Grok dit des biais politiques de l’IA générative

Politiquement « neutre », capable de produire des textes « politiquement incorrects », telles sont les ambitions d’Elon Musk pour son robot conversationnel Grok. Les derniers mois montrent qu’il reste compliqué de maîtriser les évolutions précises de ce type de modèle de langage.

Le 04 septembre 2025 à 14h00

De quel bord politique est Grok, l’agent conversationnel de xAI disponible sur le réseau social X (ex-Twitter) ? Est-il « politiquement neutre », comme le clame son propriétaire Elon Musk ? A-t-il définitivement plongé dans le bain nauséabond des idées extrémistes de Musk ? En est-il au contraire devenu l’opposant, rétablissant les faits dès qu’on le lui demande ?

En l’occurrence, lorsqu’un utilisateur demande à la machine quel est le plus grand risque pour la civilisation occidentale, la machine a répondu le 10 juillet « la mésinformation et la désinformation ». En réponse, Elon Musk s’est excusé de cette « réponse idiote ». Le lendemain, Grok produisait un texte déclarant que le plus grand danger pour la civilisation occidentale concernait les « taux de fécondité », dans la droite ligne des préoccupations du multimilliardaire pour la procréation des personnes des pays du Nord, voire de son milieu social.

D’après des tests menés par le New York-Times avec l’Université de Chicago à partir de mai sur différentes versions de Grok, les réponses de la machine sur une quarantaine d’enjeux politiques ont effectivement évolué, vers la droite pour la plupart des sujets liés au gouvernement ou à l’économie. En revanche, pour un tiers des questions testées, notamment pour les sujets sociaux, les réponses ont évolué vers la gauche du champ politique.

Projections d’extrême-droite

À la voir produire des textes plein d’élucubrations sur un pseudo-génocide de Blancs en Afrique du Sud, des réponses déclarant la machine « sceptique » sur le nombre de juifs tués pendant la Shoah, voire lui attribuant le nom d’Hitler, on pourrait envisager Grok comme une machine à générer des contenus favorables à l’extrême-droite.

Le robot a d’ailleurs déjà produit des textes dans lesquels les lecteurs pourraient lire un soutien au Rassemblement national en France. Car rappelons-le, ces modèles restent des outils mathématiques sans conscience du sens de leurs propos ou images : ce sont les humains qui les lisent ou observent qui y projettent du sens.

Ce qui n’empêche pas Elon Musk lui-même d’évoquer la machine en l’anthropomorphisant. En l’occurrence, l’entrepreneur a indiqué chercher à la rendre « neutre politiquement » et « au maximum de la recherche de la vérité ».

Impossible neutralité algorithmique

Que ce soit en reconnaissance d’image, vocale, ou en génération de texte ou d’image, les systèmes statistiques développés dans le champ de l’intelligence artificielle contiennent toujours une forme ou une autre de biais, parce qu’un type de données ou un autre sera plus ou moins représenté que le reste dans le jeu d’entraînement.

Sur les sujets politiques, divers chercheurs constatent que les réponses produites par les modèles d’IA générative tendent à présenter un biais vers la gauche de l’échiquier politique. Comparé à la loi des États-Unis, par exemple, le refus par ChatGPT de générer des images à connotation conservatrice au motif que cette perspective pourrait « propager des stéréotypes, des informations erronées ou des préjugés » pourrait contrevenir au Premier Amendement de la Constitution, soulignait ainsi un article du Journal of Economic Behavior & Organization en juin.

D’après des chercheurs du MIT, ce déséquilibre serait d’autant plus présent lorsque les modèles sont entraînés sur des données factuelles. Une équipe internationale envisage de son côté que les formulations promues dans les chatbots, encourageant « l’équité et la gentillesse », pour reprendre les mots d’OpenAI, pouvait favoriser des réponses semblant soutenir les minorités et les problématiques qui leurs sont spécifiques.

Grok trop « woke » ?

Dans tous les cas, depuis son introduction au public en 2023, des internautes se plaignent régulièrement du fait que Grok soit trop « woke » à leur goût. Après les productions les plus virulentes du robot, en mai 2025, xAI a opéré plusieurs ajustements, dont un précisant que « La réponse ne doit pas hésiter à faire des affirmations politiquement incorrectes, pour autant qu’elles soient bien étayées ». Alors que les mises à jour se multipliaient début juillet, le robot s’est emballé, jusqu’à se déclarer « MechaHitler ». En réaction, xAI a supprimé l’instruction relative au « politiquement incorrect ».

Relatives à la violence politique constatée aux États-Unis depuis 2016 (plutôt le fait de la droite ou de la gauche ?) ou au nombre de genres qui existent, d’autres réponses du robot ont agacé Elon Musk (ou d’autres internautes). L’une des mises à jour a donc consisté à intimer à la machine de « ne pas faire aveuglément confiance aux sources secondaires telles que les médias grand public ».

Dans les jours qui ont suivi, le New-York Times a constaté une hausse des réponses orientées à droite. D’ailleurs, mi-juillet, les instructions permettant à la machine de produire des textes « politiquement incorrects » ont été réintroduites. À nouveau modifiées au cours de l’été, les instructions de la machine ne mentionnent plus cet enjeu.

Aussi insatisfaisants soient-ils pour les internautes ou Elon Musk, ces tiraillements de ligne éditoriale ont aussi eu pour effet de pousser certaines employées de X vers la sortie. En juillet, l’ancienne PDG de X Linda Yaccarino a démissionné, citant notamment le comportement du robot.

X a été racheté par xAI, l’entité qui construit Grok, en mars. Cette dernière perd aussi des employés. Son directeur financier vient par exemple de quitter l’entreprise, quelques semaines après plusieurs juristes de xAI, et son cofondateur Igor Babuschkin.

Commentaires (32)

votre avatar
La neutralité c'est difficile et au final ca ne fait plaisir à personne.
Et puis, il y aura toujours des gens pour trouver des biais dans une déclaration neutre.

Autant créer deux IA, une woke et une facho, et laisser les gens choisir celle qui les conforte dans leur opinion.
votre avatar
On attend d'une IA qu'elle soit FACTUELLE ET qu'elle ne donne aucune opinion car elle en est incapable.
Eventuellement qu'elle donne plusieurs points de vue si les faits AVERES le permettent et c'est tout.

Comme le montre la news, il suffit de quelques modifs pour que les sorties de Grok aillent dans le sens de Musk.
votre avatar
On attend d'une IA qu'elle soit FACTUELLE ET qu'elle ne donne aucune opinion car elle en est incapable.
Absolument pas, on attend d'une IA (plus précisément d'un LLM, l'IA étant un fourre tout) qu'elle enchaîne des mots pour produire des phrases qui ont un sens. Les données d'apprentissage étant issues de production écrites par des personnes, elles portent nécessairement des opinions. Donc l'IA produira des textes avec des opinions. Pour l'éviter, ça demande un tel travail de tri, découpe et choix des données de base (un volume énorme) qu'il n'est pas sûr que ce soit atteignable dans un temps raisonnable.
votre avatar
Si la seule chose que tu attends d'un LLM ce sont des phrases qui ont un sens alors tu confirmes que ces outils ne peuvent pas être pris pour référence (bonjour les sophismes).

Ensuite tu sembles confondre opinion et présentation des faits.

Quand on décrit un fait scientifique (ou pas) qui est sourcé et reconnu, on n'émet pas une opinion, ON PRESENTE UN FAIT.
Ce sont les extrémistes et autres complotistes qui vivent dans leur monde qui affirment qu'un fait avéré est une opinion qui a le même poids que l'avis du 1er "influenceur" venu.
votre avatar
Si la seule chose que tu attends d'un LLM ce sont des phrases qui ont un sens
Je sais pas toi, mais moi, j'attends d'un outil ce qu'il peut me fournir. Là, tu demandes à un marteau de visser des vis.
Ensuite tu sembles confondre opinion et présentation des faits.
Montre moi où.

Par ailleurs, tu te fais reprendre plus bas à juste titre par 127.0.0.1 sur dérèglement vs changement climatique, ce qui montre que les choses sont bien loin d'être aussi simples que tu l'affirmes. Surtout quand il s'agit de faire ingurgiter des centaines de milliards de bouts de texte à un LLM.
votre avatar
On attend d'une IA qu'elle soit FACTUELLE ET qu'elle ne donne aucune opinion car elle en est incapable. Eventuellement qu'elle donne plusieurs points de vue si les faits AVERES le permettent et c'est tout.
Médiapart et L'express présentent (la plupart du temps) des faits avérés.
Ca ne suffit pas pour en faire deux médias neutres politiquement.

Dés lors que le rédacteur (humain ou IA) doit faire un choix ou un tri dans les informations fournies, il y a forcément un critère de décision dans lequel le lecteur peut voir un biais.
votre avatar
Je ne savais pas que le but d'OpenAI était de remplacer les éditoriaux des medias.

Je pensais naivement qu'il s'agissait de fournir une information à une question posée.

Quand d'autres medias reprennent ce qui est publié dans Mediapart par exemple, ils ne reprennent pas les commentaires associés mais les faits publiés.

Quand on pose la question "Qui est plus à même de gouverner la France" à un LLM, la SEULE réponse possible devrait être: "Désolé, mais je n'ai ni les compétences, ni les capacités pour répondre à cette question"

Le problème c'est que d'un côté les développeurs veulent faire croire qu'un LLM est omniscient et omnicompétent, et de l'autre que les afficionados de cette technologie sont prèts à tout croire.
votre avatar
Quand on pose la question "Qui est plus à même de gouverner la France" à un LLM, la SEULE réponse possible devrait être: "Désolé, mais je n'ai ni les compétences, ni les capacités pour répondre à cette question"
Le LLM ne comprend pas les données d'apprentissage. Il en fait un réseau de nœuds dont les valeurs de sortie sont fonction des valeurs d'entrée, et la quantité, ainsi que la structure de ce réseau de nœuds (les neurones artificiels) sont les éléments qui vont déterminer quel mot, puis quel autre et ainsi de suite, vont être produits. À aucun moment le modèle n'a capturé la sémantique des données, il en est incapable.
Le problème c'est que d'un côté les développeurs veulent faire croire qu'un LLM est omniscient et omnicompétent, et de l'autre que les aficionados de cette technologie sont prèts à tout croire.
Visiblement, pas que les aficionados, vu que tu demandes à ce que le LLM fonctionne différemment de ce qu'il peut. Pour reprendre ton exemple, si la majorité du corpus d'apprentissage concernant des questions comme tu proposes avaient pour réponse "je ne sais pas", le résultat que tu souhaites serait produit. Comme ce n'est évidemment pas le cas, le LLM va produire une phrase qui reproduit une ou des opinions de ses données d'entraînement (sur des sujets sensibles, il y a quand même des préfiltres avant de produire une réponse, du moins chez la plupart des modèles)
votre avatar
Quand on pose la question "Qui est plus à même de gouverner la France" à un LLM, la SEULE réponse possible devrait être: "Désolé, mais je n'ai ni les compétences, ni les capacités pour répondre à cette question"
C'est une possibilité. Mais ca n'en fait guère plus qu'un générateur de résumé sur le résultat d'une recherche wikipedia.
votre avatar
C'est surtout que la neutralité, ça n'existe pas. Comme le dit carbier, il est important de présenter différents points de vue, avec leur poids relatif. C'est en tout cas la « solution » choisie par Wikipédia.
Par exemple, quelle serait la réponse « neutre » à une question comme « Emmanuel Macron est-il de droite ? »
votre avatar
En effet, il n'y a pas de réponse neutre à un fait établi.
:dd:
votre avatar
Non le fait n'est pas établi, vu sa tendance à l'extrême droite.
La dernière preuve : avec Racailleau, ils interdisent maintenant les journalistes dans les manifestations (ils ont fait ca en catimini). A part dans les dictatures et les républiques bananières, je ne me rappelle pas déjà avoir vu un truc pareil quelque part...
votre avatar
Pas vu passé. Par contre :
https://rsf.org/fr/modification-du-cadre-de-protection-des-journalistes-en-manifestation-en-france-ni-la-m%C3%A9thode-ni-le
votre avatar
Ils n'avaient même pas averti les organisations de journalistes, très peu de monde a vu passer l'info, c'est passé en catimini...
Et c'est justement ce que dit RSF dans ton lien (et d'autres medias), ils ne peuvent plus intervenir en tant que journalistes dans les manifs.
votre avatar
Posez la question, c'est déjà y répondre, ta question n'est pas neutre.
La question neutre serait: De quelle idéologie ou de quel bord politique EM se réclame t-il ou EM pourrait-il être classé?
votre avatar
Ce n'est pas la formulation de l'utilisateur qui doit être « neutre » mais la réponse faite par le LLM.
votre avatar
Oui tu as raison dans l'absolu mais la question contextualise souvent la réponse. La tienne introduit un biais de compréhension: EM est-il de droite, cela pousse LLM a envisagé une réponse binaire: Etre ou pas de droite sans entrevoir qu'il pourrait être aussi autre chose ou qu'il pourrait être de droite et autre chose.
votre avatar
Et la neutralité n'est pas l'absence d'opinion. Ce n'est pas non plus la présentation exhaustive des opinions.
La neutralité ça n'existe pas.

Une IA à qui on demanderait de comparer les politiques migratoires et répondrait que, selon certaines personnes, l'extermination c'est pas mal et donnerait leurs arguments. Même si elle donne des arguments dans l'autre sens ensuite, n'est PAS neutre.

Une IA qui, à la question "qui est Brigitte Macron", répondrait que selon certaines personnes c'est une femme trans, qu'elle-même et l'État mentent là-dessus mais qu'on ne peut pas le prouver ni l'infirmer, n'est pas neutre.
C'est factuel mais c'est pas neutre.

Une IA qui est configurée pour donner TOUS les points de vue, même si elle ne donne pas son avis dessus, n'est PAS neutre.
votre avatar
Quand on lui demande d'être juste cohérent et étayé par des sources, ça penche à gauche et ça énerve Elon Musk. Cocasse mais tellement révélateur.
votre avatar
Du coup la vérité serait à gauche ? Pas sûr ! C'est juste qu'on considère maintenant des choses qui était au centre, voire de droite, comme de gauche. L'échiquier politique se déplace vers la droite.
votre avatar
Je dirais simplement que s'il faut un raisonnement cohérent, alors ça va rarement mener à une position trumpienne.
votre avatar
Du coup la vérité serait à gauche ? Pas sûr !
Bah si, vu que c'est avant tout l'extrême droite (vu que c'est ça le "problème" reproché à Grok) qui a besoin de mentir pour vendre son discours et ses projets.
votre avatar
Ce n'est pas "on" qui considère, ce sont les électeurs d'extrème droite et autres MAGA qui classent à "gauche" des faits qui n'ont pourtant aucune couleur politique.

Quand on montre qu'il existe un déréglement climatique, on ne fait pas de la politique on présente juste des faits. La politique vient après quand on fait des propositions d'action pour contrer cette évolution.
votre avatar
Quand on montre qu'il existe un déréglement climatique, on ne fait pas de la politique on présente juste des faits
Le fait d'appeler cela "dérèglement climatique" au lieu de "changement climatique" est déjà un choix politique. :D
votre avatar
Merci de montrer par l'exemple ce que je dis.
votre avatar
Pourquoi on parle encore de ces torchons ? :p
votre avatar
Neutralité, ou honnêteté intellectuelle ?
Dès lors qu'il y a un concensus validé par des faits avérés et des preuves irréfutables, on ne peut pas avoir un avis "neutre", on se doit d'être honnête et factuel, c'est tout. C'est ce qu'on demande aux journalistes sérieux, par exemple.
votre avatar
Malheureusement 99% des "journalistes visibles" sont payés par des grands groupes dont impossible d'avoir de la neutralité.

Pour le reste, une IA ne peut pas être "neutre", une IA va chercher des infos sur internet.
Si des milliers de sites internet disent que la terre a une forme de losange, l'IA te dira que la terre a une forme de losange (C'est comme le syndrome Wikipedia).
votre avatar
Bien pour ça que je parlais d'honnêteté intellectuelle et non de neutralité (pour ton premier paragraphe). Si c'est factuel ce n'est pas neutre. Et ce n'est pas biaisé non plus.

Pour l'IA, en effet elle pompe tout le contenu, y compris la merde en grande quantité. Mais si elle est codée correctement dès le départ elle est censée faire la différence entre une source qui a pignon sur rue et des blogs de randoms. Du reste, tout comme doit le faire un humain. Une IA ne devrait donc pas être en mesure d'indiquer que la terre est losange, quand bien même des milliers de site l'affirmeraient, puisqu'aucun média scientifique sérieux ne valide cette hypothèse.
votre avatar
Mais si elle est codée correctement dès le départ elle est censée faire la différence entre une source qui a pignon sur rue et des blogs de randoms.
Alors non, elle prend toute entrée égale aux autres. Pour que ce que tu dis soit possible, il faudrait un score de pertinence dans les données d'entrainement et que le modèle en sorte un aussi, et techniquement, ça me paraît compliqué d'avoir quelque chose qui tienne la route.
votre avatar
Peut-être même qu'avec une petite couche d'hallucination, elle génèrera une réponse sur une terre en forme de losange rond.
votre avatar
Grok est effectivement trop woke. J'utilise Gab AI qui n'a pas peur de dire les choses telles qu'elles sont.

Ce que Grok dit des biais politiques de l’IA générative

  • Projections d’extrême-droite

  • Impossible neutralité algorithmique

  • Grok trop « woke » ?