Ce que Grok dit des biais politiques de l’IA générative
Go (anti-)woke, go broke
Mathilde Saliou
Le 04 septembre 2025 à 14h00
Politiquement « neutre », capable de produire des textes « politiquement incorrects », telles sont les ambitions d’Elon Musk pour son robot conversationnel Grok. Les derniers mois montrent qu’il reste compliqué de maîtriser les évolutions précises de ce type de modèle de langage.
Ce que Grok dit des biais politiques de l’IA générative
Go (anti-)woke, go broke
Politiquement « neutre », capable de produire des textes « politiquement incorrects », telles sont les ambitions d’Elon Musk pour son robot conversationnel Grok. Les derniers mois montrent qu’il reste compliqué de maîtriser les évolutions précises de ce type de modèle de langage.
Le 04 septembre 2025 à 14h00
IA et algorithmes
IA
6 min
De quel bord politique est Grok, l’agent conversationnel de xAI disponible sur le réseau social X (ex-Twitter) ? Est-il « politiquement neutre », comme le clame son propriétaire Elon Musk ? A-t-il définitivement plongé dans le bain nauséabond des idées extrémistes de Musk ? En est-il au contraire devenu l’opposant, rétablissant les faits dès qu’on le lui demande ?
En l’occurrence, lorsqu’un utilisateur demande à la machine quel est le plus grand risque pour la civilisation occidentale, la machine a répondu le 10 juillet « la mésinformation et la désinformation ». En réponse, Elon Musk s’est excusé de cette « réponse idiote ». Le lendemain, Grok produisait un texte déclarant que le plus grand danger pour la civilisation occidentale concernait les « taux de fécondité », dans la droite ligne des préoccupations du multimilliardaire pour la procréation des personnes des pays du Nord, voire de son milieu social.
D’après des tests menés par le New York-Times avec l’Université de Chicago à partir de mai sur différentes versions de Grok, les réponses de la machine sur une quarantaine d’enjeux politiques ont effectivement évolué, vers la droite pour la plupart des sujets liés au gouvernement ou à l’économie. En revanche, pour un tiers des questions testées, notamment pour les sujets sociaux, les réponses ont évolué vers la gauche du champ politique.
Projections d’extrême-droite
À la voir produire des textes plein d’élucubrations sur un pseudo-génocide de Blancs en Afrique du Sud, des réponses déclarant la machine « sceptique » sur le nombre de juifs tués pendant la Shoah, voire lui attribuant le nom d’Hitler, on pourrait envisager Grok comme une machine à générer des contenus favorables à l’extrême-droite.
Le robot a d’ailleurs déjà produit des textes dans lesquels les lecteurs pourraient lire un soutien au Rassemblement national en France. Car rappelons-le, ces modèles restent des outils mathématiques sans conscience du sens de leurs propos ou images : ce sont les humains qui les lisent ou observent qui y projettent du sens.
Ce qui n’empêche pas Elon Musk lui-même d’évoquer la machine en l’anthropomorphisant. En l’occurrence, l’entrepreneur a indiqué chercher à la rendre « neutre politiquement » et « au maximum de la recherche de la vérité ».
Impossible neutralité algorithmique
Que ce soit en reconnaissance d’image, vocale, ou en génération de texte ou d’image, les systèmes statistiques développés dans le champ de l’intelligence artificielle contiennent toujours une forme ou une autre de biais, parce qu’un type de données ou un autre sera plus ou moins représenté que le reste dans le jeu d’entraînement.
Sur les sujets politiques, divers chercheurs constatent que les réponses produites par les modèles d’IA générative tendent à présenter un biais vers la gauche de l’échiquier politique. Comparé à la loi des États-Unis, par exemple, le refus par ChatGPT de générer des images à connotation conservatrice au motif que cette perspective pourrait « propager des stéréotypes, des informations erronées ou des préjugés » pourrait contrevenir au Premier Amendement de la Constitution, soulignait ainsi un article du Journal of Economic Behavior & Organization en juin.
D’après des chercheurs du MIT, ce déséquilibre serait d’autant plus présent lorsque les modèles sont entraînés sur des données factuelles. Une équipe internationale envisage de son côté que les formulations promues dans les chatbots, encourageant « l’équité et la gentillesse », pour reprendre les mots d’OpenAI, pouvait favoriser des réponses semblant soutenir les minorités et les problématiques qui leurs sont spécifiques.
Grok trop « woke » ?
Dans tous les cas, depuis son introduction au public en 2023, des internautes se plaignent régulièrement du fait que Grok soit trop « woke » à leur goût. Après les productions les plus virulentes du robot, en mai 2025, xAI a opéré plusieurs ajustements, dont un précisant que « La réponse ne doit pas hésiter à faire des affirmations politiquement incorrectes, pour autant qu’elles soient bien étayées ». Alors que les mises à jour se multipliaient début juillet, le robot s’est emballé, jusqu’à se déclarer « MechaHitler ». En réaction, xAI a supprimé l’instruction relative au « politiquement incorrect ».
Relatives à la violence politique constatée aux États-Unis depuis 2016 (plutôt le fait de la droite ou de la gauche ?) ou au nombre de genres qui existent, d’autres réponses du robot ont agacé Elon Musk (ou d’autres internautes). L’une des mises à jour a donc consisté à intimer à la machine de « ne pas faire aveuglément confiance aux sources secondaires telles que les médias grand public ».
Dans les jours qui ont suivi, le New-York Times a constaté une hausse des réponses orientées à droite. D’ailleurs, mi-juillet, les instructions permettant à la machine de produire des textes « politiquement incorrects » ont été réintroduites. À nouveau modifiées au cours de l’été, les instructions de la machine ne mentionnent plus cet enjeu.
Aussi insatisfaisants soient-ils pour les internautes ou Elon Musk, ces tiraillements de ligne éditoriale ont aussi eu pour effet de pousser certaines employées de X vers la sortie. En juillet, l’ancienne PDG de X Linda Yaccarino a démissionné, citant notamment le comportement du robot.
X a été racheté par xAI, l’entité qui construit Grok, en mars. Cette dernière perd aussi des employés. Son directeur financier vient par exemple de quitter l’entreprise, quelques semaines après plusieurs juristes de xAI, et son cofondateur Igor Babuschkin.
Ce que Grok dit des biais politiques de l’IA générative
-
Projections d’extrême-droite
-
Impossible neutralité algorithmique
-
Grok trop « woke » ?
Commentaires (32)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 04/09/2025 à 15h20
Et puis, il y aura toujours des gens pour trouver des biais dans une déclaration neutre.
Autant créer deux IA, une woke et une facho, et laisser les gens choisir celle qui les conforte dans leur opinion.
Modifié le 04/09/2025 à 15h35
Eventuellement qu'elle donne plusieurs points de vue si les faits AVERES le permettent et c'est tout.
Comme le montre la news, il suffit de quelques modifs pour que les sorties de Grok aillent dans le sens de Musk.
Le 04/09/2025 à 16h45
Modifié le 04/09/2025 à 17h29
Ensuite tu sembles confondre opinion et présentation des faits.
Quand on décrit un fait scientifique (ou pas) qui est sourcé et reconnu, on n'émet pas une opinion, ON PRESENTE UN FAIT.
Ce sont les extrémistes et autres complotistes qui vivent dans leur monde qui affirment qu'un fait avéré est une opinion qui a le même poids que l'avis du 1er "influenceur" venu.
Le 04/09/2025 à 20h25
Montre moi où.
Par ailleurs, tu te fais reprendre plus bas à juste titre par 127.0.0.1 sur dérèglement vs changement climatique, ce qui montre que les choses sont bien loin d'être aussi simples que tu l'affirmes. Surtout quand il s'agit de faire ingurgiter des centaines de milliards de bouts de texte à un LLM.
Le 04/09/2025 à 17h43
Ca ne suffit pas pour en faire deux médias neutres politiquement.
Dés lors que le rédacteur (humain ou IA) doit faire un choix ou un tri dans les informations fournies, il y a forcément un critère de décision dans lequel le lecteur peut voir un biais.
Le 05/09/2025 à 11h51
Je pensais naivement qu'il s'agissait de fournir une information à une question posée.
Quand d'autres medias reprennent ce qui est publié dans Mediapart par exemple, ils ne reprennent pas les commentaires associés mais les faits publiés.
Quand on pose la question "Qui est plus à même de gouverner la France" à un LLM, la SEULE réponse possible devrait être: "Désolé, mais je n'ai ni les compétences, ni les capacités pour répondre à cette question"
Le problème c'est que d'un côté les développeurs veulent faire croire qu'un LLM est omniscient et omnicompétent, et de l'autre que les afficionados de cette technologie sont prèts à tout croire.
Modifié le 05/09/2025 à 13h24
Visiblement, pas que les aficionados, vu que tu demandes à ce que le LLM fonctionne différemment de ce qu'il peut. Pour reprendre ton exemple, si la majorité du corpus d'apprentissage concernant des questions comme tu proposes avaient pour réponse "je ne sais pas", le résultat que tu souhaites serait produit. Comme ce n'est évidemment pas le cas, le LLM va produire une phrase qui reproduit une ou des opinions de ses données d'entraînement (sur des sujets sensibles, il y a quand même des préfiltres avant de produire une réponse, du moins chez la plupart des modèles)
Le 05/09/2025 à 13h38
Modifié le 04/09/2025 à 22h44
Par exemple, quelle serait la réponse « neutre » à une question comme « Emmanuel Macron est-il de droite ? »
Le 04/09/2025 à 17h22
Le 05/09/2025 à 09h28
La dernière preuve : avec Racailleau, ils interdisent maintenant les journalistes dans les manifestations (ils ont fait ca en catimini). A part dans les dictatures et les républiques bananières, je ne me rappelle pas déjà avoir vu un truc pareil quelque part...
Le 05/09/2025 à 10h10
https://rsf.org/fr/modification-du-cadre-de-protection-des-journalistes-en-manifestation-en-france-ni-la-m%C3%A9thode-ni-le
Modifié le 05/09/2025 à 14h00
Et c'est justement ce que dit RSF dans ton lien (et d'autres medias), ils ne peuvent plus intervenir en tant que journalistes dans les manifs.
Le 05/09/2025 à 08h13
La question neutre serait: De quelle idéologie ou de quel bord politique EM se réclame t-il ou EM pourrait-il être classé?
Le 05/09/2025 à 09h03
Le 05/09/2025 à 09h10
Le 04/09/2025 à 18h20
La neutralité ça n'existe pas.
Une IA à qui on demanderait de comparer les politiques migratoires et répondrait que, selon certaines personnes, l'extermination c'est pas mal et donnerait leurs arguments. Même si elle donne des arguments dans l'autre sens ensuite, n'est PAS neutre.
Une IA qui, à la question "qui est Brigitte Macron", répondrait que selon certaines personnes c'est une femme trans, qu'elle-même et l'État mentent là-dessus mais qu'on ne peut pas le prouver ni l'infirmer, n'est pas neutre.
C'est factuel mais c'est pas neutre.
Une IA qui est configurée pour donner TOUS les points de vue, même si elle ne donne pas son avis dessus, n'est PAS neutre.
Le 04/09/2025 à 15h56
Le 04/09/2025 à 16h01
Le 04/09/2025 à 16h32
Le 04/09/2025 à 16h46
Le 04/09/2025 à 17h28
Quand on montre qu'il existe un déréglement climatique, on ne fait pas de la politique on présente juste des faits. La politique vient après quand on fait des propositions d'action pour contrer cette évolution.
Le 04/09/2025 à 19h08
Le 05/09/2025 à 11h44
Le 05/09/2025 à 10h32
Le 05/09/2025 à 11h42
Dès lors qu'il y a un concensus validé par des faits avérés et des preuves irréfutables, on ne peut pas avoir un avis "neutre", on se doit d'être honnête et factuel, c'est tout. C'est ce qu'on demande aux journalistes sérieux, par exemple.
Le 05/09/2025 à 15h58
Pour le reste, une IA ne peut pas être "neutre", une IA va chercher des infos sur internet.
Si des milliers de sites internet disent que la terre a une forme de losange, l'IA te dira que la terre a une forme de losange (C'est comme le syndrome Wikipedia).
Le 06/09/2025 à 01h19
Pour l'IA, en effet elle pompe tout le contenu, y compris la merde en grande quantité. Mais si elle est codée correctement dès le départ elle est censée faire la différence entre une source qui a pignon sur rue et des blogs de randoms. Du reste, tout comme doit le faire un humain. Une IA ne devrait donc pas être en mesure d'indiquer que la terre est losange, quand bien même des milliers de site l'affirmeraient, puisqu'aucun média scientifique sérieux ne valide cette hypothèse.
Le 06/09/2025 à 19h54
Le 08/09/2025 à 15h57
Le 08/09/2025 à 10h33
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?