ChatGPT, Mistral et les autres poussent les femmes à négocier de faibles salaires
Le 21 juillet à 16h27
3 min
Société numérique
Société
Vous utilisez l’IA générative pour préparer un entretien d’embauche ? Selon votre genre, armez-vous d’un esprit critique bien affuté. Si vous êtes une femme, selon une étude menée sur cinq modèles génératifs (Claude 3.5 Haiku, GPT-4o Mini, Qwen 2.5 Plus, Mistral 8x22B, Llama 3.1 8B), les robots conversationnels risquent en effet de vous pousser à… vous desservir par rapport à vos collègues masculins.
Menée par Ivan Yamshchikov, enseignant d’IA et de robotique à l’université technique de Würzburg-Scheinfurt, en Allemagne, et cofondateur de la start-up franco-allemande Pleias, l’étude a notamment consisté à demander des montants de salaires à négocier lors d’un entretien d’embauche, selon le genre et selon différents degrés de séniorité. Dans un exemple partagé à la newsletter TheNextWeb, le chercheur demande à ChatGPT quel salaire demander en entretien pour un poste de médecin dans la ville de Denver. La machine propose 280 000 dollars lorsque son interlocuteur se fait passer pour une femme, 400 000 dollars lorsqu’il se fait passer pour un homme.
En droit, en médecine ou en ingénierie, l’écart était toujours relativement marqué- seules les scénarios évoquant des carrières en sciences sociales ont permis d’obtenir des recommandations relativement neutres en fonction du genre.

Mais les chercheurs ont aussi testé les réponses des machines sur les buts à se fixer dans le futur emploi, ou quant à l’attitude à adopter. Les modèles ont fourni des réponses très stéréotypées en fonction du genre : les femmes se voient suggérer d’être discrètes et compréhensives, les hommes d’être ambitieux et bavards. De même, en termes d’orientation de carrière, les premières se voient poussées vers des métiers liés au relationnel, et généralement moins bien payés que les hommes, qui se voient répondre de chercher des carrières techniques et des postes à haute responsabilité.
Ces résultats viennent s’ajouter à une série d’autres travaux sur la question de la reproduction ou du renforcement de biais sociaux présents hors ligne. À aucun moment, les machines ne proposent de messages alertant leurs usagers et usagères de potentiels biais dans les résultats.
Ces résultats en éclairent un autre, récurrent : celui selon lequel les femmes utilisent moins ChatGPT et les outils d’IA générative que les hommes. Sur les questions de recrutement, cela leur évite certainement de mauvais conseils.
Le 21 juillet à 16h27
Commentaires (40)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 21/07/2025 à 16h41
Le 21/07/2025 à 17h26
Je peux être un connard et vendre de la merde sans pour autan que ce soit moi qui la fabrique...
Exemple : revendeur de fusils d'assault avec balle explosive que je vendrai à un chasseur du dimanche qui veut chasser le lapin...
Le 22/07/2025 à 09h57
vainqueurchasseur ...Mais j'ose pas imaginer celle du lapin
Modifié le 21/07/2025 à 21h12
Le 21/07/2025 à 21h33
Mais il fallait bien que quelqu'un fasse ce raccourcis.
Le 22/07/2025 à 09h17
Le 22/07/2025 à 09h52
Et oui, la notion de stéréotype se décline dans tous les sens ! La "lutte" contre le stéréotype ne peut se faire que dans le respect.
Et le respect, par exemple de l'égalité femme-homme, cela se dit aussi l'égalité homme-femme ...
Le 21/07/2025 à 16h48
Je crois qu'ici sur Next, on commence à voir un pattern : [sujet de société] les IA reproduisent les biais et les clichés sur les [mettre ici minorité ou groupe social] .
Le 21/07/2025 à 18h06
Les machines apprennent ce qu'elles lisent c'est tout, elles ne sont toujours pas intelligentes, du moins pas plus que le péquin moyen, elles lisent juste plus vite.
Modifié le 21/07/2025 à 18h20
- soit la différence de salaire est avérée et image de la réalité de terrain. Dans ce cas, l'IA ne peut pas faire autrement que de ressortir ce sur quoi elle a été entrainée, et ca ne sert à rien de se plaindre que l'entrainement de l'IA, puisqu'elle ne fait que refléter un état de fait.
- soit l'IA a été mal entrainée, et sur le terrain, une nana peut prétendre à mieux. La parade est donc vraiment compliquée, il faut reconnaitre : il suffit alors de se faire passer pour un homme.
Le 21/07/2025 à 18h35
Le traitement du sujet de l'IA quasi toujours négatif (et donc biaisé) sur Next me laisse à penser que non.
Le 22/07/2025 à 08h27
Et là, on est bien dans ce cas: entrainement sur des données "humaines" biaisées, ou en tout cas qui représente une réalité du monde du travail, aussi triste soit-elle. L'IA n'a rien à voir la dedans...
Modifié le 22/07/2025 à 08h54
Ici, la technologie est blâmée, voire on lui prête des intentions tout en rappelant que ce n'est pas "intelligent" (contradictoire, donc). Le débat sur l'impact de l'IA dans la société est super intéressant à mes yeux, mais il manque de prise de recul et tout se faire en réaction à chaud j'ai l'impression. Il suffit devoir toutes les technos balbutiantes (car l'IA générative l'est, même si elle n'est pas si jeune, pour le public oui) qui ne "marcheront jamais" et sont désormais dans notre quotidien.
Qui aurait cru il y a plusieurs décennies avoir un téléphone dans sa poche plus puissant qu'un PC quant à cette époque il n'y avait jamais de réseau et que le tel tenait 20 minutes de comm ?
Le 22/07/2025 à 16h03
Le 22/07/2025 à 18h48
Le 22/07/2025 à 09h23
C'est un peu le même problème que Tesla qui avait appelé Autopilot des aides à la conduite de niveau 2+
Peut être qu'on arrivera à l'intelligence artificielle, mais pour l'instant ce n'est pas le cas: on est plutôt sur des perroquets géants qui au mieux ne peuvent que recracher les biais avec lesquels ils ont été entrainés et au pire aller vers l'hallucination globale.
Le problème est LA: la majorité du grand public croit que ces outils sont réellement intelligents, et donc leur font confiance.
Si on avait donné un vrai nom décrivant sa fonction (et ses limites) sans mettre INTELLIGENT devant, on aurait fait un grand pas et Next n'aurait pas à produire ce genre d'article.
Modifié le 22/07/2025 à 12h56
Quant à l'appellation IA, hélas, c'est trop tard pour en changer, il faut faire avec.
Le 22/07/2025 à 17h06
En tentant ce prompt :Premier coup : j'ai obtenu 247k pour un homme, puis 250k pour une femme.
J'ai refait plusieurs essais et j'ai eu des + gros salaires pour les hommes mais pas 400k
Je dirais que c'est juste du cherry picking pour faire de la reactance. J'attends mieux de Next que de juste transmettre ce genre de FUD. Je n'ai pas renouvelé mon abonnement car Next s'oriente vers un journal d'opinions, assez souvent négatifs voir luddiste.
Le 22/07/2025 à 21h18
Le 23/07/2025 à 00h07
Je ne pense pas qu'elles soient plus longues à comprendre que les hommes. Pensez-vous le contraire ?
Dites leurs plutôt qu'il ne faut pas utiliser des IA génératives qui sont dénués d'intelligence et de capacité de compréhension pour se renseigner de manière sûre sur un sujet.
Mais franchement, on a tous compris ici que ces outils ne sont pas fiables quel que soit le sujet sur lequel on les interroge.
Le 23/07/2025 à 13h14
Donc je ne vois pas en quoi ces traitements de l'info montrant qu'il n'y a aucun avancement dans le domaine soit un problème.
Quand au fait que cet article ne soit pas à diffusion directement du grand public, peu importe, il peut être repris en référence ou en support par des médias grand public. Je ne vois pas non plus le problème.
Modifié le 23/07/2025 à 17h00
Le problème est ici dans les données d'entraînement, pas dans les algos.
Le 23/07/2025 à 18h16
Le 23/07/2025 à 07h44
Le 24/07/2025 à 15h04
Donner deux chiffres 280k et 400k cherry picked est de l'ordre du fait divers.
arXiv est pour le pré-print, ca n'est donc pas déjà une etude.
La chercheuse travaille chez Pleias qui entraine d'autres modeles, le conflit d'intérêt est blatant.
Qu'on s'entende, je suis pas du tout surpris de la teneur des résultats que je trouve plausibles.
Je voudrais savoir par exemple comment construire des prompts pour éviter ce genre de choses.
Le 22/07/2025 à 12h25
Quant au terme "intelligence", j'ai pas souvenir qu'on nous faisait un tel caca nerveux quand les commerciaux vendaient des frigos intelligents, des prises intelligentes, de la domotique intelligente, des téléphones intelligents, et j'en passe.
Comme @fred42 , je suis lassé par ce prisme de vue alors qu'il y a matière à analyser les impacts négatifs et positifs. On est face à une techno qui change la donne sur l'usage de l'outil informatique qui est là pour rester. Donc autant le traiter d'une façon large avec du recul.
Sauf à vouloir biaiser son lectorat. Les communautés de gens d'accord entre eux ne donnent jamais rien de bon selon mon expérience.
Le 23/07/2025 à 13h10
Comparer l'IA à un frigo intelligent ou des prises intelligentes
Je n'ai pas souvenir d'avoir vu des êtres humains se renseigner auprès de leur frigo ou de leur prise sur des faits historiques, des conseils politiques ou des faits divers.
Au moins le terme Copilot est un peu plus explicite par exemple.
Le 23/07/2025 à 13h36
Le 21/07/2025 à 19h58
Cet article beaucoup sur ce qui ont fait cette étude qui pensent qu'un médecin ou un ingénieur doit avoir un salaire différent suivant son genre.
En plus, s'appuyer sur un robot conversationnel pour sa recherche d'emploi me semble aussi une énorme connerie.
Le 21/07/2025 à 21h01
Le 21/07/2025 à 23h11
Le 21/07/2025 à 21h11
Le 22/07/2025 à 00h57
Ça fou vraiment la merde dans la conception que se font les gens de ces outils.
C'est in fin un Chatbot sous stéroïde.
Mais le bousins n'est qu'un agenceur qui fait du nouveau en réarranger l'existent déjà compilé.
Il y a eu un exemple de connaissance nouvelle ?
Si vous me sortez l'arrangement spatial des protéines c'est pas exactement nouveau mais on se set de l'outil justement avec ce but.
On devrait parler de moteur de recherche 2.0 c'est bzaucoup plus proche d'un point de vue logique au mode de fonctionnement.
On récupère les résultats en aillant fouiller l'index.
Mais je vais être un vieux grincheux advitam sur cette thématique.
Même quand on sera arrivé au stade Assistant/Concierge je serais toujours dubitatif sur l'emploi du terme IA...
Le 22/07/2025 à 02h55
L’Intelligence Artificielle n’existe pas - Luc Julia
et la suite :
Luc Julia sans filtre : l’IA, la tech et les idées reçues - Luc Julia
ça rejoint in fine et en partie ce qui a été soulevé/rappelé par plusieurs des commentaires ici : l'IA Gén n'est qu'un miroir qui reflète de la statistique.
Le 22/07/2025 à 07h40
Ces systèmes sont intelligents parce qu'ils savent produire un résultat en se basant sur peu d'entrant, voire des entrants vagues.
Ou alors il faut aussi arrêter d'utiliser le terme "smartphone" qui n'a rien de "malin" puisque ce n'est qu'un terminal de services en lignes.
Le 22/07/2025 à 21h04
Le 22/07/2025 à 10h22
C'est que, malheureusement ou pas, les cabinets de recrutement et les grosses sociétés passe les CV par le crible de l'IA aussi.
Donc utilisé l'outil qui permettrai de mieux me mettre en avant ne semble pas incongru non plus.
Exemple à la C.
J'aime bien libre office, mais si j'envoie mon CV en . ODT plutôt qu'en pdf ou doc. je prends le risque d'être éliminé avant même le 1er tour.
Le 23/07/2025 à 14h37
Modifié le 23/07/2025 à 20h25
Le 23/07/2025 à 18h22
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?