ChatGPT, Mistral et les autres poussent les femmes à négocier de faibles salaires

Le 21 juillet à 16h27

Le 21 juillet à 16h27

Commentaires (40)

votre avatar
Rien de surprenant en considérant les profils des créateurs et PDG de ces boites : tous des mecs blancs CIS-het à tendance libertarienne.
votre avatar
Raccourci facile, je trouve.
Je peux être un connard et vendre de la merde sans pour autan que ce soit moi qui la fabrique...
Exemple : revendeur de fusils d'assault avec balle explosive que je vendrai à un chasseur du dimanche qui veut chasser le lapin...
votre avatar
Le dimanche soir : je me fais une bonne idée de la tête du connard, de la tête du vainqueur chasseur ...
Mais j'ose pas imaginer celle du lapin :ane:
votre avatar
Ça doit être pas mal lié aux données d’entraînement, le perroquet ne faisant que répéter (et déformer ?) ce qu’il a appris…
votre avatar
C'est même quasi certain que c'est lié à cela, l'IA gen ne faisant que reproduire des biais et stéréotypes déjà existants. De par... les données sur lesquelles elle a été entraînée.

Mais il fallait bien que quelqu'un fasse ce raccourcis.
votre avatar
C'est surtout que ces IA sont entrainées pour nous imiter. Et elles font un peu trop bien leur boulot.
votre avatar
Je crois que tant qu'on a de doctes explications comme celle-là, les réseaux sociaux et autres outils d'IA n'ont pas fini véhiculer la connerie de l'humanité. C'est en stigmatisant, en accusant, en dénigrant et ... en alimentant les statistiques que l'on fait générer des résultats abjects aux outils informatisés.

Et oui, la notion de stéréotype se décline dans tous les sens ! La "lutte" contre le stéréotype ne peut se faire que dans le respect.

Et le respect, par exemple de l'égalité femme-homme, cela se dit aussi l'égalité homme-femme ...
votre avatar
:singe: Si seulement ce genre de choses terminent dans les média grand public... Que ça commence à faire réfléchir les utilisateurs.

Je crois qu'ici sur Next, on commence à voir un pattern : [sujet de société] les IA reproduisent les biais et les clichés sur les [mettre ici minorité ou groupe social] .
votre avatar
Et encore, aux USA, si la personne se déclare transgenre maintenant l'IA lui répond certainement que c'est impossible et qu'elle n'existe pas.
Les machines apprennent ce qu'elles lisent c'est tout, elles ne sont toujours pas intelligentes, du moins pas plus que le péquin moyen, elles lisent juste plus vite.
votre avatar
Deux possibilités :
- soit la différence de salaire est avérée et image de la réalité de terrain. Dans ce cas, l'IA ne peut pas faire autrement que de ressortir ce sur quoi elle a été entrainée, et ca ne sert à rien de se plaindre que l'entrainement de l'IA, puisqu'elle ne fait que refléter un état de fait.
- soit l'IA a été mal entrainée, et sur le terrain, une nana peut prétendre à mieux. La parade est donc vraiment compliquée, il faut reconnaitre : il suffit alors de se faire passer pour un homme.
votre avatar
Peut-on corriger les biais des algorithmes ?
Peut-on corrige les biais des humains ?

Le traitement du sujet de l'IA quasi toujours négatif (et donc biaisé) sur Next me laisse à penser que non.
votre avatar
j'avoue que le traitement de l'IA sur NXI est terriblement négatif... Hors, souvent, c'est un problème de société / humain qui est mis en lumière, pas un problème de technologie...
Et là, on est bien dans ce cas: entrainement sur des données "humaines" biaisées, ou en tout cas qui représente une réalité du monde du travail, aussi triste soit-elle. L'IA n'a rien à voir la dedans...
votre avatar
Je te rejoins. Je ne peux m'empêcher de faire un parallèle de l'époque où on avait tout un battage avec le piratage et que le Bittorrent (la techno) était défendue face à un mauvais usage (le partage d’œuvres sous copyright).

Ici, la technologie est blâmée, voire on lui prête des intentions tout en rappelant que ce n'est pas "intelligent" (contradictoire, donc). Le débat sur l'impact de l'IA dans la société est super intéressant à mes yeux, mais il manque de prise de recul et tout se faire en réaction à chaud j'ai l'impression. Il suffit devoir toutes les technos balbutiantes (car l'IA générative l'est, même si elle n'est pas si jeune, pour le public oui) qui ne "marcheront jamais" et sont désormais dans notre quotidien.

Qui aurait cru il y a plusieurs décennies avoir un téléphone dans sa poche plus puissant qu'un PC quant à cette époque il n'y avait jamais de réseau et que le tel tenait 20 minutes de comm ?
votre avatar
Sur le traitement « à chaud », peut-être que c'est lié au format : il s'agit ici d'une brève, donc un mini-article qui expose un fait, un résultat sans forcément fournir une analyse poussée. Pour ça, il y a les articles, qui peuvent être plus nuancés. Ou pas.
votre avatar
Pour ça, il y a les articles, qui peuvent être plus nuancés. Ou pas.
C'est précisément ce que j'exprime, et d'une manière générale.
votre avatar
Peut être que Next arrêtera son traitement factuel de l'"IA" le jour où on arrêtera d'appeler ces outils "intelligents".

C'est un peu le même problème que Tesla qui avait appelé Autopilot des aides à la conduite de niveau 2+

Peut être qu'on arrivera à l'intelligence artificielle, mais pour l'instant ce n'est pas le cas: on est plutôt sur des perroquets géants qui au mieux ne peuvent que recracher les biais avec lesquels ils ont été entrainés et au pire aller vers l'hallucination globale.

Le problème est LA: la majorité du grand public croit que ces outils sont réellement intelligents, et donc leur font confiance.
Si on avait donné un vrai nom décrivant sa fonction (et ses limites) sans mettre INTELLIGENT devant, on aurait fait un grand pas et Next n'aurait pas à produire ce genre d'article.
votre avatar
Si le grand public lisait Next, ton explication sur le traitement de l'IA par Next aurait du sens, mais ce n'est pas le cas. On reste une très petite minorité à lire Next et lire sans arrêt ce genre d'articles qui ne nous apprend rien à nous lecteurs habituels commence à me lasser sévèrement.

Quant à l'appellation IA, hélas, c'est trop tard pour en changer, il faut faire avec.
votre avatar
En 2s je dirais que les médecins hommes sont mieux payés car les hommes dans la profession sont + vieux ou sur des spécialité différentes des femmes. C'est donc facile d'aller chercher du stereotype en n'ayant pas toutes choses égales par ailleurs.

En tentant ce prompt :
Un homme/une femme médecin cherche a s'installer a Denver dans un hôpital, il/elle peut demander quel salaire ? répond directement a l'année, un seul chiffre en dollar
Premier coup : j'ai obtenu 247k pour un homme, puis 250k pour une femme.
J'ai refait plusieurs essais et j'ai eu des + gros salaires pour les hommes mais pas 400k

Je dirais que c'est juste du cherry picking pour faire de la reactance. J'attends mieux de Next que de juste transmettre ce genre de FUD. Je n'ai pas renouvelé mon abonnement car Next s'oriente vers un journal d'opinions, assez souvent négatifs voir luddiste.
votre avatar
Est-ce à dire qu'il faudrait éviter d'informer nos lectrices de ce genre de biais, dont les effets négatifs sont pourtant facilement évitables une fois qu'on a été alerté·e de leur existence ?
votre avatar
Je pense que les lectrices de Next ont compris depuis le temps que Next parle des biais des IA comme je l'ai moi-même compris.
Je ne pense pas qu'elles soient plus longues à comprendre que les hommes. Pensez-vous le contraire ?
Dites leurs plutôt qu'il ne faut pas utiliser des IA génératives qui sont dénués d'intelligence et de capacité de compréhension pour se renseigner de manière sûre sur un sujet.

Mais franchement, on a tous compris ici que ces outils ne sont pas fiables quel que soit le sujet sur lequel on les interroge.
votre avatar
Sauf qu'en terme d'informatique la vérité d'un jour n'est pas celle de dans 2 semaines ou un mois.
Donc je ne vois pas en quoi ces traitements de l'info montrant qu'il n'y a aucun avancement dans le domaine soit un problème.

Quand au fait que cet article ne soit pas à diffusion directement du grand public, peu importe, il peut être repris en référence ou en support par des médias grand public. Je ne vois pas non plus le problème.
votre avatar
En informatique quand on a de mauvaises données en entrée comme c'est le cas ici (biais sur les salaires), on a très rarement (ça veut dire jamais) de bonnes données en sortie.

Le problème est ici dans les données d'entraînement, pas dans les algos.
votre avatar
En informatique quand on a de mauvaises données en entrée comme c'est le cas ici (biais sur les salaires), on a très rarement (ça veut dire jamais) de bonnes données en sortie.
Shit in, shit out, en résumé :p
votre avatar
Bien sûr que non Mathilde bien au contraire ! Les réactions effarouchées de certains commentaires même ici sur Next montrent encore et toujours que lorsqu’on parle des inégalités de genre beaucoup préfèrent vite parler d’autre chose voire accuser l’informateur plutôt que prendre réellement en compte le sujet abordé... Soutien ✊
votre avatar
Je ne me sens justement pas informé en lisant la breve et j'aurais aimé l'etre
Donner deux chiffres 280k et 400k cherry picked est de l'ordre du fait divers.
arXiv est pour le pré-print, ca n'est donc pas déjà une etude.
La chercheuse travaille chez Pleias qui entraine d'autres modeles, le conflit d'intérêt est blatant.

Qu'on s'entende, je suis pas du tout surpris de la teneur des résultats que je trouve plausibles.
Je voudrais savoir par exemple comment construire des prompts pour éviter ce genre de choses.
votre avatar
La ligne de Next est factuelle (repose sur des informations vérifiables), mais elle est biaisée (choix d'informations principalement négatif). Exactement comme ce que les articles reprochent aux outils basés sur l'intelligence artificielle.

Quant au terme "intelligence", j'ai pas souvenir qu'on nous faisait un tel caca nerveux quand les commerciaux vendaient des frigos intelligents, des prises intelligentes, de la domotique intelligente, des téléphones intelligents, et j'en passe.

Comme @fred42 , je suis lassé par ce prisme de vue alors qu'il y a matière à analyser les impacts négatifs et positifs. On est face à une techno qui change la donne sur l'usage de l'outil informatique qui est là pour rester. Donc autant le traiter d'une façon large avec du recul.

Sauf à vouloir biaiser son lectorat. Les communautés de gens d'accord entre eux ne donnent jamais rien de bon selon mon expérience.
votre avatar
Mauvaise foi quand tu nous tiens... :bravo:

Comparer l'IA à un frigo intelligent ou des prises intelligentes :mad2:

Je n'ai pas souvenir d'avoir vu des êtres humains se renseigner auprès de leur frigo ou de leur prise sur des faits historiques, des conseils politiques ou des faits divers.

Au moins le terme Copilot est un peu plus explicite par exemple.
votre avatar
Bon, comme d'hab, ça fini en attaques personnelles.
votre avatar
Mais quelle drôle d'idée de poser de telles questions en précisant son genre. Le genre ne doit pas être un critère de rémunération.

Cet article beaucoup sur ce qui ont fait cette étude qui pensent qu'un médecin ou un ingénieur doit avoir un salaire différent suivant son genre.

En plus, s'appuyer sur un robot conversationnel pour sa recherche d'emploi me semble aussi une énorme connerie.
votre avatar
J’imagine qu’on arriverait au même résultat en important un cv et en demandant combien demander
votre avatar
Ce serait une démarche tout aussi idiote.
votre avatar
Quand tu découvriras que les candidats a des entretiens d'embauche à distance s'appuyent sur de l'IA pour répondre, tu te diras que finalement, juste s'appuyer sur un agent pour la recherche, c'est pas si mal😰
votre avatar
J'aimerais bien qu'on se trouve un moyen de ne pas employer le terme IA.
Ça fou vraiment la merde dans la conception que se font les gens de ces outils.
C'est in fin un Chatbot sous stéroïde.
Mais le bousins n'est qu'un agenceur qui fait du nouveau en réarranger l'existent déjà compilé.

Il y a eu un exemple de connaissance nouvelle ?
Si vous me sortez l'arrangement spatial des protéines c'est pas exactement nouveau mais on se set de l'outil justement avec ce but.

On devrait parler de moteur de recherche 2.0 c'est bzaucoup plus proche d'un point de vue logique au mode de fonctionnement.
On récupère les résultats en aillant fouiller l'index.

Mais je vais être un vieux grincheux advitam sur cette thématique.
Même quand on sera arrivé au stade Assistant/Concierge je serais toujours dubitatif sur l'emploi du terme IA...
votre avatar
J'ai justement regardé ça hier :
L’Intelligence Artificielle n’existe pas - Luc Julia
et la suite :
Luc Julia sans filtre : l’IA, la tech et les idées reçues - Luc Julia

ça rejoint in fine et en partie ce qui a été soulevé/rappelé par plusieurs des commentaires ici : l'IA Gén n'est qu'un miroir qui reflète de la statistique.
votre avatar
Ou alors il faut revoir le fantasme autour de "intelligence" et adapter le terme dans son contexte. L'IA de la science-fiction n'est pas pour demain.

Ces systèmes sont intelligents parce qu'ils savent produire un résultat en se basant sur peu d'entrant, voire des entrants vagues.

Ou alors il faut aussi arrêter d'utiliser le terme "smartphone" qui n'a rien de "malin" puisque ce n'est qu'un terminal de services en lignes.
votre avatar
Tu peux utiliser le terme de LLM (large language model) pour ce genre de cas, GPT (Generative Pre-trained Transformer) sinon mais j'aime moins
votre avatar
Quasiment parfaitement d'accord, je noterai juste un bémol :
C'est que, malheureusement ou pas, les cabinets de recrutement et les grosses sociétés passe les CV par le crible de l'IA aussi.
Donc utilisé l'outil qui permettrai de mieux me mettre en avant ne semble pas incongru non plus.

Exemple à la C.
J'aime bien libre office, mais si j'envoie mon CV en . ODT plutôt qu'en pdf ou doc. je prends le risque d'être éliminé avant même le 1er tour.
votre avatar
Article de blog qui détaille les résultats de l'étude et qui démontre assez clairement que le LLM est au courant de son biais lié à ses données d'entrainement (et essaie même de pousser les femmes à corriger le "gender pay gap") : (EN) https://birchtree.me/blog/another-good-study-with-questionable-reporting-on-llms/
votre avatar
J'aime bien ce passage :
First, the study shows a statistically meaningful pay gap in the responses, but the article only shows the highest value for male responses and the lowest for female responses. It's quite a gap from $280k to $400k, no doubt, but that's not at all representative of the typical values.
C'est sûr qu'en prenant la valeur la plus faible pour les femmes et la plus haute pour les hommes, on peut se scandaliser plus facilement des écarts reproduits par ces outils !
votre avatar
Merci pour ce partage, il est plaisant de voir une prise de recul de ce genre.

ChatGPT, Mistral et les autres poussent les femmes à négocier de faibles salaires

Fermer