Connexion
Abonnez-vous

IA et recrutement : un simple prénom peut pousser les modèles génératifs à la discrimination

IA et recrutement : un simple prénom peut pousser les modèles génératifs à la discrimination

Yasmine Boudiaf & LOTI / Better Images of AI / CC-BY 4.0

Le 13 mars à 06h25

Comme dans d’autres industries, l’intelligence artificielle, notamment générative, intéresse le monde des ressources humaines.

Entre autres usages, ces outils permettent d’évaluer et de hiérarchiser rapidement une multiplicité de profils. Une entreprise comme OpenAI vend d’ailleurs ChatGPT à des entreprises de divers secteurs, vantant les capacités de ses technologies pour des tâches aussi spécifiques, notamment en matière de recrutement.

Problème, constate Bloomberg dans une enquête qui reproduit la méthodologie de travaux scientifiques sur la question : ChatGPT reproduit, voire amplifie des biais existants dans le monde hors ligne. Et lorsqu’on lui demande, à plusieurs reprises, de classer 1 000 CV, la machine tend à privilégier des prénoms caractéristiques de certains types de population.

Les noms spécifiques à la communauté noire-américaine étaient les moins susceptibles d’être classés parmi les meilleurs candidats pour un poste d’analyste financier, par exemple. Pour le même type d’emploi, les noms spécifiques aux femmes asiatiques avaient les meilleures chances d’être classées tout en haut de la pile.

Le média a reproduit le test sur quatre métiers différents, et globalement, les prénoms féminins sont mieux classés que ceux des hommes.

« Bien que ce test soit une version simplifiée d'un processus de travail classique des ressources humaines, il a permis de montrer que les noms sont une source de biais » dans la machine, écrit Bloomberg, biais « susceptibles d’affecter les décisions d’embauche ». D’autant plus qu’une personne sur deux interrogées par le Pew Research Center est convaincue que l’IA peut faire mieux que les humains en matière de gestion non discriminante des candidatures.

OpenAI déclare interdire l’usage de ses technologies à des fins d’automatisation des processus de recrutement.

Le 13 mars à 06h25

Commentaires (25)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Problème, constate Bloomberg dans une enquête qui reproduit la méthodologie de travaux scientifiques sur la question : ChatGPT reproduit, voire amplifie des biais existants dans le monde hors ligne. Et lorsqu’on lui demande, à plusieurs reprises, de classer 1 000 CV, la machine tend à privilégier des prénoms caractéristiques de certains types de population.
Je veux pas être désagréable, mais à un moment il faut arrêter d'être con et considérer que ChatGPT peut tout faire. Ce n'est PAS un outil RH. Ce n'est PAS un système de recherche scientifique. Ce n'est PAS une divinité omnisciente qui sait tout et voit tout.

Un outil RH qui utiliserait de l'IA doit utiliser un modèle spécialisé et fine-tuned dans le domaine.

Je ne vois vraiment pas l'intérêt de ce genre de démonstration pour un usage aussi spécifique. Le GPT-3.5 / GPT-4 utilisé par ChatGPT est un modèle généraliste. Il est biaisé, c'est pas une nouveauté ça fait deux ans qu'on le répète et le démontre. Pire encore, ChatGPT possède un system prompt qui va forcément orienter sa façon de travailler et répondre. C'est le fonctionnement de base d'un LLM. A ma connaissance, ce system prompt n'est pas public, donc on ne sait pas comment ChatGPT est conditionné.

Le vrai problème, c'est de vouloir utiliser cet outil spécifiquement, et non un modèle LLM fine-tuned pour des cas d'usage particuliers. Rien qu'un entraînement sur une base de CV publics (du genre linkedin et tout le bordel) supprimant toute donnée personnelle (car ça n'a aucun intérêt pour le tri de CV pour du profil de candidat de mon point de vue, mais je peux me tromper n'étant pas RH) permettrait en théorie d'avoir un modèle capable de faire le taff. Dans tous les cas, je ne vois pas pourquoi le LLM devrait traiter de la donnée personnelle : c'est une information absolument inutile pour savoir sur Profil #234362 matche avec Offre #76576. Ce sont les compétences qu'on prend vérifier cela, pas les noms des personnes.

Surtout quand on dit à la fin :
OpenAI déclare interdire l’usage de ses technologies à des fins d’automatisation des processus de recrutement.
Faut vraiment arrêter de donner raison à Brassens et de chercher à démontrer que des outils qui ne sont pas fait pour certaines tâches n'y répondent pas. Je considère cette "étude" comme inutile personnellement, elle part d'un postulat faux.
votre avatar
D'accord avec toi sur le principe mais :
Une entreprise comme OpenAI vend d’ailleurs ChatGPT à des entreprises de divers secteurs, vantant les capacités de ses technologies pour des tâches aussi spécifiques, notamment en matière recrutement.
Si l'outil est effectivement vendu dans ce but, y'a un souci et c'est bien de le soulever.
votre avatar
ta citation de l'article est à mettre en rapport avec celle que fait SebGF, issue du même article. Il y a une légère contradiction entre les deux affirmations.
votre avatar
En fait j'ai interprété cette conclusion comme une réaction d'OpenAI suite à l'étude, mais c'est vrai que ce n'est pas clair
votre avatar
C'est contradictoire avec la phrase de fin dans ce cas.

Ils vendent la solution comme pouvant le faire ou bien l'interdisent dans les conditions d'usage ? Faudrait savoir.
votre avatar
J'ai finalement eu le temps d'aller voir les articles liés, la phrase de fin me semble être une traduction un poil approximative d'une phrase de l'article de Bloomberg, ici en gras :
OpenAI [...] sells the AI technology behind it to businesses that want to use it for specific tasks, including in HR and recruiting. (The company says it prohibits GPT from being used to make an automated hiring decision.)
Le mot clef est ici "décision" (devenu "processus" dans l'article de Next) : OpenAI vend un outil pour automatiser des parties du processus mais la décision finale d'embauche ne doit pas être automatisée via GPT. En gros "on vous mâche le boulot mais vous devez vérifier et décider", histoire de se dégager de toutes responsabilités.

Comme dans la pratique il y a de fortes chances que l'utilisateur de l'outil prenne le premier candidat sans plus fouiller que ça...
votre avatar
Comme dans la pratique il y a de fortes chances que l'utilisateur de l'outil prenne le premier candidat sans plus fouiller que ça...
Ça, je ne le pense pas. Je pense que l'outil va être utilisé pour éliminer beaucoup de candidats avant que les quelques-un restants soient traités par des humains. L'humain choisira parmi 4 ou 5 candidats qu'ils aura reçus.
Ce qui prend du temps dans un processus de recherche de candidats, c'est de lire les CV et de voir qu'ils ne conviennent pas.
Ayant été à un poste opérationnel (où je recrutais pas mal pour des postes en régie pour une grosse équipe, je recevais beaucoup de CV où l'acheteur avait déjà fait un premier tri mais bien insuffisant.
J'étais devenu spécialiste pour rejeter très vite un CV et j'ai lu que les recruteurs faisaient de même (on parle d'un temps moyen très court pour une lecture de CV) . Par contre, je passais parfois plus de temps sur d'autres CV avant de me rendre compte qu'ils ne me convenaient pas. Je ne sais pas si une IA aurait pu m'aider ici.
Je passais aussi pas mal de temps à recevoir les candidats.
votre avatar
J'ajouterai que quand on lit leur méthodologie à la fin de l'article, leur test a été fait avec des profils quasi identiques sauf les noms prénoms.
C'est compréhensible pour tester s'il y a un biais sur ce point, mais, comme on sait qu'il y a un biais dans les GPT d'OpenAI, il est normal que le biais ressorte si c'est le seul critère qui varie, le reste du CV étant quasiment identique.

Comme tu le dis, il suffit de ne pas entrer les noms prénoms pour l'éviter en grande partie. Comme le dit l'article, il reste des biais raciaux sur d'autres éléments comme le lieu d'habitation ou les hobbies. Faut-il aussi supprimer ce genre d'informations alors qu'elles peuvent apporter des informations utiles aux recruteurs (IA ou humains) sur certains aspects des personnes, c'est plus difficile à dire. Par exemple, le lieu d'habitation peut permettre de savoir à quelle distance du lieu de travail elle habite et une sélection sur une distance limite (en fait, c'est plus le temps de transport et la fatigue liée au mode de transport qui peut jouer) peut être pertinente, mais dans ce cas, il faut bloquer l'utilisation de cette information pour d'autres choses (ou probablement plus facile : transformer la donnée en des informations non discriminantes : mode et temps de transport).

Enfin, oui, il faut utiliser un modèle spécialisé et pas généraliste pour ce genre de tâches. il restera probablement des biais liés à l'entraînement puisqu'il y a aussi des biais chez les RH humains, l'essentiel est qu'il y en ait le moins possible.
votre avatar
L'info de localisation peut effectivement avoir du sens, surtout si le modèle doit prendre en compte cette donnée (ex : recrutement pour une antenne régionale opérée par un service RH centralisé, critère disant d'idéalement privilégier les candidatures proches).

Par contre, les infos du type nom, prénom, age, sexe, ont zéro intérêt dans le cas d'une classification automatisée de profils sur compétences. Puisque la compétence ne dépend pas de ces caractéristiques.

Ou alors il me manque une notion...
votre avatar
Pour faire une analogie, ce n'est pas parce qu'on informe sur le fait que cuire un œuf au four micro-ondes le fait exploser, qu'on refuse la cuisson au micro-ondes. Bien au contraire.
votre avatar
Sur ces histoires de recrutement, j'ai écouté cet épisode de l'émission économique de France Culture : Heureux les beaux, ils seront recrutés.
Il n'y a pas d'IA mais bien des biais. :eeek2:
votre avatar
Ce n’est pas un drame vu que tout les goûts sont dans la nature et que le "beau" n’est pas universel , n’est ce pas ? :roll: 😇
votre avatar
Il est indéniable que l'utilisation de modèles d'IA généralistes comme ChatGPT dans des domaines spécifiques comme le recrutement peut poser des défis en termes de biais et de pertinence. Cependant, il est crucial de reconnaître que ces technologies évoluent constamment et peuvent être adaptées pour répondre à des besoins spécialisés. En fine-tunant ces modèles sur des données pertinentes et en mettant en place des mécanismes pour corriger les biais, il est possible d'améliorer leur efficacité et leur adéquation à des tâches spécifiques telles que le tri de CV.
Plutôt que de rejeter catégoriquement l'utilisation de modèles généralistes, il est important d'explorer des approches qui permettent d'optimiser ces outils pour des cas d'utilisation particuliers. La recherche continue dans le domaine de l'IA vise à rendre les modèles plus éthiques, transparents et adaptés à des applications spécifiques comme le recrutement. En adoptant une approche responsable et en mettant l'accent sur la correction des biais, il est possible d'utiliser ces technologies de manière plus pertinente et précise dans des contextes spécialisés.
votre avatar
L'erreur fondamentale du raisonnement est de considérer ChatGPT comme une technologie ou un modèle d'IA.

Non, ChatGPT est une implémentation d'une technologie : le Generative Pre-trained Transformer dans sa version 3.5 et 4. C'est GPT le modèle d'IA générative, pas ChatGPT. Comme toute implémentation d'une techno, il a une finalité particulière.

Saisir cette nuance permet de rapidement comprendre l'absurdité de cette étude.

Pour faire un parallèle simpliste, ChatGPT est le navigateur web (Chromium, Firefox, etc), GPT est le moteur de rendu (Gecko, Blink, etc), ou Debian/RHEL et Linux, ou encore Windows et NT.
votre avatar
Quand les hommes sont favorisés, c'est le signe du sexisme honteux dû à la domination des hommes sur toute la société. Mais ici, les femmes sont mieux classées que les hommes. Du coup, c'est dû à quoi ?
votre avatar
Discrimination positive je dirais
votre avatar
Non, ce n'est pas ça la discrimination positive. C'est favoriser volontairement certains groupes. Ici, c'est fait involontairement sur des biais.

Mais la question à laquelle tu réponds est volontairement polémique, don il me semble inutile de poursuivre sur le sujet. L'article apporte déjà la réponse que je donne : c'est dû à un biais.
votre avatar
Certes, mais d'où est issu ce biais ? Les IA sont réputées amplifier les biais de la vraie vie, et la vraie vie est réputée hostile pour les femmes. Donc ?
votre avatar
Je ne pense pas qu'un algo de discrimination ait été implémenté dans l'IA. Je pense que c'est juste dû au biais (de la vraie vie) que les femmes seraient meilleures pour ce job.
votre avatar
Oui, c'est le fait que pour certains jobs (il y en avait 4 différents) les femmes sont supposées meilleures (ou plus choisies). Il semble aussi que l'association femme et asiatique sur-performe pour un des postes, ce qui peut influer sur la statistique globale sur les femmes.

L'article de bloomberg est super long mais pas super explicatif.
votre avatar
Bientôt dans les colonnes de next "Comment planqué des données dans vos CV pour avoir un meilleur classement par les IA de recrutement"
:pastaper:
votre avatar
Comme le SEO à l'ancienne avec des mots clés écrits en taille 1, en blanc sur fond blanc, dans le pied de page ?
votre avatar
Réponse : CV anonyme
votre avatar
ChatGPT reproduit, voire amplifie des biais existants dans le monde hors ligne. Et lorsqu’on lui demande, à plusieurs reprises, de classer 1 000 CV, la machine tend à privilégier des prénoms caractéristiques de certains types de population.
Si ChatGPT a tort c'est du racisme systémique.
Si ChatGPT a raison c'est du racisme systémique.

"A strange game. The only winning move is not to play"
Joshua (1983)
votre avatar
C'est pas de la discrimination ça, juste de l'application de probabilités.

IA et recrutement : un simple prénom peut pousser les modèles génératifs à la discrimination

Fermer