IA et recrutement : un simple prénom peut pousser les modèles génératifs à la discrimination
Le 13 mars à 06h25
2 min
IA et algorithmes
IA
Comme dans d’autres industries, l’intelligence artificielle, notamment générative, intéresse le monde des ressources humaines.
Entre autres usages, ces outils permettent d’évaluer et de hiérarchiser rapidement une multiplicité de profils. Une entreprise comme OpenAI vend d’ailleurs ChatGPT à des entreprises de divers secteurs, vantant les capacités de ses technologies pour des tâches aussi spécifiques, notamment en matière de recrutement.
Problème, constate Bloomberg dans une enquête qui reproduit la méthodologie de travaux scientifiques sur la question : ChatGPT reproduit, voire amplifie des biais existants dans le monde hors ligne. Et lorsqu’on lui demande, à plusieurs reprises, de classer 1 000 CV, la machine tend à privilégier des prénoms caractéristiques de certains types de population.
Les noms spécifiques à la communauté noire-américaine étaient les moins susceptibles d’être classés parmi les meilleurs candidats pour un poste d’analyste financier, par exemple. Pour le même type d’emploi, les noms spécifiques aux femmes asiatiques avaient les meilleures chances d’être classées tout en haut de la pile.
Le média a reproduit le test sur quatre métiers différents, et globalement, les prénoms féminins sont mieux classés que ceux des hommes.
« Bien que ce test soit une version simplifiée d'un processus de travail classique des ressources humaines, il a permis de montrer que les noms sont une source de biais » dans la machine, écrit Bloomberg, biais « susceptibles d’affecter les décisions d’embauche ». D’autant plus qu’une personne sur deux interrogées par le Pew Research Center est convaincue que l’IA peut faire mieux que les humains en matière de gestion non discriminante des candidatures.
OpenAI déclare interdire l’usage de ses technologies à des fins d’automatisation des processus de recrutement.
Le 13 mars à 06h25
Commentaires (25)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 13/03/2024 à 07h44
Un outil RH qui utiliserait de l'IA doit utiliser un modèle spécialisé et fine-tuned dans le domaine.
Je ne vois vraiment pas l'intérêt de ce genre de démonstration pour un usage aussi spécifique. Le GPT-3.5 / GPT-4 utilisé par ChatGPT est un modèle généraliste. Il est biaisé, c'est pas une nouveauté ça fait deux ans qu'on le répète et le démontre. Pire encore, ChatGPT possède un system prompt qui va forcément orienter sa façon de travailler et répondre. C'est le fonctionnement de base d'un LLM. A ma connaissance, ce system prompt n'est pas public, donc on ne sait pas comment ChatGPT est conditionné.
Le vrai problème, c'est de vouloir utiliser cet outil spécifiquement, et non un modèle LLM fine-tuned pour des cas d'usage particuliers. Rien qu'un entraînement sur une base de CV publics (du genre linkedin et tout le bordel) supprimant toute donnée personnelle (car ça n'a aucun intérêt pour le tri de CV pour du profil de candidat de mon point de vue, mais je peux me tromper n'étant pas RH) permettrait en théorie d'avoir un modèle capable de faire le taff. Dans tous les cas, je ne vois pas pourquoi le LLM devrait traiter de la donnée personnelle : c'est une information absolument inutile pour savoir sur Profil #234362 matche avec Offre #76576. Ce sont les compétences qu'on prend vérifier cela, pas les noms des personnes.
Surtout quand on dit à la fin :
Faut vraiment arrêter de donner raison à Brassens et de chercher à démontrer que des outils qui ne sont pas fait pour certaines tâches n'y répondent pas. Je considère cette "étude" comme inutile personnellement, elle part d'un postulat faux.
Le 13/03/2024 à 08h40
Si l'outil est effectivement vendu dans ce but, y'a un souci et c'est bien de le soulever.
Le 13/03/2024 à 09h32
Le 13/03/2024 à 09h52
Le 13/03/2024 à 12h57
Ils vendent la solution comme pouvant le faire ou bien l'interdisent dans les conditions d'usage ? Faudrait savoir.
Le 14/03/2024 à 10h25
Le mot clef est ici "décision" (devenu "processus" dans l'article de Next) : OpenAI vend un outil pour automatiser des parties du processus mais la décision finale d'embauche ne doit pas être automatisée via GPT. En gros "on vous mâche le boulot mais vous devez vérifier et décider", histoire de se dégager de toutes responsabilités.
Comme dans la pratique il y a de fortes chances que l'utilisateur de l'outil prenne le premier candidat sans plus fouiller que ça...
Le 15/03/2024 à 01h20
Ce qui prend du temps dans un processus de recherche de candidats, c'est de lire les CV et de voir qu'ils ne conviennent pas.
Ayant été à un poste opérationnel (où je recrutais pas mal pour des postes en régie pour une grosse équipe, je recevais beaucoup de CV où l'acheteur avait déjà fait un premier tri mais bien insuffisant.
J'étais devenu spécialiste pour rejeter très vite un CV et j'ai lu que les recruteurs faisaient de même (on parle d'un temps moyen très court pour une lecture de CV) . Par contre, je passais parfois plus de temps sur d'autres CV avant de me rendre compte qu'ils ne me convenaient pas. Je ne sais pas si une IA aurait pu m'aider ici.
Je passais aussi pas mal de temps à recevoir les candidats.
Le 13/03/2024 à 10h52
C'est compréhensible pour tester s'il y a un biais sur ce point, mais, comme on sait qu'il y a un biais dans les GPT d'OpenAI, il est normal que le biais ressorte si c'est le seul critère qui varie, le reste du CV étant quasiment identique.
Comme tu le dis, il suffit de ne pas entrer les noms prénoms pour l'éviter en grande partie. Comme le dit l'article, il reste des biais raciaux sur d'autres éléments comme le lieu d'habitation ou les hobbies. Faut-il aussi supprimer ce genre d'informations alors qu'elles peuvent apporter des informations utiles aux recruteurs (IA ou humains) sur certains aspects des personnes, c'est plus difficile à dire. Par exemple, le lieu d'habitation peut permettre de savoir à quelle distance du lieu de travail elle habite et une sélection sur une distance limite (en fait, c'est plus le temps de transport et la fatigue liée au mode de transport qui peut jouer) peut être pertinente, mais dans ce cas, il faut bloquer l'utilisation de cette information pour d'autres choses (ou probablement plus facile : transformer la donnée en des informations non discriminantes : mode et temps de transport).
Enfin, oui, il faut utiliser un modèle spécialisé et pas généraliste pour ce genre de tâches. il restera probablement des biais liés à l'entraînement puisqu'il y a aussi des biais chez les RH humains, l'essentiel est qu'il y en ait le moins possible.
Le 13/03/2024 à 13h02
Par contre, les infos du type nom, prénom, age, sexe, ont zéro intérêt dans le cas d'une classification automatisée de profils sur compétences. Puisque la compétence ne dépend pas de ces caractéristiques.
Ou alors il me manque une notion...
Le 13/03/2024 à 12h13
Le 13/03/2024 à 15h28
Il n'y a pas d'IA mais bien des biais.
Le 13/03/2024 à 20h42
Le 13/03/2024 à 16h05
Plutôt que de rejeter catégoriquement l'utilisation de modèles généralistes, il est important d'explorer des approches qui permettent d'optimiser ces outils pour des cas d'utilisation particuliers. La recherche continue dans le domaine de l'IA vise à rendre les modèles plus éthiques, transparents et adaptés à des applications spécifiques comme le recrutement. En adoptant une approche responsable et en mettant l'accent sur la correction des biais, il est possible d'utiliser ces technologies de manière plus pertinente et précise dans des contextes spécialisés.
Modifié le 13/03/2024 à 19h00
Non, ChatGPT est une implémentation d'une technologie : le Generative Pre-trained Transformer dans sa version 3.5 et 4. C'est GPT le modèle d'IA générative, pas ChatGPT. Comme toute implémentation d'une techno, il a une finalité particulière.
Saisir cette nuance permet de rapidement comprendre l'absurdité de cette étude.
Pour faire un parallèle simpliste, ChatGPT est le navigateur web (Chromium, Firefox, etc), GPT est le moteur de rendu (Gecko, Blink, etc), ou Debian/RHEL et Linux, ou encore Windows et NT.
Le 13/03/2024 à 09h56
Le 13/03/2024 à 10h34
Le 13/03/2024 à 10h56
Mais la question à laquelle tu réponds est volontairement polémique, don il me semble inutile de poursuivre sur le sujet. L'article apporte déjà la réponse que je donne : c'est dû à un biais.
Le 13/03/2024 à 12h04
Le 13/03/2024 à 12h03
Le 13/03/2024 à 12h48
L'article de bloomberg est super long mais pas super explicatif.
Le 13/03/2024 à 11h29
Le 12/04/2024 à 23h24
Le 13/03/2024 à 12h07
Le 13/03/2024 à 13h53
Si ChatGPT a raison c'est du racisme systémique.
"A strange game. The only winning move is not to play"
Joshua (1983)
Le 13/03/2024 à 19h58