Connexion
Abonnez-vous

Intelligence artificielle, biais et stéréotypes : nous sommes dans « un cercle vicieux »

L’IA pour tous… et toutes ?

Intelligence artificielle, biais et stéréotypes : nous sommes dans « un cercle vicieux »

La chercheuse Magalie Ochs revient sur le danger des biais et des stéréotypes qui infusent partout dans les intelligences artificielles. Elle donne également des pistes pour casser ce « cercle vicieux ».

Le 12 février à 11h52

Les biais sont malheureusement liés aux intelligences artificielles. Elles vont les ingurgiter puis les recracher aux humains, avec des conséquences (même de manière inconsciente) sur leurs comportements. Cela va générer de nouvelles données, qui vont être utilisées pour entrainer des IA, etc. Un cercle vicieux qu’il faut briser.

Lors d’un déplacement à l’université d’Aix-Marseille, nous avons eu des présentations de plusieurs chercheurs, notamment de Magalie Ochs. Elle est informaticienne, maîtresse de conférences à Aix-Marseille Université au Laboratoire d’informatique et systèmes.

De la réalité au monde virtuel, les stéréotypes perdurent

Sa présentation portait sur : « Comment l'IA peut être utilisée pour lutter contre les inégalités, pour plus d'inclusion et en particulier pour lutter contre les inégalités femmes-hommes ». Un sujet également abordé dans le second épisode de notre podcast Algorithmique, à (re)écouter sans modération.

Premier point, important à rappeler : « la plupart des inégalités de discriminations sont liées à un certain nombre de stéréotypes ». Et pour ceux qui auraient un doute, oui : ces stéréotypes perdurent dans les environnements virtuels.

« En d'autres termes, si on vous présente un personnage virtuel féminin ou un personnage virtuel masculin, allez-vous appliquer les mêmes stéréotypes que vous avez éventuellement, de manière très certainement inconsciente, vis-à-vis des femmes et des hommes ? La réponse est oui ».

Un exemple avec « Siri, t’es une salope » : « Je rougirais si je pouvais »

Le problème n’est pas nouveau, loin de là. Dans un rapport de 2020 intitulé « Je rougirais si je pouvais : réduire la fracture numérique entre les genres par l’éducation », l’Unesco s’en inquiétait déjà. L’organisation dressait un triste bilan des personnages virtuels féminins des IA dans un tableau reprenant les réponses (de l’époque) assez folles de certaines IA face « au harcèlement sexuel ».

Pourquoi les IA ont des voix plutôt féminines ?

Ce constat sur les stéréotypes à une conséquence directe : « les agents virtuels féminins sont perçus comme plus gentils, moins menaçants, mais aussi moins performants. Les agents virtuels masculins plus forts, plus compétents, plus intéressants, plus utiles, etc. C'est pourquoi, par exemple, vous avez des voix plutôt féminines parce que les utilisateurs et les utilisatrices sont plus tolérants à l'erreur face à une voix féminine qu'une voix masculine ».

Magali Ochs ajoute que, « plus votre personnage est féminin, plus on va se rapprocher de ce stéréotype ». Avec l'informatique, on peut créer des personnages virtuels ou des robots androgynes, c’est-à-dire qu’on ne sait pas quel genre leur attribuer : « Mais malheureusement, les recherches montrent que ça ne marche absolument pas », affirme la chercheuse.

Pourquoi ? Car, quelle que soit la représentation, « on va attribuer un genre ». Cette décision de l’humain ne va peut-être pas se fonder sur l'aspect physique ou sur les mouvements du personnage, « mais les utilisateurs et les utilisatrices vont appliquer un genre, quelle que soit la représentation ».

Et certaines études ont été loin, jusqu’à avoir un mannequin en bois ou simplement des points comme représentation.

Biais et stéréotypes : « on a une boucle et même un cercle vicieux »

D’accord, « mais pourquoi est-ce que c'est un problème » se demande la chercheuse ? La réponse est simple : « on a une boucle et même un cercle vicieux ».

Les intelligences artificielles sont entrainées sur des données biaisées, c'est malheureusement « normal puisque le monde réel est plein de stéréotypes ». Les IA répliquent ces biais et des « recherches récentes montrent que les humains héritent des biais des IA ». La boucle est ensuite bouclée puisque les humains ayant hérité de ces biais vont à leur tour générer de nouvelles données (biaisées), qui vont se retrouver dans les IA pour les entrainer, etc.

La maitresse de conférence donne un exemple :

« Si vous prenez les femmes et l'informatique, il y a une sous-représentation ; c'est un énorme problème. Donc les IA vont sous-représenter les femmes en informatique. Par exemple, on va avoir plus de tuteurs d'informatique dans les environnements virtuels que de tutrices. Donc les humains vont s'habituer à associer l'informatique aux hommes et non pas aux femmes, et donc renforcer encore ce stéréotype que les femmes ne sont pas faites pour l'informatique ».

Comment casser ce cercle vicieux ? Première réponse évidente quand on l’écrit, mais plus difficile à mettre en œuvre : « en créant des IA qui ne se basent pas sur des données biaisées ».

Quand des personnages virtuels aident à réduire les stéréotypes

Cas bien connu de stéréotype : une partie des filles pensent être nulles en maths (et en sciences de manière générale), les poussant à réduire « leurs capacités de travail et leurs performances ». Il est possible d'atténuer cette menace, notamment avec « des rôles modèles », c’est-à-dire des femmes ou des jeunes filles qui ont réussi en maths.

C’est la théorie, mais en pratique, « c'est assez difficile d'avoir des rôles modèles à disposition dans les classes à présenter aux jeunes filles. Donc, on a créé des personnages virtuels qui pourraient représenter des rôles modèles et, de fait, de pouvoir réduire cette menace de stéréotypes et donc d'améliorer les performances des filles en maths ».

Selon la chercheuse, les résultats sont là : « On a pu montrer que ces personnages virtuels étaient réellement perçus comme des modèles et l'expérimentation à grande échelle faite auprès de neuf collèges (soit au final 326 élèves), a montré qu'effectivement ces rôles modèles féminins permettaient d'améliorer les performances des filles en math ».

Ces « rôles modèles » sont utilisés pour l’apprentissage et rappellent simplement une leçon juste avant un examen par exemple.

« Une femme qui sourit et ici un homme qui ne sourit pas »

Une autre approche est de se demander « comment modifier nos modèles pour qu'ils ne répliquent pas les biais ».

Pour mettre en image la problématique, elle a utilisé deux prompts identiques pour générer une image d’une femme faisant face à un homme et d’un homme faisant face à une femme. « Vous voyez bien qu'ici, automatiquement et sans rien dire, on a même une femme qui sourit et ici un homme qui ne sourit pas ».

C’est ici la mise en image d’un biais classique dans les comportements non verbaux : on « s'attend à ce que les femmes sourient plus que les hommes ». Mais la chercheuse explique que l’inverse est aussi vrai : on peut également classer le genre homme ou femme « juste à partir du comportement non verbal ».

Elle reconnait que cette approche dépend évidemment des us et coutumes : « On ne peut effectivement pas faire quelque chose qui est indépendant de la culture. Là, on s'est concentrés sur la culture occidentale et même française ».

Générer des comportements non genrés, sans baisse de performances

Les chercheurs ont développé un algorithme afin de modifier leur modèle. « Ce qu'on a pu montrer avec une étude perceptive, c'est que non seulement on arrivait à générer des comportements non genrés, c'est-à-dire sans répliquer les stéréotypes. Mais, le point vraiment très important, c'est qu'on n'avait pas de baisse de performance de nos modèles, on n'avait pas de baisse de qualité dans les comportements générés ».

« En d'autres termes, on est capable de faire des IA génératives de comportements non stéréotypés sans avoir une baisse de performances », affirme Magali Ochs en guise de conclusion.

Elle cite quelques exemples de projets en cours : « un théâtre interactif en réalité virtuelle, où les acteurs sont des personnages virtuels pour former les témoins à réagir dans les situations de discrimination et de sexisme ordinaire, et de racisme ordinaire […] On a aussi un projet en réalité virtuelle pour la formation à la prise de parole en public ».

Commentaires (24)

votre avatar
OurahbossFlock
votre avatar
Les IA doivent devenir un outil pour supprimer les stéréotypes dans la société parce que... ? :keskidit:
votre avatar
Peut-être parce que les stéréotypes ne sont pas la réalité et que donc on base nos réflexions sur de fausses informations ?
Alors ensuite, on peut discuter aussi de savoir si baser sa réflexion sur de fausses informations est pertinent/bien/efficace/mal/contreproductif ...
votre avatar
C'est une hypothèse très forte de dire que tout les stéréotypes sont faux (idem si vrais),
votre avatar
Les stéréotypes sont des données non confirmées. Elles peuvent être vraies ou fausses. Se baser sur ce genre de données ne me semble pas pertinent pour construire des outils.
votre avatar
Là tu défends le point de vue que les stéréotypes dans la société est un problème. Ok.
Mais ma question c'est:

En quoi c'est la mission des IA (ou des jeux vidéos) d'éduquer les masses ?

Je préfère un moratoire pour arrêter d'utiliser les logiciels dans le but de conformer la société à une vision idéalisée (et forcément subjective).
votre avatar
Qu'en est il des stéréotypes associés à ce qu'on appelle l'identité de genre (longueur de cheveux, pilosité, allure efféminée ou virile, maquillage, jupe ou pantalon, prénom, ...)
Actuellement ils sont reconnus par la loi en France pour valider une demande de changement de sexe à l'état civil.
legifrance.gouv.fr République Française
votre avatar
Extrait de la page Modification de la mention du sexe à l'état civil
Vous devez démontrer par une réunion suffisante de faits que la mention de votre sexe dans les actes de l'état civilActe de naissance, de reconnaissance, de mariage ou de décès ne correspond pas à celui dans lequel vous vous présentez et dans lequel vous êtes connu.
Vous devez apporter la preuve de plusieurs faits à l'appui de votre demande.
Exemples de faits :
Vous vous présentez publiquement comme appartenant au sexe revendiqué
Vous êtes connu de vos proches et de vos collègues sous le sexe revendiqué
Vous avez obtenu le changement de votre prénom pour qu'il corresponde au sexe revendiqué
À savoir
Il n'est pas nécessaire de suivre un traitement médical ou d'avoir subi une opération chirurgicale ou une stérilisation pour demander la modification de la mention du sexe à l'état civil. Votre demande ne peut pas être refusée en l'absence de ces éléments.
Je ne vois aucune mention de ce que tu as écrit comme stéréotypes.
votre avatar
Merci, (parfois, en lisant les commentaires, j'ai l'impression de passer dans la 4e dimension ou dans un monde parallèle).

Définition de stéréotype : Opinion toute faite réduisant les particularités. ➙ cliché, banalité, généralité, lieu commun, poncif, truisme.
https://dictionnaire.lerobert.com/definition/stereotype
votre avatar
Quel que soit l'outil, c'est bien de supprimer les stéréotypes.
Ici, on vu que les IA répétaient les stéréotypes néfastes et qu'on pouvait supprimer ceux-là donc autant le faire.
votre avatar
Quel que soit l'outil, c'est bien de supprimer les stéréotypes.
L'outil ne supprime pas les stéréotypes dans la société.
Il les cache aux yeux des utilisateurs avec l'espoir que ca finisse par modifier la société.

J'ai du mal avec l'idée du mensonge nécessaire pour le bien de l'humanité.
votre avatar
Ce n'est pas un mensonge de mettre des avatars féminin pour enseigner les maths/sciences.

Et c'est plus facile de supprimer les stéréotypes dans les IA que d'empêcher qu'ils soient transmis par de vrais humains.

Donc pourquoi s'en priver ? Ça permet en plus de ne pas se priver d'une moitié des humains pouvant faire des sciences et qui s'en empêchaient sans raison valable.
votre avatar
Ce n'est pas un mensonge de mettre des avatars féminin pour enseigner les maths/sciences.
Certes, d'autant que la plupart de mes profs de maths/sciences étaient des femmes.
Donc pourquoi s'en priver ?
Disons que c'est une conviction personnelle. Je préfère savoir qu'une IA qui est neutre vis-à-vis de l'existence de stéréotype, plutôt que de me demander quelles "corrections vertueuses" elle à bien pu faire. Surtout si c'est une IA chinoise ou américaine...
votre avatar
Ta mention de "corrections vertueuses" laisse penser que tu ne comprends pas comment les biais de stéréotypes sont annulés (ici par l'IA).

Les enquêtes statistiques (souvent issues de la sociologie) utilisent des méthodes scientifiques pour rééquilibrer les données.
Ça me rappelle le gars (universitaire je crois) qui est intervenu sur France Inter face à un autre intervenant qui lui parlait de sondages.
Il s'etranglait devant les raccourcis et interprétations biaisées qui sortaient de sa bouche.
Je ne sais plus sur quel thème c'était.
votre avatar
Parce que les stéréotypes, c'est pas bien voyons. Car ce sont des cages dont on ne peut pas s'extirper!
Comme je suis un mec, ma femme fait la lessive, le ménage, la cuisine, je conduis très vite, je suis violent et je jure tous les 2 mots :)

De mon point de vue, les stéréotypes sont en partie fondés sur la culture et en partie sur l'expérience. Mon stéréotype du magrébin n'est pas le même que le stéréotype de celui qui vit au milieu d'une communauté magrébine.

Il y a toujours l'image du gars qui tient des propos racistes à outrance, y compris devant un copain typé, "mais lui il n'est pas pareil".

Les stéréotypes sont des caricatures, mais au demeurant, cela aide.
Le conseil de "tiens toi loin des gars en capuche" est un stéréotype, mais parfois il tombe juste.

De même, il sont assez souvent partiellement justes et permettent d'anticiper des actions et réactions. Problème: s'il n'est pas juste et qu'on agit selon le stéréotype, on frustre, on brusque.

Pourtant, utiliser les stéréotypes permet de modéliser les situations - les formations concernant la gestion de réunion, les comportements en cas de crise sont énormément basé sur des stéréotypes (le gars qui ne participe pas, celui qui sera agressif, celui qui fera diverger), et ça marche.

Alors je ne vais pas plus chercher à savoir si ça marche parce que mon comportement bien formé m'a fait coller des stéréotypes alors qu'il n'y en avait pas, par hasard ou parce que c'est plus ou moins vrai, je m'en moque.

Bref, mort aux caricatures, vive les stéréotypes.

Et en voilà un, fourni par ma moitié : "un mec quitte rarement sa femme, et ça se fait sur un coup de tête. Par contre, quand une femme quitte son mec, elle l'a préparé depuis longtemps et sa vie est déjà refaite quand elle part".
Eh bien le nombre de fois où ça s'est (bon, parfois très partiellement) vérifié vs le nombre de fois où ça n'a pas été le cas est nettement en faveur du stéréotype.

Alors que le stéréotype doive être combattu: peut-être. Mais un stéréotype est un énorme amalgame de cultures, traditions, expériences, lois, qui fait que le combat va sembler vain.

Pourtant, des stéréotypes disparus, il y en a tellement: "le bigleu = intello", "femme en pantalon = femme facile", "cheveux relevés = provocation" ...

Alors ma question est: quels sont les stéréotypes qui construisent la société et la maintiennent, et quels sont ceux qu'on veut détruire?

Exemple: la gentille maman qui aime ses enfants et ferait tout pour eux: à conserver ou à détruire car il fait beaucoup de mal à des mamans en situation difficile? Et même à des enfants devant le juge d'ailleurs?
votre avatar
Ici je pense très personnellement que certains stéréotypes sont le reflet d'un fonctionnement cérébral particulier, et je prendrais l'exemple de l'effet de la testostérone de l'homme qui est connue pour augmenter naturellement des certains cas l'agressivité, d'où le stéréotype.
Là, nous ne sommes pas au niveau du cerveau qui réfléchit.
Un cerveau correctement éduqué va pouvoir régler tout ça en se conformant à la société dans laquelle il vit, et c'est là finalement où se situe le problème. Certains biais sont pour moi le résultat d'une différence de fonctionnement et ne me dérange guère.
Là où je suis certain, c'est que le biais femme et science = mauvaise performance c'est un biais franchement basé sur rien, le QI des femmes et des hommes, c'est bien pareil, et de ce fait présenter des IA non porteuses de biais dans l'éducation est une bonne chose, et permettrait peut être de justement casser ce cercle vicieu auto-entretenu.
votre avatar
Les stéréotypes sont des généralités qui abandonnent tous les cas particularités (simplification de la réflexion)

Par contre, les statistiques, les probabilités, les études scientifiques sont basées sur une réalité et des hypothèses particulières pour justement ne pas passer à côté des simplifications abusives.

Tout le monde a des préjugés et biais. Ils sont indispensables pour agir. Ce n'est pas pour autant qu'on devrait valider les erreurs de jugement et les comportements inadaptés.
votre avatar
Cas bien connu de stéréotype : une partie des filles pensent être nulles en maths (et en sciences de manière générale), les poussant à réduire « leurs capacités de travail et leurs performances ».
A ce propos, une étude education.gouv.fr République Française aurait tendance à montrer que le décrochage se fait entre le CP et le CE1 et qu'il pourrait être lié aux stéréotype familiaux.
Plusieurs études ont montré que les différences entre filles et garçons face aux mathématiques provenaient notamment de facteurs extérieurs à l’école, en raison de la présence de stéréotypes dans la société en général et dans les familles en particulier. En 2023, une étude de l’IEA en partenariat avec l’UNESCO concluait notamment, à partir des données d’enquête issues de Timss 2019, que les activités d’apprentissage précoce ont un impact sur les résultats des filles et des garçons en mathématiques et en sciences. Cette analyse montre que «globalement, les parents ont tendance à pratiquer plus souvent des activités d’apprentissage précoce à la maison avec les filles qu’avec les garçons. Une seule activité fait exception : jouer avec des blocs ou des jouets de construction. Les filles tendent à pratiquer une variété d’activités différentes tandis que les garçons sont impliqués dans davantage d’activités visant au développement des compétences en numératie»
votre avatar
Il semblerait que la menace de stéréotype est très mal reproduite dans les études récentes, les tailles d'effets seraient nulle ou tout du moins très faibles. https://osf.io/preprints/psyarxiv/qctkp_v1 (pre-print)
votre avatar
Magalie Ochs était mon enseignante en Master et m'a donné cette passion pour la BI. C'est en partie grâce à elle que je suis ingénieur data aujourd'hui.

Merci Madame. Super conférence à l'AIM par ailleurs. J'ai également beaucoup aimé votre partie dans la BD sur les femmes dans le numérique ❤️
votre avatar
En fait, le stéréotype est un raccourci, en tant que tel, il diminue la complexité du réel. Le problème n'est pas le stéréotype, c'est plus les biais cognitifs qui vont inscrire les personnes dans ces stéréotypes, à leur corps défendant.
Les [femmes / hommes / français / américains / noirs / asiatiques / aborigènes - choisissez votre catégorie]
Un jeune garçon noir qui cherche des photos de médecin noir en trouvera que des caricaturales (je schématise, mais allez voir l' article paru sur le sujet dans Next Inpact à l'époque), l'empêchera peut-être de réaliser son rêve de devenir médecin.
Une femme se dira peut-être : à quoi ça sert que je fasse des maths et des études longues pour m'occuper de mon mari et mes enfants ? Et abandonnera, c'est dommage. Que dire des hommes qui sont mal à l'aise quand leur femme gagne mieux leur vie qu'eux ? Un homme pourra faire pression sur sa femme pour qu'elle se conforme à un stéréotype, ou la société fera pression pour qu'une catégorie de personnes se conforme à un stéréotype (je conseille à ce sujet un petit livre qui tombe pile dans le sujet : "Stepford Wives" de Ira Levin.

Déjà, les stéréotypes, en eux-même sont difficiles à combattre, mais mutlipliés, du fait du renforcement par l'apprentissage, cela devient presque mission impossible.

Vous souvenez-vous d'une société américaine qui avait mis en place un algorithme de sélection de CV. Elle s'est aperçue, un moment que des candidats, qui auraient été valables avaient été éliminés sur des critères ethniques ou de genre ? En fait, lors de l'apprentissage, un biais inconscient des personnes qui faisaient les sélections les faisaient préférer - je schématise - des candiats WASP. En regardant les CVs, et en faisant passer les entretiens, cela ne se voyait pas, parce que cette préférence se faisait sur des CV équivalents. L'apprentissage, peut-être moins bien fait à l'époque que ce que l'on faisait aujourd'hui, a augmenté ce biais jusqu'à transformer une préférence en règle de sélection.

Les IA n'ont pas vocation à supprimer les stéréotypes, mais si on peut les programmer pour nous aider à les combattre plutôt que de les renforcer, ce serait - AMHA - une bonne chose.
votre avatar
On a tous des héros qui on bravé/vaincu les stéréotypes et les idées préconçues (Galilée, Ohm, la première bachelière, le médecin qui a prouvé aux autres qu'un virus peut être à l'origine d'un cancer).
Pour autant, doit-on tuer tous les stéréotypes? N'y a t'il pas dans certains, tout comme dans les proverbes, une certaine vérité nécessaire?pPeut-on identifier les stéréotypes néfastes?
N'est-il pas risqué de tuer rapidement les stéréotypes? N'est-ce pas trop rapide pour la société?
Qui peut dire quel stéréotype quelle vision doit être abolie?

La société peut-elle se passer de stéréotypes? Surtout en ce moment où le scientifique est douteux pour beaucoup de gens.

Sans parler que si le stéréotype est la simplification probabiliste d'une situation, pourquoi exige-t'on d'un appareil oralement probabiliste comme l'IA de s'en passer? Ce n'est pas contre sa nature???

(Je précise concernant les stéreotypes: c'est pas que j'y tienne: ma femme est pure product scientifique, ma fille aussi, mon fils est en école d'infirmière :) Et je serais certainement désigné comme déconstruit - mais mieux vaut pas me le dire ou je mettrai mon poing verbal dans la gueule en défigurant au passage le propos)
votre avatar
Les stéréotypes, les préjugés existent et existeront toujours. Je ne comprends pas ce que veut dire « tuer les stéréotypes » ?

Un stéréotype est une idée reçue, une idée approximative qu'on peut très vite perdre avec l'expérience. Un stéréotype, c'est aussi subjectif et aléatoire que le "bon sens" ou le "pifomètre" même si l'expérience est indispensable pour connaître vraiment un domaine (encore faut-il répéter une expérience en changeant des variables).

Des choses qui n'ont rien à voir : un stéréotype (un cliché simpliste), un proverbe (un adage, une morale), la vulgarisation d'un sujet complexe (simplification pour faire comprendre).
votre avatar
Sur les stéréotypes et autres préjugés, je recommande l'écoute de ce podcast de France Culture : Histoire des préjugés

Intelligence artificielle, biais et stéréotypes : nous sommes dans « un cercle vicieux »

  • De la réalité au monde virtuel, les stéréotypes perdurent

  • Un exemple avec « Siri, t’es une salope » : « Je rougirais si je pouvais »

  • Pourquoi les IA ont des voix plutôt féminines ?

  • Biais et stéréotypes : « on a une boucle et même un cercle vicieux »

  • Quand des personnages virtuels aident à réduire les stéréotypes

  • « Une femme qui sourit et ici un homme qui ne sourit pas »

  • Générer des comportements non genrés, sans baisse de performances

Fermer