Twitter : l'algorithme de recadrage d'images critiqué pour ses biais

Twitter : l’algorithme de recadrage d’images critiqué pour ses biais

Twitter : l'algorithme de recadrage d'images critiqué pour ses biais

Dans un tweet mélangeant une photo de Barack Obama et de Mitch McConnell, un utilisateur a montré que l'outil du service de micro-blogging devant choisir quelle partie de l'image mettre en avant avait une préférence pour le visage du second, qui est blanc.

De quoi inciter certains à penser qu'un biais raciste est présent. Tout le week-end, les essais ont été multipliés pour vérifier cette théorie, certains évoquant le niveau de sourire ou le contraste, comme autres éléments ayant pu jouer.

De son côté, Twitter réfute tout choix lié au genre ou à la couleur de peau dans son algorithme, précisant que des tests avaient déjà été effectués pour s'en assurer… mais que d'autres sont « à l'évidence » nécessaires.  Le travail qui sera mené se fera en open source. Une manière pour l'équipe d'assurer qu'elle est transparente en la matière. 

Commentaires (22)


Mouais, et ca aurait ete le visage noir mis en avant, on aurait dit pareil…
L’ideal serait que ca soit aleatoire face a un choix de mise en avant sur des elements d’image avec le meme rank, mais la encore on peut se retrouver avec des resultats qui seront interpretés negativement par defaut


Ou tout simplement qu’aucun algorithme ne choisisse ce qui doit être mis en avant.
C’est bien ça le problème, au delà de la couleur de peau : la main mise d’algorithme sur le contenu.


Norde

Ou tout simplement qu’aucun algorithme ne choisisse ce qui doit être mis en avant.
C’est bien ça le problème, au delà de la couleur de peau : la main mise d’algorithme sur le contenu.


Ca me rappelle cette planche de CommitStrip.



Et oui, ça craint.


La photo et les peau sombre ont toujours était un problème, les pellicule couleurs ont du attendre 1995 pour savoir gérer les peaux noirs, les premiers appareil numériques n’étaient pas mieux lotis, et encore aujourd’hui les appareil bas de gammes sont calibré sur les peux claires, plus facile a gérer…



Dans la cas de twitter je pense que l’algorithme est calibré pour aller au plus simple


Le même problème se pose avec la reconnaissance faciale, les algos existant actuellement ont beaucoup plus de faux positifs avec des gens à la peau noire que les autres.


Faut pas mettre sur le même plan limite physique (Pellicule) et technologie développée par des peaux clairs (caucasien ou asiatique).
Les biais algorithmique liés à l’ethnie du dévelopeur sont très connus, la reconnaissance faciale est un exemple.


wpayen

Faut pas mettre sur le même plan limite physique (Pellicule) et technologie développée par des peaux clairs (caucasien ou asiatique).
Les biais algorithmique liés à l’ethnie du dévelopeur sont très connus, la reconnaissance faciale est un exemple.


Sauf que le mélange chimique créé pour les pellicules a été créé par des caucasien, et pour des caucasien. Les images de test n’avaient que des personnes blanches. Et les pellicules rendaient ça très bien. Il a fallu attendre autour de 1995 pour que de la mixité ethnique apparaissent dans les images de tests, et qu’ils se rendent compte que leur mélange chimique ne fonctionnait pas pour tout le monde.



C’est exactement le même problème que les algorithmes de reconnaissance faciale.


Mmmh, pas de problème sur Nitter, ça affiche simplement toute l’image ;)


Moi je propose que l’algorithme choisisse en fonction des habitudes de celui qui regarde… :mad2:


Je n’ai jamais compris pourquoi ils se sont fait chier à faire un algorithme pour ça plutôt que de laisser à l’utilisateur choisir quelle partir de l’image sera vue… C’est d’une débilité sans nom !


Ce serait marrant de comparer entre une femme blanche et un homme noir.
Ou un homme roux et une femme blonde.
Ou un homme gros et blanc et une femme noire et super athletique.
Ou un homme blanc gros vieux et roux et un homme noir jeune athletique et bien membré.
Ou….
Ou….



En fait on s’en fout, non ?



wpayen a dit:


Faut pas mettre sur le même plan limite physique (Pellicule) et technologie développée par des peaux clairs (caucasien ou asiatique). Les biais algorithmique liés à l’ethnie du dévelopeur sont très connus, la reconnaissance faciale est un exemple.




Mais c’est pas forcément un problème d’algorithme, ça peut être un problème de manque de contraste sur les peaux sombres par exemple, qui les rends plus difficiles à détecter quelque soit l’algo.


Je suis pas sûr que tu dirais ça en toute bonne foi quand tu vois le cas d’exemple avec le visage d’Obama….



Favoriser le visage le plus contrasté* éventuellement (ce qui est discutable en soit), mais de là à parler de difficulté à détecter…



* l’un des tests a montré qu’en montant le contraste sur le visage d’Obama, ça changeait le résultat !


DanLo

Je suis pas sûr que tu dirais ça en toute bonne foi quand tu vois le cas d’exemple avec le visage d’Obama….



Favoriser le visage le plus contrasté* éventuellement (ce qui est discutable en soit), mais de là à parler de difficulté à détecter…



* l’un des tests a montré qu’en montant le contraste sur le visage d’Obama, ça changeait le résultat !


Contraste ou luminosité ?



Pardon pour cette demande de précision mais n’importe quel animal disposant d’une perception visuelle considère qu’une image contrasté lui donne plus d’information qu’une image lumineuse ou sombre : c’est la faculté de distinguer forme et relief sous sa forme la plus primitive dont il est peut-être question. :fumer:



DanLo a dit:


* l’un des tests a montré qu’en montant le contraste sur le visage d’Obama, ça changeait le résultat !




C’est keskidi


Non il dit mot pour mot “qui les rends plus difficiles à détecter”, ce qui est totalement faux, les 2 visages sont parfaitement détectés.



Si justement le contraste est favorisé, la conséquence directe constatée est bel et bien que les peaux claires sont favorisées.
Ce n’était pas la volonté de base, mais ça montre bien que les couleurs de peau plus foncées n’étaient pas prises en considération au même niveau que les visages à peau claire, ce qui rend l’algorithme indirectement raciste.



Pour rappel, il n’y a pas besoin d’une volonté de développer un algorithme raciste, pour que le résultat le soit. Il s’agit bien plus d’un biais du développeur (qui a pensé la reconnaissance de visages sous la considération de visages clairs à contraste + élevé) qui a pour conséquence un biais discriminatoire.



DanLo a dit:


Je suis pas sûr que tu dirais ça en toute bonne foi quand tu vois le cas d’exemple avec le visage d’Obama….




J’ai pas vu les photos en effet.




DanLo a dit:


Non il dit mot pour mot “qui les rends plus difficiles à détecter”, ce qui est totalement faux, les 2 visages sont parfaitement détectés.




Mais même si les deux visages sont détectés, l’algorithme peut privilégier les visages qu’il a détecté avec le plus de certitude pour diminuer les faux positifs par exemple. Et du coup, les visages avec moins de contraste sont défavorisés en effet, mais pour des raisons “techniques”.



DanLo a dit:


Non il dit mot pour mot “qui les rends plus difficiles à détecter”, ce qui est totalement faux, les 2 visages sont parfaitement détectés.



Si justement le contraste est favorisé, la conséquence directe constatée est bel et bien que les peaux claires sont favorisées. Ce n’était pas la volonté de base, mais ça montre bien que les couleurs de peau plus foncées n’étaient pas prises en considération au même niveau que les visages à peau claire, ce qui rend l’algorithme indirectement raciste.



Pour rappel, il n’y a pas besoin d’une volonté de développer un algorithme raciste, pour que le résultat le soit. Il s’agit bien plus d’un biais du développeur (qui a pensé la reconnaissance de visages sous la considération de visages clairs à contraste + élevé) qui a pour conséquence un biais discriminatoire.




J’allais te répondre mais Mihashi a déjà tout dit.



Drepanocytose a dit:


Ce serait marrant de comparer entre une femme blanche et un homme noir. Ou un homme roux et une femme blonde. Ou un homme gros et blanc et une femme noire et super athletique. Ou un homme blanc gros vieux et roux et un homme noir jeune athletique et bien membré. Ou…. Ou….



En fait on s’en fout, non ?




Y’a un gars qui s’est amusé à faire un tournoi avec les personnages du Marvel Cinematic Universe.
Eh ben c’est Scarlet Witch qui a gagné :)



Norde a dit:


Ou tout simplement qu’aucun algorithme ne choisisse ce qui doit être mis en avant. C’est bien ça le problème, au delà de la couleur de peau : la main mise d’algorithme sur le contenu.




C’est bien ca le probleme, en fait, on laisse des trucs automagiques faire ce que l’utilisateur ferait a sa place normalement. Sur la photo du mariage de la cousine qui est mal cadrée, je vais choisir la cousine en avant plutot que le pote qui est plus visible, mais la ca serait l’inverse…



momal a dit:


Mouais, et ca aurait ete le visage noir mis en avant, on aurait dit pareil…




Tout à fait, et dans les 2 cas il y a des conséquences, ici : visibilité accentuée ou réduite d’un personnage public, avec des conséquences sur leur carrière.
Je pense que ça n’a pas été fait exprès, l’algo a dû tout simplement estimer, très bêtement, que l’un des personnages était mieux éclairé que l’autre. Mais du coup ça veut dire que c’est le comportement par défaut de l’algorithme, ce qui finalement est pire puisque quasiment systématique, et là c’est pas simple à régler. Au niveau logiciel j’entends.


Ce n’est pas “très bêtement” c’est “explicable techniquement”, du “très bêtement” ça serait par exemple aléatoirement, hors ce n’est pas le cas.



Ceci dit ça ne me dérangerait pas que la machine soit plus “bête”, ça serait même plutôt rassurant sur le niveau intellectuel des utilisateurs (l’un compensant l’autre en général).



Sinon on peu aussi se prendre en photo IR ou passer sa tronche dans un scanner 3D… :D


Fermer