Twitter : l’algorithme de recadrage d’images critiqué pour ses biais
Le 21 septembre 2020 à 08h30
1 min
Internet
Internet
Dans un tweet mélangeant une photo de Barack Obama et de Mitch McConnell, un utilisateur a montré que l'outil du service de micro-blogging devant choisir quelle partie de l'image mettre en avant avait une préférence pour le visage du second, qui est blanc.
De quoi inciter certains à penser qu'un biais raciste est présent. Tout le week-end, les essais ont été multipliés pour vérifier cette théorie, certains évoquant le niveau de sourire ou le contraste, comme autres éléments ayant pu jouer.
De son côté, Twitter réfute tout choix lié au genre ou à la couleur de peau dans son algorithme, précisant que des tests avaient déjà été effectués pour s'en assurer… mais que d'autres sont « à l'évidence » nécessaires. Le travail qui sera mené se fera en open source. Une manière pour l'équipe d'assurer qu'elle est transparente en la matière.
Le 21 septembre 2020 à 08h30
Commentaires (22)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/09/2020 à 09h29
Mouais, et ca aurait ete le visage noir mis en avant, on aurait dit pareil…
L’ideal serait que ca soit aleatoire face a un choix de mise en avant sur des elements d’image avec le meme rank, mais la encore on peut se retrouver avec des resultats qui seront interpretés negativement par defaut
Le 22/09/2020 à 11h07
Ou tout simplement qu’aucun algorithme ne choisisse ce qui doit être mis en avant.
C’est bien ça le problème, au delà de la couleur de peau : la main mise d’algorithme sur le contenu.
Le 23/09/2020 à 05h20
Ca me rappelle cette planche de CommitStrip.
Et oui, ça craint.
Le 21/09/2020 à 10h20
La photo et les peau sombre ont toujours était un problème, les pellicule couleurs ont du attendre 1995 pour savoir gérer les peaux noirs, les premiers appareil numériques n’étaient pas mieux lotis, et encore aujourd’hui les appareil bas de gammes sont calibré sur les peux claires, plus facile a gérer…
Dans la cas de twitter je pense que l’algorithme est calibré pour aller au plus simple
Le 21/09/2020 à 10h36
Le même problème se pose avec la reconnaissance faciale, les algos existant actuellement ont beaucoup plus de faux positifs avec des gens à la peau noire que les autres.
Le 21/09/2020 à 10h47
Faut pas mettre sur le même plan limite physique (Pellicule) et technologie développée par des peaux clairs (caucasien ou asiatique).
Les biais algorithmique liés à l’ethnie du dévelopeur sont très connus, la reconnaissance faciale est un exemple.
Le 21/09/2020 à 14h23
Sauf que le mélange chimique créé pour les pellicules a été créé par des caucasien, et pour des caucasien. Les images de test n’avaient que des personnes blanches. Et les pellicules rendaient ça très bien. Il a fallu attendre autour de 1995 pour que de la mixité ethnique apparaissent dans les images de tests, et qu’ils se rendent compte que leur mélange chimique ne fonctionnait pas pour tout le monde.
C’est exactement le même problème que les algorithmes de reconnaissance faciale.
Le 21/09/2020 à 10h51
Mmmh, pas de problème sur Nitter, ça affiche simplement toute l’image ;)
Le 21/09/2020 à 10h56
Moi je propose que l’algorithme choisisse en fonction des habitudes de celui qui regarde…
Le 21/09/2020 à 11h15
Je n’ai jamais compris pourquoi ils se sont fait chier à faire un algorithme pour ça plutôt que de laisser à l’utilisateur choisir quelle partir de l’image sera vue… C’est d’une débilité sans nom !
Le 21/09/2020 à 11h28
Ce serait marrant de comparer entre une femme blanche et un homme noir.
Ou un homme roux et une femme blonde.
Ou un homme gros et blanc et une femme noire et super athletique.
Ou un homme blanc gros vieux et roux et un homme noir jeune athletique et bien membré.
Ou….
Ou….
En fait on s’en fout, non ?
Le 21/09/2020 à 12h16
Mais c’est pas forcément un problème d’algorithme, ça peut être un problème de manque de contraste sur les peaux sombres par exemple, qui les rends plus difficiles à détecter quelque soit l’algo.
Le 21/09/2020 à 12h24
Je suis pas sûr que tu dirais ça en toute bonne foi quand tu vois le cas d’exemple avec le visage d’Obama….
Favoriser le visage le plus contrasté* éventuellement (ce qui est discutable en soit), mais de là à parler de difficulté à détecter…
* l’un des tests a montré qu’en montant le contraste sur le visage d’Obama, ça changeait le résultat !
Le 22/09/2020 à 06h46
Contraste ou luminosité ?
Pardon pour cette demande de précision mais n’importe quel animal disposant d’une perception visuelle considère qu’une image contrasté lui donne plus d’information qu’une image lumineuse ou sombre : c’est la faculté de distinguer forme et relief sous sa forme la plus primitive dont il est peut-être question.
Le 21/09/2020 à 12h29
C’est keskidi
Le 21/09/2020 à 12h38
Non il dit mot pour mot “qui les rends plus difficiles à détecter”, ce qui est totalement faux, les 2 visages sont parfaitement détectés.
Si justement le contraste est favorisé, la conséquence directe constatée est bel et bien que les peaux claires sont favorisées.
Ce n’était pas la volonté de base, mais ça montre bien que les couleurs de peau plus foncées n’étaient pas prises en considération au même niveau que les visages à peau claire, ce qui rend l’algorithme indirectement raciste.
Pour rappel, il n’y a pas besoin d’une volonté de développer un algorithme raciste, pour que le résultat le soit. Il s’agit bien plus d’un biais du développeur (qui a pensé la reconnaissance de visages sous la considération de visages clairs à contraste + élevé) qui a pour conséquence un biais discriminatoire.
Le 21/09/2020 à 13h05
J’ai pas vu les photos en effet.
Mais même si les deux visages sont détectés, l’algorithme peut privilégier les visages qu’il a détecté avec le plus de certitude pour diminuer les faux positifs par exemple. Et du coup, les visages avec moins de contraste sont défavorisés en effet, mais pour des raisons “techniques”.
Le 21/09/2020 à 13h42
J’allais te répondre mais Mihashi a déjà tout dit.
Le 21/09/2020 à 13h56
Y’a un gars qui s’est amusé à faire un tournoi avec les personnages du Marvel Cinematic Universe.
Eh ben c’est Scarlet Witch qui a gagné :)
Le 22/09/2020 à 12h59
C’est bien ca le probleme, en fait, on laisse des trucs automagiques faire ce que l’utilisateur ferait a sa place normalement. Sur la photo du mariage de la cousine qui est mal cadrée, je vais choisir la cousine en avant plutot que le pote qui est plus visible, mais la ca serait l’inverse…
Le 22/09/2020 à 13h19
Tout à fait, et dans les 2 cas il y a des conséquences, ici : visibilité accentuée ou réduite d’un personnage public, avec des conséquences sur leur carrière.
Je pense que ça n’a pas été fait exprès, l’algo a dû tout simplement estimer, très bêtement, que l’un des personnages était mieux éclairé que l’autre. Mais du coup ça veut dire que c’est le comportement par défaut de l’algorithme, ce qui finalement est pire puisque quasiment systématique, et là c’est pas simple à régler. Au niveau logiciel j’entends.
Le 22/09/2020 à 21h42
Ce n’est pas “très bêtement” c’est “explicable techniquement”, du “très bêtement” ça serait par exemple aléatoirement, hors ce n’est pas le cas.
Ceci dit ça ne me dérangerait pas que la machine soit plus “bête”, ça serait même plutôt rassurant sur le niveau intellectuel des utilisateurs (l’un compensant l’autre en général).
Sinon on peu aussi se prendre en photo IR ou passer sa tronche dans un scanner 3D…