C'est la première erreur de ce type documentée aux États-Unis, rapporte l'AFP. Un afro-américain a été arrêté à tort à cause de l'usage par la police de la technologie de reconnaissance faciale. Début janvier, Robert Williams a passé trente heures en détention parce qu'un logiciel avait jugé identique la photo de son permis de conduire à l'image d'un voleur de montres capturée par des caméras de surveillance.
Après une nuit en cellule, des agents lui ont demandé s'il était déjà allé dans une bijouterie de Detroit, et lui ont montré deux photos floues d'un homme noir, écrit-il dans une tribune publiée par le Washington Post. « J'ai pris le papier et je l'ai mis près de mon visage en disant : J'espère que vous ne pensez pas que tous les hommes noirs se ressemblent. Les policiers se sont regardés et l'un d'eux a dit : l'ordinateur a dû se tromper », raconte-t-il.
Selon une étude du Massachusetts Institute of Technology, le taux d’erreur est de 35 % pour les femmes noires. Si ce biais ethnique lié à des bases de données comprenant plus de modèles blancs que noirs est connu, aucun cas précis d’erreur n’avait jusque-là été documenté.
Mercredi, le conseil municipal de Boston, sur la côte atlantique, a voté l’interdiction pour les agents municipaux d’utiliser la reconnaissance faciale, devenant la deuxième plus grosse ville au monde, après San Francisco à prendre cette décision. Dans la plainte administrative déposée à Détroit, l'association de défense des droits civiques ACLU demande à la ville de renoncer à son tour à cette technologie, mais aussi que le casier judiciaire de Robert Williams soit purgé de toute référence à cet incident.
Commentaires (39)
#1
J’aimerais lire l’avis des adorateurs de la vidéoprotection.
Le mien étant : il vaut mieux des coupables en liberté plutôt que des innocents punis.
#2
La réalité rejoint peu à peu les pires fictions dystopiques …
#3
C’est marrant comme quoi ce biais était archi connu mais ils se sont dit “ça se tente”. Le mouvement BLM a commencé récemment, mais ils savaient très bien que c’est un sujet touchy.
“Ha mince, mais y a vraiment un biais en fait, arrêtons ça” " />
#4
Quand le racisme touche aussi la technologie…
Ou comment le “l’ordinateur a dû se tromper “est le nouveau crédo de policiers racistes.
Bientôt, je sens qu’on va avoir droit à du “C’est la faute à l’ordinateur si ma matraque au bout de mon bras a tabassé et défiguré ce jeune/noir/immigré/gauchiste/femme…”
#5
Ouh là. Tout de suite sur les policiers (bon, c’est aux US). C’est surtout un manque d’alimentation de l’IA (là, ça peut être dû à un biais raciste) et qu’on a tendance à trop se fier aux technologies.
https://www.letemps.ch/sciences/cerveau-confond-visages-dautres-ethnies
une autre
C’est pas une nouveauté qu’on a tendance à moins différencier les personnes d’une autre “ethnie” que la sienne.
C’est valable dans tous les sens (pas seulement les blancs).
Justement, une IA bien alimentée corrigerait ces biais de perception humaine et ensuite, c’est surtout de prévoir dans la procédure de vérifier ce que sort le logiciel.
#6
Et il leur a fallu 30h pour penser à vérifier si l’image vidéo correspondait bien à la personne qu’ils arrêtaient ?
#7
#8
#9
Tu n’as pas compris le post apparemment.
#10
#11
Finalement, les débuts “racistes” de la reconnaissance faciale (visage noir = pas reconnu comme humain) étaient peut-être préférables.
#12
35% d’erreur et ils s’en rendent compte maintenant ?
peut-être qu’ils “réussissent” à faire avouer ceux qui sont arrêté à tort, ça ne m’étonnerait pas…
#13
#14
#15
Remarquez qu’il y a bien un mec qui a failli être xavier dupont de ligonnes il y a quelques mois, grâce à ses empreintes digitales.
#16
#17
#18
Statistiquement il y a plus de noirs que de blancs en prison, çe n’est qu’une conséquence d’un système judiciaire présentant déjà des biais raciaux qui eux seront emplifies par le modele de reconnaissance facial, on a qu’à voir le comportement des apps comme snapchat ou FaceApp vis à vis des origines.
#19
c’est bien le com que tu commentes explique la raison de ta stat
#20
#21
#22
#23
Superbe répartie, merci de ta participation. " />
#24
sinon y a les chiffres par individu pas besoin de regarder que les stats si t’as pas envie d’avoir le syndrome de simpsons
#25
Tu aurais évoqué le fait que certaines ethnies vivent en majorité dans des quartiers dits défavorisés et donc baignent en permanence dans la délinquance qui y est omniprésente ça aurait été plus crédible que d’invoquer le vilain méchant système judiciaire raciste " />
#26
#27
Juste pour dire que la reconnaissance faciale n’a rien à voir avec de l’IA.
C’est davantage du ressort de la statistique.
On agrège des données et on en ressort des lignes directrices.
L’usage d’aglo ne rend pas pour autant l’outil “intelligent”, il ne fait que recouper les profils soumis avec les lignes directrices prédéfinies.
C’est pour cela qu’il faut énormément de data pour avoir des lignes directrices affinées et ainsi éviter les faux positifs.
Bref, on est dans le big data et pas dans de l’IA
" />
#28
#29
#30
#31
#32
#33
#34
inutile de rentrer dans le détail des chiffres, tu as compris ce que je voulais dire :
–> vite, virons quelques méritants pour laisser une place à quelques “victimes” et surtout, surtout, être en mesure d’afficher des chiffres plus bisou-compatibles.
Il est bien évident qu’outre les effets délétères sur la psyché des bénéficiaires évoqués précédemment, il est facile d’imaginer un terreau favorable au développement de la haine raciale du côté du méritant qui a été lésé.
#35
#36
#37
#38
#39
Ça ne concerne pas que la reconnaissance faciale.
Il n’existe aucune IA intelligente actuellement.
Tout ce qui existe en ce moment, c’est ce qu’on appelle de l’IA faible, du type « apprentissage automatique ».