Reconnaissance faciale : un afro-américain arrêté à tort
Le 26 juin 2020 à 09h34
2 min
Droit
Droit
C'est la première erreur de ce type documentée aux États-Unis, rapporte l'AFP. Un afro-américain a été arrêté à tort à cause de l'usage par la police de la technologie de reconnaissance faciale. Début janvier, Robert Williams a passé trente heures en détention parce qu'un logiciel avait jugé identique la photo de son permis de conduire à l'image d'un voleur de montres capturée par des caméras de surveillance.
Après une nuit en cellule, des agents lui ont demandé s'il était déjà allé dans une bijouterie de Detroit, et lui ont montré deux photos floues d'un homme noir, écrit-il dans une tribune publiée par le Washington Post. « J'ai pris le papier et je l'ai mis près de mon visage en disant : J'espère que vous ne pensez pas que tous les hommes noirs se ressemblent. Les policiers se sont regardés et l'un d'eux a dit : l'ordinateur a dû se tromper », raconte-t-il.
Selon une étude du Massachusetts Institute of Technology, le taux d’erreur est de 35 % pour les femmes noires. Si ce biais ethnique lié à des bases de données comprenant plus de modèles blancs que noirs est connu, aucun cas précis d’erreur n’avait jusque-là été documenté.
Mercredi, le conseil municipal de Boston, sur la côte atlantique, a voté l’interdiction pour les agents municipaux d’utiliser la reconnaissance faciale, devenant la deuxième plus grosse ville au monde, après San Francisco à prendre cette décision. Dans la plainte administrative déposée à Détroit, l'association de défense des droits civiques ACLU demande à la ville de renoncer à son tour à cette technologie, mais aussi que le casier judiciaire de Robert Williams soit purgé de toute référence à cet incident.
Le 26 juin 2020 à 09h34
Commentaires (39)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 26/06/2020 à 11h36
Ouh là. Tout de suite sur les policiers (bon, c’est aux US). C’est surtout un manque d’alimentation de l’IA (là, ça peut être dû à un biais raciste) et qu’on a tendance à trop se fier aux technologies.
https://www.letemps.ch/sciences/cerveau-confond-visages-dautres-ethnies
une autre
C’est pas une nouveauté qu’on a tendance à moins différencier les personnes d’une autre “ethnie” que la sienne.
C’est valable dans tous les sens (pas seulement les blancs).
Justement, une IA bien alimentée corrigerait ces biais de perception humaine et ensuite, c’est surtout de prévoir dans la procédure de vérifier ce que sort le logiciel.
Le 26/06/2020 à 11h36
Et il leur a fallu 30h pour penser à vérifier si l’image vidéo correspondait bien à la personne qu’ils arrêtaient ?
Le 26/06/2020 à 11h50
Le 26/06/2020 à 11h54
Le 26/06/2020 à 12h25
Tu n’as pas compris le post apparemment.
Le 26/06/2020 à 12h49
Le 26/06/2020 à 13h07
Finalement, les débuts “racistes” de la reconnaissance faciale (visage noir = pas reconnu comme humain) étaient peut-être préférables.
Le 26/06/2020 à 13h21
35% d’erreur et ils s’en rendent compte maintenant ?
peut-être qu’ils “réussissent” à faire avouer ceux qui sont arrêté à tort, ça ne m’étonnerait pas…
Le 26/06/2020 à 13h26
Le 26/06/2020 à 13h53
Le 26/06/2020 à 13h57
Remarquez qu’il y a bien un mec qui a failli être xavier dupont de ligonnes il y a quelques mois, grâce à ses empreintes digitales.
Le 26/06/2020 à 15h21
Le 26/06/2020 à 15h24
Le 27/06/2020 à 15h08
Statistiquement il y a plus de noirs que de blancs en prison, çe n’est qu’une conséquence d’un système judiciaire présentant déjà des biais raciaux qui eux seront emplifies par le modele de reconnaissance facial, on a qu’à voir le comportement des apps comme snapchat ou FaceApp vis à vis des origines.
Le 27/06/2020 à 15h54
c’est bien le com que tu commentes explique la raison de ta stat
Le 27/06/2020 à 21h18
Le 28/06/2020 à 07h47
Le 28/06/2020 à 08h31
Le 28/06/2020 à 09h07
Superbe répartie, merci de ta participation. " />
Le 28/06/2020 à 09h24
sinon y a les chiffres par individu pas besoin de regarder que les stats si t’as pas envie d’avoir le syndrome de simpsons
Le 28/06/2020 à 21h34
Tu aurais évoqué le fait que certaines ethnies vivent en majorité dans des quartiers dits défavorisés et donc baignent en permanence dans la délinquance qui y est omniprésente ça aurait été plus crédible que d’invoquer le vilain méchant système judiciaire raciste " />
Le 29/06/2020 à 09h18
Le 29/06/2020 à 12h52
Juste pour dire que la reconnaissance faciale n’a rien à voir avec de l’IA.
C’est davantage du ressort de la statistique.
On agrège des données et on en ressort des lignes directrices.
L’usage d’aglo ne rend pas pour autant l’outil “intelligent”, il ne fait que recouper les profils soumis avec les lignes directrices prédéfinies.
C’est pour cela qu’il faut énormément de data pour avoir des lignes directrices affinées et ainsi éviter les faux positifs.
Bref, on est dans le big data et pas dans de l’IA
" />
Le 29/06/2020 à 13h34
Le 29/06/2020 à 14h19
Le 29/06/2020 à 14h34
Le 29/06/2020 à 14h52
Le 29/06/2020 à 14h59
Le 29/06/2020 à 16h21
Le 29/06/2020 à 16h39
inutile de rentrer dans le détail des chiffres, tu as compris ce que je voulais dire :
–> vite, virons quelques méritants pour laisser une place à quelques “victimes” et surtout, surtout, être en mesure d’afficher des chiffres plus bisou-compatibles.
Il est bien évident qu’outre les effets délétères sur la psyché des bénéficiaires évoqués précédemment, il est facile d’imaginer un terreau favorable au développement de la haine raciale du côté du méritant qui a été lésé.
Le 29/06/2020 à 20h19
Le 30/06/2020 à 07h53
Le 30/06/2020 à 13h32
Le 30/06/2020 à 13h58
Le 01/07/2020 à 07h37
Ça ne concerne pas que la reconnaissance faciale.
Il n’existe aucune IA intelligente actuellement.
Tout ce qui existe en ce moment, c’est ce qu’on appelle de l’IA faible, du type « apprentissage automatique ».
Le 26/06/2020 à 10h17
J’aimerais lire l’avis des adorateurs de la vidéoprotection.
Le mien étant : il vaut mieux des coupables en liberté plutôt que des innocents punis.
Le 26/06/2020 à 10h18
La réalité rejoint peu à peu les pires fictions dystopiques …
Le 26/06/2020 à 10h28
C’est marrant comme quoi ce biais était archi connu mais ils se sont dit “ça se tente”. Le mouvement BLM a commencé récemment, mais ils savaient très bien que c’est un sujet touchy.
“Ha mince, mais y a vraiment un biais en fait, arrêtons ça” " />
Le 26/06/2020 à 10h29
Quand le racisme touche aussi la technologie…
Ou comment le “l’ordinateur a dû se tromper “est le nouveau crédo de policiers racistes.
Bientôt, je sens qu’on va avoir droit à du “C’est la faute à l’ordinateur si ma matraque au bout de mon bras a tabassé et défiguré ce jeune/noir/immigré/gauchiste/femme…”