Publié dans DroitSécurité

14

Un logiciel de reconnaissance faciale identifie un afro-américain à partir d’une vieille photo

Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.Mirror B – Comuzi – Better Images of AI

Un Afro-Américain de 39 ans vient d'être incarcéré pour un meurtre commis en 2012, rapporte le Daily Mail. Il a été confondu grâce à un logiciel de reconnaissance faciale à partir d'une photo prise par un téléphone portable cette année-là.

En 2012, un Afro-Américain de 34 ans, Julio Torres, était abattu en Pennsylvanie après une altercation avec deux autres Afro-Américains. Des images de vidéosurveillance indiquaient qu'ils avaient bu dans des gobelets en polystyrène.

Leur analyse génétique permettait l'identification de l'un des deux suspects, dont l'ADN figurait dans une base de données policière. Il a été condamné à cinq ans de prison en 2013 après que les policiers ont déterminé que ce n'était pas lui qui avait tiré.

L'identité du meurtrier, dont l'ADN n'avait pas été préalablement fiché, n'avait pu être confondue, jusqu'à ce qu'une unité « cold case » ne rouvre l'affaire l'an passé.

Les enquêteurs ont en effet récupéré une photo du tireur présumé prise à l'époque avec un téléphone portable lors d'une fête quelque temps avant l'homicide. Un logiciel de reconnaissance faciale leur a indiqué l'identité d'un suspect potentiel.

Ce dernier, Vallis L. Slaughter, 39 ans, placé sous surveillance, avait l'habitude de fumer sur le trottoir devant le logement de sa mère, chez qui il vivait, et de jeter les mégots par terre. L'analyse génétique de l'un de ses mégots a confirmé que l'ADN prélevé sur le gobelet en 2012 était bien le sien.

Jusqu'alors, l'utilisation policière de la reconnaissance faciale biométrique s'était surtout illustrée, aux États-Unis, pour avoir identifié, à tort, des Afro-Américains innocents de ce dont ils furent pourtant accusés.

Il est en effet notoire, depuis la publication de l’étude Gender Shades par la chercheuse Joy Buolamwini en 2018, que plus la peau d’un sujet est foncée, moins les algorithmes de reconnaissance faciale fonctionnent correctement.

L'identification de Vallis L.Slaughter semble montrer, a contrario, qu'elle peut aussi s'avérer efficace, même à partir d'une photo de mauvaise qualité.

14

Tiens, en parlant de ça :

Le fichier des empreintes digitales sera interconnecté avec huit autres fichiers

FAED y verse

17:24 DroitSécu 4
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

Le ciblage publicitaire ne peut pas utiliser des données personnelles récupérées ailleurs

Schrems vs Meta, encore et encore

16:53 DroitSocials 6

Windows 11 ajoute des publicités dans le menu Démarrer, comment les supprimer

Rogntudjuuu !

11:18 Soft 60
next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

14

Fermer

Commentaires (14)


Il avait un nom prédestiné...
En tout cas, on voit bien que l'efficacité du procédé pour retrouver une personne n'est plus à démontrer, tant que ça ne sert pas de preuve en soit comme ici où l'ADN a parlé.
Clairement! Et en prime un gros porcif qui balance ses mégots confondu par sa crasse connerie. La morale est vraiment sauve...
"L’analyse génétique de l’un de ses mégots a confirmé que l’ADN prélevé sur le gobelet en 2012 était bien le sien"
C'est étrange, j'ai pourtant lu récemment que l'ADN n'était pas une preuve.

("Si on ne peut confirmer, avec une certitude absolue, l’identité entre deux profils comparés, il est par contre possible de réfuter avec certitude qu'une trace prélevée sur une scène de crime correspond au profil génétique d'un suspect"
source https://next.ink/120567/usa-25-des-erreurs-judiciaires-relevent-de-preuves-medico-legales-fausses-ou-trompeuses/ )

source de Next: https://www.police-nationale.interieur.gouv.fr/nous-decouvrir/notre-organisation/organisation/service-national-de-police-scientifique-snps
Comme indiqué dans le précédent article, il s'agit de "calculs de probabilités", d'où l'absence de "certitude absolue" ; il s'agit donc d'"indices", et non de "preuves" ; pour le coup, les calculs de probabilité de la reconnaissance faciale, puis de l'analyse génétique, auraient concordé pour désigner Slaughter comme étant l'auteur du meurtre.
Un logiciel de reconnaissance faciale leur a indiqué l'identité d'un suspect potentiel.


J'aurais aimé en savoir plus sur ce logiciel ou plutôt l'origine de la photo qui a servi à faire le rapprochement avec la photo du téléphone portable.

Est-ce parce qu'il a été fiché depuis par la police (tant pis pour lui), est-ce une photo liée à une pièce d'identité (fichier des gens honnêtes) ou enfin est-ce Clearview (ce cancer de la vie privée) qui l'a identifié grâce à des photos de lui récupérées sur le Web ?

Il n'y a rien à ce sujet dans l'article d'origine.

Et en cherchant ailleurs, je n'ai rien trouvé non plus. Par contre la plupart des sites qui parlent de l'affaire titrent sur l'ADN ou la cigarette et pas sur la reconnaissance faciale.
J'aurais, moi aussi, apprécié le fait d'en savoir plus sur le logiciel ; la photo aurait été récupérée dans le portable d'une connaissance de Slaughter, mais les articles ne précisent pas comment les enquêteurs de la cellule "cold case" l'auraient identifiés, 12 ans après le meurtre.
Et j'ai titré sur la reconnaissance faciale parce qu'on avait jusqu'alors surtout écrit au sujet des Afro-Américains identifiés "à tort" d'une part, d'autre part au vu de la résolution de la photo ; l'ADN n'a fait que confirmer, dans un second temps, l'identité du meurtrier.
Jusqu'alors, l'utilisation policière de la reconnaissance faciale biométrique s'était surtout illustrée, aux États-Unis, pour avoir identifié, à tort, des Afro-Américains innocents de ce dont ils furent pourtant accusés.


Non, ça c'est parce qu'on ne parle que des mauvaises nouvelles.
Pourquoi préciser dès le début de l'article qu'il est afro-américain ?
C'est écrit à la fin de l'article : parce que les outils de reconnaissance faciale ne fonctionnent généralement pas bien sur les gens de couleur. 😉
Modifié le 29/03/2024 à 12h40

Historique des modifications :

Posté le 29/03/2024 à 12h39


C'est écrit à la fin de l'article : parce que les outils de reconnaissance faciale ne fonctionnent généralement pas bien sur les gens de couleur.

Mince, Next qui fait l'apologie de la reconnaissance faciale, qui l'eût cru ?
Je trouve l'article factuel. Je ne sais pas si c'est opportun dans le cadre d'une brève de débattre plus longuement des effets plus larges de l'utilisation de la reconnaissance faciale (comme une menace sur la liberté d'aller et venir librement, ou l'exploitation illégale par des personnes assermentées).
Modifié le 29/03/2024 à 21h49

Historique des modifications :

Posté le 29/03/2024 à 21h49


Je trouve l'article factuel. Je ne sais pas si c'est opportun dans le cadre d'une brève de débattre plus longuement des effets plus larges de l'utilisation de la reconnaissance faciale (comme une menace sur la liberté aller et venir librement, ou l'exploitation illégale par des personnes assermentées).

Il faut être capable de reconnaître les succès de ce qu'on cherche à combattre si on veut être crédible je pense.

Deux opposants énumèrent les problèmes d'une techno (ici surveillance), l'un fait croire qu'il y a 0 avantages, l'autre tempère le propos en citant les quelques avantages.

Qui penses-tu que les gens à convaincre (qui pensent/savent qu'il y a un intérêt à la techno) vont écouter ?
Ce brief relate une information, qui me semble d'autant plus relever de la notion d'information d'intérêt général qu'elle va à l'encontre de ce que l'on avait pu lire jusqu'à présent au sujet du recours à la reconnaissance faciale pour l'identification de personnes de couleur.

Jean-Marc Manach

Ce brief relate une information, qui me semble d'autant plus relever de la notion d'information d'intérêt général qu'elle va à l'encontre de ce que l'on avait pu lire jusqu'à présent au sujet du recours à la reconnaissance faciale pour l'identification de personnes de couleur.
C'est une histoire de probabilité de toute façon comme tu le dis dans un autre commentaire, encore heureux que ça fonctionne des fois.
Le problème il me semble c'est que plus la base est grande (ex fichier des gens honnêtes) plus les probabilité doivent être bonnes pour ne pas sélectionner à tort de très nombreuses personnes. Si on cherche une personne sur une base de 45 millions, un taux de 99,9 % équivaut déjà à 44 999 faux positifs !