Publié dans Droit

39

Accusée à tort par un algorithme de reconnaissance faciale

Accusée à tort par un algorithme de reconnaissance faciale

Porcha Woodruff est la dernière victime en date des errements des technologies de reconnaissance faciale. Enceinte de huit mois, cette femme de 32 ans s’est retrouvée arrêtée et détenue pendant onze heures à Detroit, aux États-Unis, sur la foi d’un système de reconnaissance faciale qui l’a reconnue à la place de la réelle autrice d’un vol ayant eu lieu dans la région.


Porcha Woodruff est la sixième victime connue de ce type d’erreur, la sixième personne noire et la première femme à se retrouver ainsi accusée à tort.

Comme d’autres, elle s’est retrouvée menottée et emmenée au poste sous les yeux de ses deux filles. Dans la cellule, elle a subi de premières contractions, raconte-t-elle au New-York Times. Mais il a fallu que Porcha Woodruff paye 100 000 dollars de caution pour pouvoir sortir de cellule.  

Le système défaillant a été construit par DataWorks Plus.

39

Tiens, en parlant de ça :

#Flock fait son cinéma

Huahu ahu ouin ouin ouiiin... Vous l'avez ?

13:37 Flock 24

Le fichier des empreintes digitales sera interconnecté avec huit autres fichiers

FAED y verse

17:24 DroitSécu 9
Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé

Le ciblage publicitaire ne peut pas utiliser des données personnelles récupérées ailleurs

Schrems vs Meta, encore et encore

16:53 DroitSocials 8
Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

39

Fermer

Commentaires (39)



La preuve ? La Chine s’en sert !



:transpi: :craint:


Cette brève est de la désinformation pure. Désolé d’être aussi sec dans mon commentaire, mais rester factuels.
Il faut lire l’article en lien.



Oui, le logiciel a fait un rapprochement entre la photo de la coupable et celle de la mauvaise suspecte.



Comme il est écrit dans l’article :




A human analyst is ultimately responsible for deciding if any of the matches are a potential suspect.




De plus, la victime a cru reconnaître la mauvaise suspecte parmi 6 photos. Cet élément est assez faible si on y réfléchit : je ne sais pas comment sont choisies les 5 autres photos, mais comme la photo de la suspecte ressemblait suffisamment à la coupable pour que l’algo de reconnaissance se soit trompé, il n’est pas surprenant que la victime se soit aussi trompée. Un spécialiste fait la même remarque que moi dans l’article (j’ai écrit cette partie du commentaire avant d’avoir tout lu).



Ce sont des humains qui l’on accusé à tort, pas un algorithme. C’est la police qui est coupable de cette mauvaise accusation. Ce sont les errements de la police.


Oui on le sais. Les utilisateurs de ces outils n’en connaissent pas les limitations et biais. Ou pire en se déresponsabilisant volontairement.


Merci pour les précisions :chinois:


Le problème c’est que DataWorks Plus n’est pas magistrat ni procureur. De plus, la méthode n’analyse d’image n’étant certainement pas publique, elle est directement incompatible à la procédure judiciaire qui est, nonobstant le délire latent du happytaxpayer, une finalité.



Si on réputait servant la procédure judiciaire toute déclaration privée, pourquoi pas demander aux agents de jouer à monsieur patate tant qu’à faire. Cela aurait des qualités identiques : les vrais suspects seraient retrouvés facilement par la maîtrise du vodoo et le jeu d’acteur copié sur Clint Eastwood. :cap:


Je n’ai pas accès à l’article original (paywall).



Si je comprends bien ce que tu indiques, l’algo a “accusé” à tort Porcha, puis un humain chez DataWork Plus a fait aussi l’erreur, puis la victime elle-même a fait l’erreur ?



Par contre, où est la désinformation de NextInpact ici ?


potn

Je n’ai pas accès à l’article original (paywall).



Si je comprends bien ce que tu indiques, l’algo a “accusé” à tort Porcha, puis un humain chez DataWork Plus a fait aussi l’erreur, puis la victime elle-même a fait l’erreur ?



Par contre, où est la désinformation de NextInpact ici ?


Non. L’algo n’a accusé personne. La désinformation est là.
L’algo a tout au plus suggéré une suspecte.



Ce sont les policiers qui n’ont pas suffisamment contrôlé que la suspecte suggérée était celle dont ils avaient la photo. La société DataWork Plus n’a fait que fournir le système de reconnaissance faciale.



La victime a qui on présentait 6 photos dont celle ressortie par le système a cru reconnaître la coupable; Normal, elle ressemblait assez pour que le système se trompe.



La désinformation est d’écrire que c’est l’algorithme qui a accusé quelqu’un alors que cela n’entre pas dans ses prérogatives. Ce sont les policiers qui ont accusé à tort cette personne.
Parler des “errements des technologies de reconnaissance faciale.” est de la désinformation en plus d’être une insulte à notre intelligence.


tu t’attends à avoir de l’information neutre sur la reconnaissance faciale ici ?



Si la technologie peut décupler la résolution de crimes et améliorer considérablement l’efficacité de la justice tu trouveras toujours toute les mauvaises nouvelles sur NXi


psikobare

tu t’attends à avoir de l’information neutre sur la reconnaissance faciale ici ?



Si la technologie peut décupler la résolution de crimes et améliorer considérablement l’efficacité de la justice tu trouveras toujours toute les mauvaises nouvelles sur NXi


Je ne m’attends à rien de spécial, surtout de l’auteur probable de la brève. Par contre, quand c’est trop gros, je dénonce. Et ce qui est bien ici, c’est qu’on peut le faire tant que l’on argumente.



Je suis très loin d’être un fan de la reconnaissance faciale pour trouver un suspect (en fait, je suis contre à cause des défaillances de la technologie et des humains qui l’utilisent mais surtout à cause d’une violation disproportionnée de la vie privée. Mais, il y a suffisamment de bons arguments contre ces outils pour ne pas en rajouter des mauvais quitte à ne plus être crédible.



Accusée à tort par un algorithme de reconnaissance faciale




blessé à tort par une arme à feu à canon court.


à 32 min dans ce reportage de la RTS




Dans le regard d’un Blanc, tous les Noirs se ressemblent. C’est en tout cas ce que démontre une terrible méprise à Jacksonville en Floride dans les années 2000.(…) Il n’est pas suspect pourtant après l’avoir très brièvement observé le mari de la défunte l’identifie immédiatement comme étant le coupable.(…) il aura beaucoup de mal à convaincre les juges que son visage a été confondu avec celui d’un autre Noir, sous l’effet de ce que les scientifiques appellent «le phénomène de l’autre race» (…) une tendance naturelle et sincère à dire oui c’est la personne que j’ai vue alors qu’il ne s’agit pas de la bonne personne.




Dans la suite, le neuropsychologue interrogé montre la façon dont le cerveau reconnait les visages, et qu’il prend moins d’information s’il détecte une personne d’une autre race. (y compris Européen reconnu par un Asiatique)



Donc non seulement l’algorithme a un biais envers les Noirs mais le cerveau des non Noirs aussi. Je ne sais pas si la victime est noire ou non, pas trouvé dans l’article du NYT.


La réciproque est vu aussi…



indépendamment, l’algorithme n’est pas (encore ?) équipé pour mettre des menottes. Sur la forme comme sur le fond, ce sont bien les agents qui ont arrêté cette personne.



toujours Indépendamment, si l’on qualifie cela de faux positif (que je n’aurais pas voulu subir quand même) combien de vrai positif avec ce système. Et en comparaison sans l’outil, c’est plus ou c’est moins mauvais ?



la sixième victime connue de ce type d’erreur




Sur combien de personne au total ?



Et sur combien de personne quand la reconnaissance faciale n’est pas utilisée ?




Le système défaillant a été construit par DataWorks Plus.




La prochaine fois il faudrait surtout s’abstenir de publier ce genre de news si derrière il y à absolument aucun chiffre et en donnant une source 100% payante.


Le seul système fiable qui selon permet d’identifier un individu c’est Paraf qui identifie une personne basée sur les données biométriques du passeport du titulaire qui sont lues avant comparaison avec l’acquisition vidéo temps réelle effectuées dans le sas .



C’est 1 vers 1 basé sur une photographie normée (taille, résolution, luminosité, absence d’accessoires,..) donc avec une référence fiable.



Je pense que leur applicatif est un outil d’analyse probabiliste dont l’argument marketing est sans doute très exagéré et/ou mal compris par les acheteurs potentiels..



Par contre, si leur outil est connecté à la base de données d’identités publique là ca craint du boudin..


Vu que la totalité des outils de reconnaissance faciale utlise du machine learning, ils sont tous probabilistes.


Gamble

Vu que la totalité des outils de reconnaissance faciale utlise du machine learning, ils sont tous probabilistes.


On est d’accord, c’est pourquoi j’ai pris l’exemple de Paraf qui lui, fait de l’identification. Je pense qu’il y a un biais de d’explication/compréhension entre identification et reconnaissance.


Cetera

On est d’accord, c’est pourquoi j’ai pris l’exemple de Paraf qui lui, fait de l’identification. Je pense qu’il y a un biais de d’explication/compréhension entre identification et reconnaissance.


Légère correction :




  • Parafe fait de l’authentification (vérification en 1 contre 1)

  • La reconnaissance faciale fait de l’identification (trouver 1 personne parmi N référencées)



Certains algos peuvent être utilisés dans les 2 cas (avec des seuils de score généralement différents, bien sûr).



Ceci étant, il me semblait que Parafe faisait son authentification sur les empreintes et non le visage. Et dans ce cas-là, les algos n’ont pas toujours été à base de machine learning…


Triton

Légère correction :




  • Parafe fait de l’authentification (vérification en 1 contre 1)

  • La reconnaissance faciale fait de l’identification (trouver 1 personne parmi N référencées)



Certains algos peuvent être utilisés dans les 2 cas (avec des seuils de score généralement différents, bien sûr).



Ceci étant, il me semblait que Parafe faisait son authentification sur les empreintes et non le visage. Et dans ce cas-là, les algos n’ont pas toujours été à base de machine learning…


Désolé pour cet abus de langage de ma part, j’ai pensé que le terme d’identification sur ce sujet était plus approprié (l’authentification étant le moyen et l’identification la fin).



En effet, la version 1 de Parafe utilisait les empreintes du titulaire pour les comparer à données biométriques du document (passeport).



La version 2 utilise maintenant le visage avec des gains significatifs en terme de vitesse d’analyse car l’idée principale de Parafe est bien de fluidifier le passage au frontière sous la pression des compagnies aériennes qui paient cher les retards et slots perdus ( les retards ne sont pas non plus tous imputables à la PAF) .


Cetera

Désolé pour cet abus de langage de ma part, j’ai pensé que le terme d’identification sur ce sujet était plus approprié (l’authentification étant le moyen et l’identification la fin).



En effet, la version 1 de Parafe utilisait les empreintes du titulaire pour les comparer à données biométriques du document (passeport).



La version 2 utilise maintenant le visage avec des gains significatifs en terme de vitesse d’analyse car l’idée principale de Parafe est bien de fluidifier le passage au frontière sous la pression des compagnies aériennes qui paient cher les retards et slots perdus ( les retards ne sont pas non plus tous imputables à la PAF) .


Alors non, authentification et identification ne veulent pas dire ça !



L’authentification, c’est le fait de vérifier que personne est connue, par exemple vérifier que je suis bien Edtech. Généralement, un mot de passe suffit à prouver que c’est bien son compte. Mais ça n’indique pas qui on est vraiment.



L’identification, c’est de vérifier mon identité, à savoir qui est vraiment la personne derrière le pseudo Edtech. Pour ça il faut une pièce d’identité et un contrôle entre elle et la personne qui fait la demande, ou bien passer par un tiers de confiance qui nous a déjà identifié (l’identité numérique de la Poste par exemple).



Dans certains cas, on fait les deux, le plus souvent, on ne fait que l’authentification.


Edtech

Alors non, authentification et identification ne veulent pas dire ça !



L’authentification, c’est le fait de vérifier que personne est connue, par exemple vérifier que je suis bien Edtech. Généralement, un mot de passe suffit à prouver que c’est bien son compte. Mais ça n’indique pas qui on est vraiment.



L’identification, c’est de vérifier mon identité, à savoir qui est vraiment la personne derrière le pseudo Edtech. Pour ça il faut une pièce d’identité et un contrôle entre elle et la personne qui fait la demande, ou bien passer par un tiers de confiance qui nous a déjà identifié (l’identité numérique de la Poste par exemple).



Dans certains cas, on fait les deux, le plus souvent, on ne fait que l’authentification.


C’est pas ce que j’ai appris :
Identification = identifiant dans un formulaire de connexion
Authentification = mot de passe dans un formulaire de connexion



En l’occurrence, généralement, sur Internet, on fait les 2 en même temps.


Edtech

Alors non, authentification et identification ne veulent pas dire ça !



L’authentification, c’est le fait de vérifier que personne est connue, par exemple vérifier que je suis bien Edtech. Généralement, un mot de passe suffit à prouver que c’est bien son compte. Mais ça n’indique pas qui on est vraiment.



L’identification, c’est de vérifier mon identité, à savoir qui est vraiment la personne derrière le pseudo Edtech. Pour ça il faut une pièce d’identité et un contrôle entre elle et la personne qui fait la demande, ou bien passer par un tiers de confiance qui nous a déjà identifié (l’identité numérique de la Poste par exemple).



Dans certains cas, on fait les deux, le plus souvent, on ne fait que l’authentification.


Pas d’accord avec ça.
Et pour reprendre le thème:
L’identification est faite par l’analyse du visage du titulaire en le rapprochant des données du passeport biométrique qui permet d’authentifier son titulaire.



Donc je persiste, l’authentification (le passeport biométrique) est bien le moyen aux fins d’identifier une personne (ici par l’analyse de son visage).


Edtech

Alors non, authentification et identification ne veulent pas dire ça !



L’authentification, c’est le fait de vérifier que personne est connue, par exemple vérifier que je suis bien Edtech. Généralement, un mot de passe suffit à prouver que c’est bien son compte. Mais ça n’indique pas qui on est vraiment.



L’identification, c’est de vérifier mon identité, à savoir qui est vraiment la personne derrière le pseudo Edtech. Pour ça il faut une pièce d’identité et un contrôle entre elle et la personne qui fait la demande, ou bien passer par un tiers de confiance qui nous a déjà identifié (l’identité numérique de la Poste par exemple).



Dans certains cas, on fait les deux, le plus souvent, on ne fait que l’authentification.


Alors la définition de pierreonthenet est ce qu’il y a de plus proche de la réalité. Mais en tout cas, authentification et identification sont deux concepts liés, mais différents. On trouve souvent sur internet tout du moins, les deux mélangés.



Authentification : on vérifie la légitimité d’un accès. Accès protégé par mot de passe, certificat, clé privé, etc.



Identification : on identifie quelque chose ou quelqu’un.



Sur internet, on fait souvent l’amalgame, car les deux vont généralement de pairs.



En effet, une authentification sans identification préalable n’a que peu de sens. Il ne sert à rien de vérifier le mot de passe de quelqu’un tant qu’on ne sait pas le mot de passe de qui il faut vérifier ! Une vérification par certificat fait les 2 car le certificat contient des informations sur l’identité (=identification) de la personne en plus de la clé publique permettant de vérifier un chalenge cryptographique (= authentification)



L’identification sans authentification serait totalement absurde aujourd’hui, puisque n’importe qui pourrait agit ou se connecter au compte de n’importe qui juste en connaissant son identité (souvent un identifiant).



Et on voit bien, à travers les attaques par phising qu’être authentifié et identifié ne signifie pas être la personne qui se cache derrière un compte.



Avec des mécanismes comme le MFA (authentification multifacteur), on tend à refaire cette amalgame, car on se dit que seul le titulaire va avoir tous les facteurs nécessaires pour réaliser l’étape d’authentification.



Il est vrai aussi que lorsqu’on se connecte à un site web, on voit des notions plutôt ambiguës (formulaire d’authentification, formulaire d’identification, formulaire de connexion, etc.) mais jamais formulaire d’identification et d’authentification, qui serait l’expression la plus approprié pour une connexion par login/mot de passe ! Le plus juste et le plus simple étant finalement “formulaire de connexion”.



[edit]
Juste pour préciser encore sur l’identification : sur internet (je ne parle pas d’un point de vue législatif), l’identification consiste à dire à qui appartient un compte (qui peut être un compte sous pseudonyme). Pas à vérifier l’identité “civile” d’une personne.


Quelle idée aussi d’habiter au Texas quand on est noire ? :roll: (troll sarcastique hein, je préfère préciser avant de ma faire lyncher par les cap’tains 1er degré)



Après ça marche aussi avec la plupart des états du sud qui n’ont pour beaucoup toujours pas totalement tourné la page “du bon temps des champs de coton” (ça ne fait pas si longtemps qu’on ne voit plus flotter partout le drapeau confédéré à chaque manifestation sportive ou autre, et il me semble qu’il a fallu légiférer pour ça)



fred42 a dit:


Parler des “errements des technologies de reconnaissance faciale.” est de la désinformation en plus d’être une insulte à notre intelligence.




Ou bien cette même intelligence remarque une divergence dont l’origine est manifestement occulte, entretenant possiblement un lien causal avec le résultat illogique.



En clair, la recette est à double usage tandis que la finalité ici est le jugement : innocent ou coupable.



La voie alternative est alors de restreindre l’outil aux cas pertinents puisque pour l’instant, on voit surtout des systèmes de renforcement dérivant vers la justice expéditive. Le coup de maître c’est de savoir ce qui relève de l’automatisme et de la décision humaine, ici encore, la boite a choisi de quel côté il lui est nécessaire de pencher pour maintenir l’illusion objectale du justiciable aux yeux des juges…



Le plus probable de se produire, en supposant de bonne foi les concepteurs, c’est une augmentation des délits et crimes indépendante du nombre de résolutions qui est le réel objet de la vente et n’est ainsi pas, à proprement parler, la même chose qu’une enquête. (voir pour s’en convaincre la somme des contraintes d’homologation appliquées ou les cas d’hybridation entre numérique et police scientifique qui n’ont rien à voir en sérieux avec le tout venant ergotique de « l’IA »).


Faut dire que la lumière est raciste, elle rebondit moins sur les peaux foncées que sur les peaux claires. Il faut interdire la lumière.


Pas mal ça, on pourrait supposer tout corps préjugeable sur la seule base de son indice de réfraction.



Ou pas. Et puis évidement c’est dans la poche puisque personne n’assume que cela se provoque.



fred42 a dit:


L’algo a tout au plus suggéré une suspecte.




N’empêche que la sorcière présumée était innocente, mais si elle avait pas eu 100.000 \( (cent mille dollars), elle serait bien passée au bûcher. Petit sondage express : qui a 100.000 \) (cent mille dollars) disponibles pour ce genre de situation chez les lecteurs de NXI ?



(reply:2146666:Tsi-na-pah)




Ne raconte pas n’importe quoi.



Il y a des sociétés spécialisées pour prêter la caution aux USA. Et au final, elle va probablement être indemnisée par la ville dont la police a fait une fausse accusation : ce n’est pas elle qui paiera la société de prêt.



Personnellement, je préfère cela aux incarcérations préventives qui durent de la France, même si à titre personnel je pourrais payer cette somme (pour répondre à ton sondage).



Mais encore une fois, il faut accuser les policiers qui n’ont pas fait correctement leur boulot, pas l’outil. J’espère que cela servira de leçon à la ville qui va demander à sa police de faire plus attention la prochaine fois.



fred42 a dit:


Il y a des sociétés spécialisées pour prêter la caution aux USA. Et au final, elle va probablement être indemnisée par la ville dont la police a fait une fausse accusation : ce n’est pas elle qui paiera la société de prêt.




Ces sociétés ne prêtent pas à tout le monde. Ici c’est une coïncidence que la suspecte fut enceinte. Cela aurait pu être une multirécidiviste repentie qui aurait eu la plus grande peine à trouver un prêt pour sa caution. Et pour l’indemnisation, pareil, avec un casier c’est plus difficile à obtenir. Ton raisonnement est optimiste parce que ça colle à la situation de cette suspecte précise. Par coïncidence seulement.




Personnellement, je préfère cela aux incarcérations préventives qui durent de la France, même si à titre personnel je pourrais payer cette somme (pour répondre à ton sondage).




C’était un sondage rhétorique. La réponse, c’est à la louche la moitié de la population française à condition de vendre le patrimoine immobilier donc beaucoup moins en pratique :
Distribution du patrimoine des ménages – Insee 2023 données 2021




Mais encore une fois, il faut accuser les policiers qui n’ont pas fait correctement leur boulot, pas l’outil. J’espère que cela servira de leçon à la ville qui va demander à sa police de faire plus attention la prochaine fois.




Les policiers ont probablement utilisé l’outil conformément aux consignes d’utilisation qu’ils ont reçu l’ordre d’appliquer. Et puis de toutes façons la police ne sert pas à « faire attention », la police sert à faire du chiffre. Il n’y a rien qui va changer sauf que la presse va nous habituer à une nouvelle catégorie de faits divers venus d’outre-Atlantique : les erreurs des réseaux de neurones artificiels.
:craint:



fred42 a dit:


Non. L’algo n’a accusé personne. La désinformation est là. L’algo a tout au plus suggéré une suspecte.




Franchement, je trouve qu’on est pas loin de jouer sur les mots là.
Remplace l’algo par un humain, et on aurait dit que l’humain a accusé à tort la dame, même s’il ne faisait que suggérer sa culpabilité.



Dès lors, parler de désinformation me semble un peu fort.



Mais mis à part ça, je crois sue je suis d’accord avec toi sur le fond du problème. 😉


Woodruff ? Ah oui… Je comprends l’IA. Je veux dire par là… Voici une photo du voleur peu avant les faits, à droite.




L’IA peut facilement se tromper.



:D



fred42 a dit:


Mais encore une fois, il faut accuser les policiers qui n’ont pas fait correctement leur boulot, pas l’outil.




On peut tout à fait faire l’un et l’autre… si l’outil a exactement les mêmes défauts que les incompétents qui l’utilisent, c’est quoi la valeur ajoutée?


Le logiciel permet indéniablement de comparer un visage à de grandes quantités de photos très rapidement, ce que ne permet pas de faire un policier.



Mais ne me mets pas en position de défenseur de la reconnaissance faciale, je ne le suis pas. Je dis juste depuis le début qu’il faut pointer les vrais responsables et utiliser les bons mots. Le logiciel n’a accusé personne. Les vrais responsables sont les policiers qui n’ont pas fait les vérifications nécessaires avant d’accuser.
J’ai même dit qu’il y avait suffisamment de bons arguments contre cette technologie pour ne pas utiliser de mauvais arguments.



fred42 a dit:


Le logiciel n’a accusé personne. Les vrais responsables sont les policiers qui n’ont pas fait les vérifications nécessaires avant d’accuser. J




La responsabilité des policiers est indéniable puisqu’ils sont responables de tout le processus, mais cela n’exonère pas la solution de reconnaissance faciale qui s’est trompée.



Il est en outre normal de s’interroger sur les éventuelles variations de fiabilité de la solution selon qu’il s’agisse de personnes blanches ou racisées.


Comme tu coupes mes commentaires pour continuer à argumenter alors que si j’ai tout reprécisé, c’est pour éviter de se focaliser sur un seul point et expliquer mon propos dans l’ensemble de mes commentaires sous cette brève), je te laisse discuter tout seul.
:cartonrouge:



RuMaRoCO a dit:


La réciproque est vu aussi…




je ne comprends pas, Blancs mal différenciés par des Noirs ? Sûrement, j’ai pris le 1er exemple du reportage, qui s’applique peut-être ici je ne sais pas, et l’exemple suivant donné avec Européen/Asiatique, mais c’est certainement similaire pour chaque combinaison, ils n’ont pas détaillé.




indépendamment, l’algorithme n’est pas (encore ?) équipé pour mettre des menottes. Sur la forme comme sur le fond, ce sont bien les agents qui ont arrêté cette personne.




Je me demande, dans le cas où ce biais du cerveau humain s’applique ici, si les agents sont au courant de ce biais, et auraient pu mettre moins de certitude dans la culpabilité.




toujours Indépendamment, si l’on qualifie cela de faux positif (que je n’aurais pas voulu subir quand même) combien de vrai positif avec ce système. Et en comparaison sans l’outil, c’est plus ou c’est moins mauvais ?




Et combien de faux positifs avec et sans ? Perso je préfère un coupable en liberté qu’un innocent en prison.


https://www.nbcnews.com/news/nbcblk/detroit-police-changing-facial-recognition-policy-pregnant-woman-says-rcna99290




Detroit police changing facial-recognition policy after pregnant woman says she was wrongly charged
(…)
The technology, which was used on images taken from gas station video, produced leads in the case but was followed by “very poor” police work, Chief James White said.



“We want to ensure that nothing like this happens again,” White said Wednesday.



Pourtant NBC ne s’émeut jamais du refus de prêt d’une banque ayant agi sur la base des tuyeaux d’une boite de surveillance publicitaire ou de son avatar anti-fraude !



Comme si l’absence de finalité justifiait que la monnaie échappe à l’intellect. :windu:


Merci pour ce lien.



En fait, le chef de la police dit la même chose que moi : c’était un travail de police très pauvre.



C’est bien qu’il le reconnaisse et qu’il en tire de nouvelles règles où la technologie ne peut être la seule preuve pour accuser quelqu’un. :bravo: