Connexion
Abonnez-vous

Clearview : l’application de reconnaissance faciale policière dopée aux réseaux sociaux

Clearview : l’application de reconnaissance faciale policière dopée aux réseaux sociaux

Le 20 janvier 2020 à 09h23

L'Australien Hoan Ton-That s'était jusque-là fait connaître avec une application pour iPhone permettant de rajouter la coupe de cheveux de Donald Trump sur n'importe quel visage. En 2016, raconte le New York Times, il commença à télécharger des photos de visages sur le web et les réseaux sociaux, et à développer un logiciel de reconnaissance faciale.

Il n'avait pas encore de modèle économique. En 2017, financé par Peter Thiel, fondateur de Palantir et conseiller de Trump qui siège aussi au conseil d'administration de Facebook, et aidé par plusieurs anciens responsables républicains, il décide de l'offrir à l'essai gratuitement pendant 30 jours à des forces de l'ordre, afin de les aider à identifier des suspects.

Aujourd'hui utilisée par plus de 600 forces de police américaine, son logiciel Clearview comporterait près de 3 milliards de visage, contre 411 millions « seulement » dans le fichier du FBI. À l'en croire, le logiciel identifierait les suspects dans 75% des cas, bien qu'il soit impossible en l'état de décompter les faux positifs.

Après que Kashmir Hill, la journaliste du New York Times, a demandé à des officiers de police de tester l'application sur son visage, ces derniers ont reçu des coups de fil de la société Clearview AI leur demandant s'ils avaient parlé avec des journalistes, signe que l'entreprise surveillerait l'utilisation faite de son outil. 

Interrogé à ce sujet, Ton-That lui a répondu que l'application surveillait effectivement les « comportements de recherche potentiellement anormaux ». Clearview fût en mesure de retrouver des photos de Kashmir Hill datant pour certaines d'une dizaine d'années, et qu'elle n'avait jamais vue. Même après avoir recouvert son nez et le bas de son visage, Clearview l'identifia sur sept photos.

Le 20 janvier 2020 à 09h23

Commentaires (35)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Pas étonnant que les forces de police utilisent une application de Tonfa. <img data-src=" />

&nbsp;

Sinon en fait c’est trop tard, en gros? On ne peut plus échapper à un fichier mondial?

votre avatar

Ca va mal finir ces conneries.

votre avatar

3 milliards de visages. Oo



Je suis probablement dedans alors…

votre avatar

C’est bien pire que ça !

Avec “un fichier mondial” tu pourrais espérer savoir ce qu’ils ont sur toi, voire même soyons fou un jour acquérir quelques droits dessus au gré d’une loi RGPD-like.

Là ce qui se passe c’est que des dizaines, bientôt centaines puis milliers de fichiers codés avec le cul et gérés dans la plus totale anarchie vont cohabiter sans qu’on ait la moindre idée de qui a quoi, comment il l’a obtenu, par qui il se l’ai fait piraté, à qui il l’a vendu…

votre avatar

Je me posais la question si c’est 3 milliards de photos ou 3 milliards de personnes.

Faut avoir le temps de faire tourner les algos sur chaque image et les indexer… ça en fait du CO2!

votre avatar

Et bien sur on peut pas demander à être retiré du fichier hein ? ^^’

votre avatar







recoding a écrit :



Sinon en fait c’est trop tard, en gros? On ne peut plus échapper à un fichier mondial?





Suffit de pas avoir de compte sur les réseaux sociaux <img data-src=" />


votre avatar







neo13006 a écrit :



C’est bien pire que ça !

Avec “un fichier mondial” tu pourrais espérer savoir ce qu’ils ont sur toi, voire même soyons fou un jour acquérir quelques droits dessus au gré d’une loi RGPD-like.

Là ce qui se passe c’est que des dizaines, bientôt centaines puis milliers de fichiers codés avec le cul et gérés dans la plus totale anarchie vont cohabiter sans qu’on ait la moindre idée de qui a quoi, comment il l’a obtenu, par qui il se l’ai fait piraté, à qui il l’a vendu…









Mihashi a écrit :



Suffit de pas avoir de compte sur les réseaux sociaux <img data-src=" />





Je pensais surtout au fait que tous les fichiers allaient être partagés/mélangés au gré du commerce, des accords judiciaires plus ou moins encadrés, des “erreurs”etc. Pour finalement regrouper la plupart des données dispo. (mais effectivement non mises à jour ni transparentes)



Pour les réseaux sociaux, ne pas avoir de compte ne signifie pas ne pas y avoir sa photo!


votre avatar







recoding a écrit :



Pour les réseaux sociaux, ne pas avoir de compte ne signifie pas ne pas y avoir sa photo!





Mais le lien avec l’identité est beaucoup plus difficile.


votre avatar

Vie privée pas chère !

Promotions sur la vie privée d’autrui !

Il y en aura pour tout le monde !





<img data-src=" />

votre avatar

Pas si tes “amis” ont fait le boulot d’identification.

votre avatar







secouss a écrit :



Et bien sur on peut pas demander à être retiré du fichier hein ? ^^’





Non, comme écrit dans l’article du NYT, même si tu passe ton compte en privé maintenant c’est foutu.

Une fois tes photos dans leurs bases c’est trop tard, plus aucun recoures.



Et pour les 3 milliards il me semble que c’est le nombre de photos présentes&nbsp;


votre avatar







Mihashi a écrit :



Mais le lien avec l’identité est beaucoup plus difficile.





Pas forcément non, tu serais étonné de la facilité avec laquelle on peut remonter à quelqu’un, en ne démarrant qu’avec une seule info sur lui.

Comme une pelote de laine qu’on déroule.


votre avatar

Si c’était aussi facile…

votre avatar







Mihashi a écrit :



Mais le lien avec l’identité est beaucoup plus difficile.





Si la personne qui diffuse ta photo avec ton nom dans la description c’est mort.


votre avatar



Peter Thiel, fondateur de Palantir et conseiller de Trump qui siège

aussi au conseil d’administration de Facebook, et aidé par plusieurs

anciens responsables républicains



Il a l’air sympathique comme bonhomme dites-donc !



Sinon, c’est sympa d’installer un mouchard chez les flics, avec une période d’essai de 30 jours en plus.

votre avatar







Inny a écrit :



Pas si tes “amis” ont fait le boulot d’identification.





Ca me rappelle un scène de Mr Robot où les crack en informatiques ont un

algo sur leur smartphone qui pirate les smartphones environnants et

scannent leurs photos, si une photo affiche leur visage l’algo floute le

visage.

Du coup ils se laissent prendre en photo, sachant que leur algo va effacer leur visage.


votre avatar

vous regardez le verre a moitié vide, en france et en europe il y a des centaines de personnes rechercher pour des crimes diverse et variée, ce n’est pas possible de les memoriser et lors d’un banal controle les identifier.



ce que je vois de bien c’est la possibilité d’identifer ces personnes facilement grace a un policier et smartphone

par exemple après avoir jeté un oeuil dessus est ce que vous en reconnaitriez un dans la rue ?

&nbsp;

https://eumostwanted.eu/fr



et beh non ! la technique me parait mature maintenant pour le faire, un peu comme l’ADN les droit de l’hommiste etait pourtant contre, pourtant cela permis de resoudre beaucoup d’affaire sordide.

votre avatar

Pour moi il y a évidemment le souci de voir des milliards de visages indexés par une société privée mais aussi et surtout le droit de regard que s’octroie Clearview dans l’histoire !!Ils ont quand même contacté&nbsp; la police pour leur demander si ils parlaient à des journalistes et explique surveiller les “comportements de recherche potentiellement anormaux”. Ils ont donc une remontée des recherches de police. De quel droit ils font ça ?!? De quel droit ils surveillent quelques profils “à risque” ??Qu’est-ce qui les empêche de falsifier / modifier des résultats ?? Les dérives peuvent être monstrueuses, ar exemple le patron de la boîte est recherchée, 1/ il est au courant avant tout le monde 2/ il peut programmer son IA pour remonter un autre nom pour ne pas être identifier.<img data-src=" /><img data-src=" />

votre avatar

Il y a une énorme différence :




  • l’ADN c’est du code ATCG quasi immuable. Une identification est nette et vérifiable / refaisable.

  • ton visage est mouvant, ne porte pas de code écrit et l’identification fonctionne par “plus grande similitude”.&nbsp;

votre avatar







Jossy a écrit :



l’ADN c’est du code ATCG quasi immuable. Une identification est nette et vérifiable / refaisable.



&nbsp;

Oui en théorie, non en pratique. C’est pourquoi on a eu quelques gags dans les pays pionniers du fichage comme l’Angleterre qui ont fiché une part très importante de leur population pour des bagatelles dignes d’avoir marché hors des clous.



Gags qui ont un peu fait redescendre cette preuve jugée alors parfaite (avec l’aveu) de son piédestal.



En résumé:



-Comparer quelques fragments d’ADN (car c’est ce qui est fait) censés être discriminants (avec des probabilités de correspondance de l’ordre de 1 pour quelques centaines de milliers à quelques millions d’individus, typiquement), sur un suspect déjà identifié par une enquête de police classique, permettait de confirmer cette dernière de manière quasi certaine.



-Mettre un prélèvement pour comparaison dans la globalité de bases de plusieurs millions d’individus, sans pré-filtrage d’une enquête sérieuse, transforme par contre l’affaire en générateur d’erreurs judiciaires.



Sans même compter les contaminations de laboratoire (l’ADN du laborantin pas assez soigneux retrouvé dans le prélèvement sur les lieux du crime… et celui du suspect… car ils avaient été séquencés par le même gougnafier!) et erreurs diverses (inversions/miroirs).


votre avatar







sscrit a écrit :



La technique me parait mature maintenant pour le faire&nbsp;





Wahahahaha ! Tiens, rien que pour toi, l’ignare (ou propagandiste, au choix) :&nbsp;Reconnaissance faciale, par Gee (Grise Bouille).



Une donnée à savoir : à Londres, ville depuis longtemps mise sous caméras, le taux d’erreur concernant l’identification des suspects était de… 81%. QUATRE-VINGT-UN POUR CENT D’ERREURS !!!

Si, pour toi (mais qu’y connais-tu, au fait ? T’es-tu renseigné, seulement ?), seulement 19% de réussite – soit moins d’un cas sur cinq – est un signe de fiabilité, j’imagine pas à quel moment elle cesse de l’être à tes yeux.



Juste une question : puisque ça te dérange pas qu’on mette des caméras partout, tu me permettras de venir en installer chez toi, dans toutes les pièces (WC compris, parce qu’il y a pas de raison de ne pas y en mettre), d’accord ? Mais attention : tu les paies toi-même (puisque c’est déjà ce que tu fais en finançant, par les impôts, celles des rues). Deal ?


votre avatar

Seconde différence avec le cas ici : on n’a pas enregistré les codes ADN de tout le monde pour pouvoir faire la comparaison…

votre avatar



en france et en europe il y a des centaines de personnes rechercher pour des crimes diverse et variée





Et quand on les aura retrouvées, on en fait quoi ? On les mets en prison ?

Rappel sur l’état des prisons en France:

* taux d’occupation: 117%

* 30% des incarcérés sont en attente de leur jugement.

* 1 personne sur 1000 est en prison.



Soyons honnête, ce dispositif high-tech a davantage d’intérêt pour l’état s’il est utilisé pour récolter des amendes.

votre avatar

Waaah, ce post largement vindicatif ! Nul !



La source que tu transmets ici, la planche de Grise Bouille pour nous ignares, est particulièrement naze…



Déjà, il ne donne pas en source l’étude d’où il tire les 81% de taux d’erreur concernant l’identification des suspects à Londres. Étonnant.



Tu as un lien vers l’étude ? L’as-tu seulement lue ? J’ai du mal à la trouver.

Je vois ici (geeko.lesoir.be) : “L’étude (…) a mis les caméras de reconnaissance faciale à l’épreuve à travers 10 essais”. DIX ESSAIS !!!

Je ne vois pas ce que l’on peut tirer comme conclusion d’une telle évaluation. A priori, rien (quels sont les “essais” ? Photo de jours ? Ou de nuit ? De profil ? De face ? Visage plus ou moins masqué ?… Quand on évalue un système, on le fait proprement). Du côté de la police londonienne, ça parle d’un taux d’erreur de 0.1%. Il y a bien un truc qui cloche non ?



Puis “taux d’erreur” ici, ça n’a pas vraiment de sens. Il faudrait parler par exemple de précision et de rappel (vrai positif, faux positif, faux négatif…). Donc là, si dans les 10 essais, le suspect est à chaque fois remonté par le système suivi d’un ensemble de personne qui n’a rien à faire ici, alors le bazar a tout de même bien trouver le suspect dans 100% des cas. Hyper efficace comme système finalement (tu vois bien que la police peut du coup parler de seulement 0.1% de taux d’erreur) !



Toujours dans le dessin de Grise Bouille, je lis : “les personnes asiatiques ou noires sont ainsi identifiées par erreur 100 fois plus souvent que les personnes blanches”.

Sa source, ici(liberation.fr) : “les personnes asiatiques ou noires feraient cent fois plus l’objet d’erreurs d’identification que les personnes blanches”.

C’est moi où ce n’est pas la même chose ? Je trouve le “100 fois plus souvent” assez trompeur.



Non, vraiment, faut éviter de qualifier les gens d’ignares en s’appuyant sur une source aussi médiocre.



Je précise que je ne suis vraiment pas fan du chemin pris par la reco faciale. Mais s’il faut lutter contre, faisons-le avec les bons arguments.



Edit: problème lien

votre avatar

Je crois que tu as mal compris. Ce sont 10 essais portant dans différentes endroits de Londres sur quelques centaines de personnes passant par là chaque jour.



Mais justement l’enquete a été porté par Scotland Yard pour vérifier les dires de la police Londonienne (MET) qui vante sont système depuis des années.



De son côté la police du Met maintient que son outil ne commet qu’une erreur sur mille cas, mais qu’elle utilise une mesure différente pour arriver à cette conclusion….



Ca c’était l’enquete effectué en 2017 et parue en 2018. Bon les journaux ce sont surtout focalisés sur les chiffres mais les chercheurs ont aussi souligné plusieurs imperfections, comme des problèmes techniques, opérationnels et juridiques.



Juste après The Independant faisait état de ce que l’IA utilisée par les forces de police anglaises a rapporté des faux positifs dans 98 % des cas, apostrophant des individus qui n’avaient pas leur profil enregistré dans une base de données criminelle. Par contre là je ne sais pas sur quoi ils se sont basés.

votre avatar







refuznik a écrit :



Je crois que tu as mal compris. Ce sont 10 essais portant dans différentes endroits de Londres sur quelques centaines de personnes passant par là chaque jour.



Mais justement l’enquete a été porté par Scotland Yard pour vérifier les dires de la police Londonienne (MET) qui vante sont système depuis des années.



De son côté la police du Met maintient que son outil ne commet qu’une erreur sur mille cas, mais qu’elle utilise une mesure différente pour arriver à cette conclusion….



Ca c’était l’enquete effectué en 2017 et parue en 2018. Bon les journaux ce sont surtout focalisés sur les chiffres mais les chercheurs ont aussi souligné plusieurs imperfections, comme des problèmes techniques, opérationnels et juridiques.



Juste après The Independant faisait état de ce que l’IA utilisée par les forces de police anglaises a rapporté des faux positifs dans 98 % des cas, apostrophant des individus qui n’avaient pas leur profil enregistré dans une base de données criminelle. Par contre là je ne sais pas sur quoi ils se sont basés.





Ils refusent souvent d’utiliser la CCTV en cas de vol a l’arraché ou autre, car oui on va voir sa tête mais on le connais pas, donc on veut pas perdre du temps


votre avatar

Ah ? Oui, j’ai pu tout comprendre de travers effectivement… <img data-src=" />



Toujours sur LeSoir.be, je lis “Sur les 42 correspondances établies par le système, seulement 19% étaient correctes”.

Donc alors, sur 10 essais comportant plusieurs centaines de passants pour chacun, le système a remonté au global 42 profils de suspect parmi lesquels seulement 8 étaient réellement des suspects ? J’ai bon ?

Si c’est le cas, comment on déduit 81% de taux d’erreur ?



Elle est publiée cette étude ? Je n’arrive vraiment pas à mettre la main dessus… Je dois m’y prendre comme un manche.

votre avatar

Bah 100-19=81…



Sur les 42 identifications, 8 (19%) étaient correctes, 34 (81%) étaient incorrectes.

votre avatar

Oui oui. Non mais je dois être trop fatigué, ou trop c*n. Certainement les deux.

Je crois ne pas bien comprendre ce qui est entendu par “taux d’erreur”.



J’ai l’impression que ça signifie que le système est à ch*er à 81%, ce que je trouve très étonnant.

Mais je dois être à côté de mes pompes.

votre avatar

tu vois tu t’emporte, je ne suis pas contre et plutot pour que le plicier te prennent en photo avec un smartphone pour voir si tu es rechercher



il n’y a pas le mots camera dans ma phrase, et ton exemple est foireux puisqu’il s’agit de reconnaissance a la volée avec des camera fixe, rien avoir avec ce que je propose.

Mais je ne t’en veux pas hein !

votre avatar

la difference est d’accepter ou pas&nbsp; l’evolution technique de l’identification. Lorsque les empreinte digital on commencé a poindre le bout de son nez, forcement tous le monde etait contre. Les vaccins, les locomotive etc …



c’est fou quand même ! cette resistance au changement

votre avatar







sscrit a écrit :



c’est fou quand même ! cette resistance au changement





Tout ce qui change n’est pas forcément bon hein.

Une maladie c’est un changement, un coup d’état aussi <img data-src=" />


votre avatar







sscrit a écrit :



la difference est d’accepter ou pas l’evolution technique de l’identification. Lorsque les empreinte digital on commencé a poindre le bout de son nez, forcement tous le monde etait contre. Les vaccins, les locomotive etc …



c’est fou quand même ! cette resistance au changement







Si t’aime bien ce genre de changement, t’as qu’à aller vivre en Chine…


votre avatar

Je piraterais bien cette appli pour replacer mon visage par celui du Rieur :)

Clearview : l’application de reconnaissance faciale policière dopée aux réseaux sociaux

Fermer