L'Australien Hoan Ton-That s'était jusque-là fait connaître avec une application pour iPhone permettant de rajouter la coupe de cheveux de Donald Trump sur n'importe quel visage. En 2016, raconte le New York Times, il commença à télécharger des photos de visages sur le web et les réseaux sociaux, et à développer un logiciel de reconnaissance faciale.
Il n'avait pas encore de modèle économique. En 2017, financé par Peter Thiel, fondateur de Palantir et conseiller de Trump qui siège aussi au conseil d'administration de Facebook, et aidé par plusieurs anciens responsables républicains, il décide de l'offrir à l'essai gratuitement pendant 30 jours à des forces de l'ordre, afin de les aider à identifier des suspects.
Aujourd'hui utilisée par plus de 600 forces de police américaine, son logiciel Clearview comporterait près de 3 milliards de visage, contre 411 millions « seulement » dans le fichier du FBI. À l'en croire, le logiciel identifierait les suspects dans 75% des cas, bien qu'il soit impossible en l'état de décompter les faux positifs.
Après que Kashmir Hill, la journaliste du New York Times, a demandé à des officiers de police de tester l'application sur son visage, ces derniers ont reçu des coups de fil de la société Clearview AI leur demandant s'ils avaient parlé avec des journalistes, signe que l'entreprise surveillerait l'utilisation faite de son outil.
Interrogé à ce sujet, Ton-That lui a répondu que l'application surveillait effectivement les « comportements de recherche potentiellement anormaux ». Clearview fût en mesure de retrouver des photos de Kashmir Hill datant pour certaines d'une dizaine d'années, et qu'elle n'avait jamais vue. Même après avoir recouvert son nez et le bas de son visage, Clearview l'identifia sur sept photos.
Commentaires (35)
#1
Pas étonnant que les forces de police utilisent une application de Tonfa. " />
Sinon en fait c’est trop tard, en gros? On ne peut plus échapper à un fichier mondial?
#2
Ca va mal finir ces conneries.
#3
3 milliards de visages. Oo
Je suis probablement dedans alors…
#4
C’est bien pire que ça !
Avec “un fichier mondial” tu pourrais espérer savoir ce qu’ils ont sur toi, voire même soyons fou un jour acquérir quelques droits dessus au gré d’une loi RGPD-like.
Là ce qui se passe c’est que des dizaines, bientôt centaines puis milliers de fichiers codés avec le cul et gérés dans la plus totale anarchie vont cohabiter sans qu’on ait la moindre idée de qui a quoi, comment il l’a obtenu, par qui il se l’ai fait piraté, à qui il l’a vendu…
#5
Je me posais la question si c’est 3 milliards de photos ou 3 milliards de personnes.
Faut avoir le temps de faire tourner les algos sur chaque image et les indexer… ça en fait du CO2!
#6
Et bien sur on peut pas demander à être retiré du fichier hein ? ^^’
#7
#8
#9
#10
Vie privée pas chère !
Promotions sur la vie privée d’autrui !
Il y en aura pour tout le monde !
" />
#11
Pas si tes “amis” ont fait le boulot d’identification.
#12
#13
#14
Si c’était aussi facile…
#15
#16
Peter Thiel, fondateur de Palantir et conseiller de Trump qui siège
aussi au conseil d’administration de Facebook, et aidé par plusieurs
anciens responsables républicains
Il a l’air sympathique comme bonhomme dites-donc !
Sinon, c’est sympa d’installer un mouchard chez les flics, avec une période d’essai de 30 jours en plus.
#17
#18
vous regardez le verre a moitié vide, en france et en europe il y a des centaines de personnes rechercher pour des crimes diverse et variée, ce n’est pas possible de les memoriser et lors d’un banal controle les identifier.
ce que je vois de bien c’est la possibilité d’identifer ces personnes facilement grace a un policier et smartphone
par exemple après avoir jeté un oeuil dessus est ce que vous en reconnaitriez un dans la rue ?
https://eumostwanted.eu/fr
et beh non ! la technique me parait mature maintenant pour le faire, un peu comme l’ADN les droit de l’hommiste etait pourtant contre, pourtant cela permis de resoudre beaucoup d’affaire sordide.
#19
Pour moi il y a évidemment le souci de voir des milliards de visages indexés par une société privée mais aussi et surtout le droit de regard que s’octroie Clearview dans l’histoire !!Ils ont quand même contacté la police pour leur demander si ils parlaient à des journalistes et explique surveiller les “comportements de recherche potentiellement anormaux”. Ils ont donc une remontée des recherches de police. De quel droit ils font ça ?!? De quel droit ils surveillent quelques profils “à risque” ??Qu’est-ce qui les empêche de falsifier / modifier des résultats ?? Les dérives peuvent être monstrueuses, ar exemple le patron de la boîte est recherchée, 1/ il est au courant avant tout le monde 2/ il peut programmer son IA pour remonter un autre nom pour ne pas être identifier." />" />
#20
Il y a une énorme différence :
#21
#22
#23
Seconde différence avec le cas ici : on n’a pas enregistré les codes ADN de tout le monde pour pouvoir faire la comparaison…
#24
en france et en europe il y a des centaines de personnes rechercher pour des crimes diverse et variée
Et quand on les aura retrouvées, on en fait quoi ? On les mets en prison ?
Rappel sur l’état des prisons en France:
* taux d’occupation: 117%
* 30% des incarcérés sont en attente de leur jugement.
* 1 personne sur 1000 est en prison.
Soyons honnête, ce dispositif high-tech a davantage d’intérêt pour l’état s’il est utilisé pour récolter des amendes.
#25
Waaah, ce post largement vindicatif ! Nul !
La source que tu transmets ici, la planche de Grise Bouille pour nous ignares, est particulièrement naze…
Déjà, il ne donne pas en source l’étude d’où il tire les 81% de taux d’erreur concernant l’identification des suspects à Londres. Étonnant.
Tu as un lien vers l’étude ? L’as-tu seulement lue ? J’ai du mal à la trouver.
Je vois ici (geeko.lesoir.be) : “L’étude (…) a mis les caméras de reconnaissance faciale à l’épreuve à travers 10 essais”. DIX ESSAIS !!!
Je ne vois pas ce que l’on peut tirer comme conclusion d’une telle évaluation. A priori, rien (quels sont les “essais” ? Photo de jours ? Ou de nuit ? De profil ? De face ? Visage plus ou moins masqué ?… Quand on évalue un système, on le fait proprement). Du côté de la police londonienne, ça parle d’un taux d’erreur de 0.1%. Il y a bien un truc qui cloche non ?
Puis “taux d’erreur” ici, ça n’a pas vraiment de sens. Il faudrait parler par exemple de précision et de rappel (vrai positif, faux positif, faux négatif…). Donc là, si dans les 10 essais, le suspect est à chaque fois remonté par le système suivi d’un ensemble de personne qui n’a rien à faire ici, alors le bazar a tout de même bien trouver le suspect dans 100% des cas. Hyper efficace comme système finalement (tu vois bien que la police peut du coup parler de seulement 0.1% de taux d’erreur) !
Toujours dans le dessin de Grise Bouille, je lis : “les personnes asiatiques ou noires sont ainsi identifiées par erreur 100 fois plus souvent que les personnes blanches”.
Sa source, ici(liberation.fr) : “les personnes asiatiques ou noires feraient cent fois plus l’objet d’erreurs d’identification que les personnes blanches”.
C’est moi où ce n’est pas la même chose ? Je trouve le “100 fois plus souvent” assez trompeur.
Non, vraiment, faut éviter de qualifier les gens d’ignares en s’appuyant sur une source aussi médiocre.
Je précise que je ne suis vraiment pas fan du chemin pris par la reco faciale. Mais s’il faut lutter contre, faisons-le avec les bons arguments.
Edit: problème lien
#26
Je crois que tu as mal compris. Ce sont 10 essais portant dans différentes endroits de Londres sur quelques centaines de personnes passant par là chaque jour.
Mais justement l’enquete a été porté par Scotland Yard pour vérifier les dires de la police Londonienne (MET) qui vante sont système depuis des années.
De son côté la police du Met maintient que son outil ne commet qu’une erreur sur mille cas, mais qu’elle utilise une mesure différente pour arriver à cette conclusion….
Ca c’était l’enquete effectué en 2017 et parue en 2018. Bon les journaux ce sont surtout focalisés sur les chiffres mais les chercheurs ont aussi souligné plusieurs imperfections, comme des problèmes techniques, opérationnels et juridiques.
Juste après The Independant faisait état de ce que l’IA utilisée par les forces de police anglaises a rapporté des faux positifs dans 98 % des cas, apostrophant des individus qui n’avaient pas leur profil enregistré dans une base de données criminelle. Par contre là je ne sais pas sur quoi ils se sont basés.
#27
#28
Ah ? Oui, j’ai pu tout comprendre de travers effectivement… " />
Toujours sur LeSoir.be, je lis “Sur les 42 correspondances établies par le système, seulement 19% étaient correctes”.
Donc alors, sur 10 essais comportant plusieurs centaines de passants pour chacun, le système a remonté au global 42 profils de suspect parmi lesquels seulement 8 étaient réellement des suspects ? J’ai bon ?
Si c’est le cas, comment on déduit 81% de taux d’erreur ?
Elle est publiée cette étude ? Je n’arrive vraiment pas à mettre la main dessus… Je dois m’y prendre comme un manche.
#29
Bah 100-19=81…
Sur les 42 identifications, 8 (19%) étaient correctes, 34 (81%) étaient incorrectes.
#30
Oui oui. Non mais je dois être trop fatigué, ou trop c*n. Certainement les deux.
Je crois ne pas bien comprendre ce qui est entendu par “taux d’erreur”.
J’ai l’impression que ça signifie que le système est à ch*er à 81%, ce que je trouve très étonnant.
Mais je dois être à côté de mes pompes.
#31
tu vois tu t’emporte, je ne suis pas contre et plutot pour que le plicier te prennent en photo avec un smartphone pour voir si tu es rechercher
il n’y a pas le mots camera dans ma phrase, et ton exemple est foireux puisqu’il s’agit de reconnaissance a la volée avec des camera fixe, rien avoir avec ce que je propose.
Mais je ne t’en veux pas hein !
#32
la difference est d’accepter ou pas l’evolution technique de l’identification. Lorsque les empreinte digital on commencé a poindre le bout de son nez, forcement tous le monde etait contre. Les vaccins, les locomotive etc …
c’est fou quand même ! cette resistance au changement
#33
#34
#35
Je piraterais bien cette appli pour replacer mon visage par celui du Rieur :)