27 pays ont testé l'application de reconnaissance faciale de Clearview

27 pays ont testé l’application de reconnaissance faciale de Clearview

27 pays ont testé l'application de reconnaissance faciale de Clearview

Accusée d'avoir siphonné plus de 3 milliards de photos extraites de Facebook, Instagram, YouTube et d'autres sites Web, et d'être utilisée par plus de 600 forces de l'ordre aux États-Unis, l'application de reconnaissance biométrique faciale Clearview AI a aussi été testée par plus de 2200 services répressifs, agences gouvernementales et entreprises privées dans 27 pays, selon des logs obtenus par BuzzFeed.

Mercredi, le Daily Beast avait révélé que la liste des clients de Clearview avait été volée. Son avocat lui avait répondu que « malheureusement, les fuites de données font partie de la vie au 21e siècle. Nous avons corrigé la faille, et continuons à renforcer la sécurité de nos serveurs ». 

Le PDG de Clearview, Hoan Ton-That, avait initialement déclaré se concentrer sur les États-Unis et le Canada, et que son logiciel n'était utilisé que « strictement pour l'application de la loi ». Les logs que BuzzFeed a pu authentifier révèlent qu'il a aussi été utilisé et testé par de potentiels clients dans des secteurs tels que l'enseignement, le droit, la vente au détail, les services bancaires et les jeux, et a pénétré les marchés internationaux en Europe, en Amérique du Sud, en Asie-Pacifique et au Moyen-Orient.

BuzzFeed a ainsi découvert que plus de 50 écoles et universités américaines figuraient au nombre des détenteurs de comptes ouverts chez Clearview, y compris plusieurs s'étant prononcées contre le recours à la reconnaissance biométrique faciale. 

Plus de 200 entreprises privées disposent elles aussi de comptes chez Clearview, dont des grands magasins comme Kohl's, Best Buy et Walmart, des banques comme Wells Fargo et Bank of America et 44 autres institutions financières, des opérateurs de téléphonie mobile comme AT&T, Verizon et T-Mobile, des sociétés privées dans des secteurs tels que le divertissement (Madison Square Garden et Eventbrite), les jeux (Las Vegas Sands et Pechanga Resort Casino), les sports (la NBA), le fitness (Equinox), et même les crypto-monnaies (Coinbase).

Au total, Clearview AI aurait proposé ses services à au moins 26 pays en sus des États-Unis, se rapprochant d'agences nationales d'application de la loi, d'organismes gouvernementaux et de forces de police en Australie, Belgique, Brésil, Canada, Danemark, Finlande, France, Irlande, Inde, Italie, Lettonie, Lituanie, Malte, Pays-Bas, Norvège, Portugal, Serbie, Slovénie, Espagne, Suède, Suisse et Royaume-Uni.

PBS a demandé si Clearview vendait dans des pays où l'homosexualité est un crime, mais l'entreprise n'a pas répondu. Elle aurait ainsi déjà fourni son logiciel à des organisations dans des pays criminalisant les personnes LGBTQ, comme l'Arabie Saoudite et les Émirats Arabes Unis.

Commentaires (8)


PBS ? Public Broadcasting Service <img data-src=" />


Utiliser un logiciel illégal “« strictement pour l’application de la loi »”, c’est osé.


Illégal dans quel pays et pourquoi ?


Franchement je comprend pas qu’on tombe des nues.



Bien sûr il y a un problème éthique à proposer ce genre de services. Mais les données sont publiques. Faciles à récupérer. Quasi de manière légale. Faut juste savoir programmer de manière basique, utiliser une lib de reconnaissance faciale opensource, faire une boucle et mettre ça dans une base de données. C’est accessible à n’importe qui qui sait programmer, a une bonne machine et beaucoup de disques durs (et encore c’est pas dit qu’il en faille tant).



Ce qui est étonnant que ça n’arrive que maintenant. Et que ça n’aie pas déjà été fait en opensource.


Sauf que tu oublies l’importance des algorithmes ! Sachant que le risque de faux positifs est très élevé, surtout avec certains groupes ethniques, alors rien que pour cette raison on ne peut décemment par accepter la généralisation de telles solutions pour lesquelles on accordera automatiquement trop de poids décisionnel.


Je n’accepte pas la généralisation de ces outils. Je dit juste que c’était extrêmement prévisible.



Le type en question a assez peu d’éthique pour ne faire son business. Mais nul doute que les états et grands groupes non clients ont juste déjà développé le truc en interne. La fiabilité ils s’en foutent, ils ne s’en servent probablement pas pour trouver “la personne” du premier coup, mais juste un sous-ensemble dans lequel il est plus facile de faire des recherches que simplement “l’ensemble des humains de la terre”.*



* dans les pays avec un système judiciaire à peu près potable, pour les autres, ce n’est qu’un outil de plus pour taper aléatoirement dans le tas.


Illégal en Europe a tout le moins comme un traitement de données personnelles sans base légale valable, sans respect du principe de minimisation, du principe de loyauté des traitements, sans information des personnes concernées, et vraissemblablement par detournement de finalité.



J’espère qu ‘une autorité de protection de la vie privée s’est saisie de l’affaire.



Cette boite fait un business sur des bases illégales et doit être sanctionnée.




Elle aurait ainsi déjà fourni son logiciel à des organisations dans des pays criminalisant les personnes LGBTQ, comme l’Arabie Saoudite et les Émirats Arabes Unis.





Combien coûte une vie humaine ? Le prix d’une licence logicielle vendue ?

La place de ces gens est en prison.


Fermer