Un système de reconnaissance faciale de fugitifs jugé anticonstitutionnel par un tribunal argentin

Un système de reconnaissance faciale de fugitifs jugé anticonstitutionnel par un tribunal argentin

Un système de reconnaissance faciale de fugitifs jugé anticonstitutionnel par un tribunal argentin

Un juge a déclaré que le système de reconnaissance biométrique faciale des fugitifs (SRFP) de Buenos Aires était anticonstitutionnel, rapporte le Future of Privacy Forum, « interdisant son fonctionnement jusqu'à ce que les mécanismes de contrôle et de surveillance requis par la loi soient mis en place », et ce d'autant qu' « aucune analyse d'impact n'avait jamais été réalisée par les propriétaires du système ».

Le SRFP avait été déployé en 2019 sur certaines caméras de vidéosurveillance afin de comparer les visages des passants avec ceux réunis dans une base de données de fugitifs du système judiciaire argentin. 

Or, il avait rapidement rencontré de « graves failles » entraînant une série de « détentions illégales » d'une durée d'une à trois heures résultant de « faux positifs » identifiés à tort comme fugitifs.

Ces failles résultaient d'erreurs quant à l'identité du fugitif recherché, d'avis de recherche périmés, de mises à jour non prises en compte par le logiciel ou la base de données des fugitifs recherchés.

De plus, les autorités avaient effectué 9 392 372 demandes d'accès aux données biométriques, alors que la base de données ne dénombrait que 35 000 fugitifs, et qu' « au moins 356 enregistrements de recherche d'individus dont les données biométriques ont été incorporées dans le SFRP ont été effacés manuellement, ce qui rend impossible d'évaluer si ces recherches étaient légalement justifiées » : 

« Le tribunal a jugé déraisonnable que dix-sept utilisateurs "administrateurs" non identifiables aient un accès illimité aux informations sensibles de millions d'individus, tout en étant également libres de manipuler et/ou d'effacer des données sans aucun mécanisme de transparence ou de responsabilité significatif en place. »

Le tribunal a dès lors et en outre estimé que le SRFP était « contraire au principe de la présomption d'innocence », que le risque était « permanent et généralisé » et que la « simple possibilité » de conséquences néfastes, en plus de l'absence de mécanismes de contrôle et de surveillance adéquats, démontrait que le SFRP présentait un « risque sérieux » d'atteinte à la vie privée des citoyens.

Commentaires (3)


Une excellente décision !


Non mais allo quoi !



Pas de tracabilité, droits excessifs, disproportion des demandes d’accès…
La bande de copain qui a mis en place ce système devrait être inquiétée.



swiper a dit:


Non mais allo quoi !



Pas de tracabilité, droits excessifs, disproportion des demandes d’accès… La bande de copain qui a mis en place ce système devrait être inquiétée.




Euh…. en quoi est-ce différent de chez nous ?
vraiment, je veux dire ? Quand Ciotti mets un système de caméra dans sa ville, tu sais qui les regarde ? Qui a accès aux enregistrements ? Comment ils sont sauvegardé, par quel administrateur système , sur quel cloud , combien de temps ? En quoi les vidéos peuvent pas être moulinée “offline” dans un second temps pour entrainer des “IA” ?
Et même si c’est le cas par extraordinaire à T=0 , comment tu peux être sur que ça restera comme ça dans le futur ? On a exactement le même problème avec les images des radars automatiques récents (ceux qui filment tout, pas seulement sur infraction. Vous verrez qu’un jour on s’apercevra qu’en fait les flics gardent tout, peut-être même sans en être conscient et sans les exploiter actuellement…. jusqu’à THE affaire qui justifiera cette exploitation et mettra un coup de cliquet supplémentaire).



Dans un système informatique il y a aucune garantie sauf la bonne promesse des instigateurs du projet. Et même peux sont pas forcément au courant des détails techniques & pratiques.



La seule façon de ne pas violer la vie privée c’est de ne pas enregistrer les images au départ. Mais c’est la quadrature du cercle, vu que la volonté est que ces images servent de preuve ensuite.


Fermer