35 organisations internationales demandent le retrait de l'article 7 du projet de loi JO 2024

35 organisations internationales demandent le retrait de l’article 7 du projet de loi JO 2024

35 organisations internationales demandent le retrait de l'article 7 du projet de loi JO 2024

Dans une tribune publié dans le Monde, 35 organisations, dont Amnesty International,  Human Rights Watch, AlgorithmWatch et Privacy International, demandent le retrait de l'article 7 du projet de loi JO 2024 qui introduit les mesures de vidéosurveillance algorithmique. « La France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques » s'insurgent-elles.

Elles estiment que ces mesures sont « contraires au droit international relatif aux droits humains » notamment parce que les principes de nécessité et de proportionnalité ne seraient pas satisfaits. Pour ces organisations, le vote de cet article créerait un précédent « inquiétant en matière de surveillance injustifiée et disproportionnée dans l'espace public ».

Les organisations considèrent que ce projet de loi « allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics ». Elles pointent aussi le fait que le paragraphe III de l'article 7 du projet de loi interprèterait de façon erronée le RGPD en affirmant que le système de surveillance ne traitera pas de donnée biométrique.

« La France endosserait alors le rôle peu reluisant de “leader” des politiques de surveillance au sein de l’Union européenne » déplorent-elles en conclusion.

Les JO 2024 constitueront « un tournant » pour la surveillance algorithmique de l'espace public

Vidéosurveillance algorithmique : les JO 2024 serviront aussi de « vitrine industrielle »

Commentaires (15)


« La France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques » ???



Euh, l’Angleterre le faisait bien avant le Brexit.


je ne penses pas qu’ils utilisaient des algos à l’époque


dylem29

je ne penses pas qu’ils utilisaient des algos à l’époque


Ca a été la première ville a tester grandeur nature le système comportementale. Bon d’un autre côté, il ne l’ont pas mis en place, tout comme la reconnaissance faciale mobile encore heureux.



Maintenant qu’est ce que l’on appelle système avec algo. ou pas ? La reconnaissance faciale que l’on veuille ou pas, c’est avec algo. et c’est en place depuis des années à l’aéroport d’Heathrow et dans Londres.


Le chiffre 7 porte malheur à notre gouvernement, l’article 7 est aussi au coeur des débats de la réforme des retraites.
Et 2027 ?


Bizarre qu’il n’il n’y ait pas la QdN car c’est un peu leur sujet en ce moment.



Jarodd a dit:


Bizarre qu’il n’il n’y ait pas la QdN car c’est un peu leur sujet en ce moment.




Même remarque.


La QdN vient de publier un communiqué.


Assurer la sécurité avec des moyens automatisés modernes, c’est de la dictature.



La liberté ne peut s’exercer qu’avec des agents de l’ordre en sous-effectif qui notent ce qu’ils voient sur un petit calepin.




Qu’on se le dise !



:phiphi:


Qui dit algorithme, dit “sujet à erreur”. L’algorithme peut être biaisé, tel que discuté dans un autre sujet. Les algorithmes d’analyse d’images en mouvement sont encore très largement perfectibles, et peuvent mener à des arrestations arbitraires.



Le problème (comme tu le dis toi-même), c’est que pour ces activités de surveillance vidéo, on investi de moins en moins dans l’humain, qui devrait être seul juge d’une situation nécessitant intervention ou pas.



Donc pour résumer, le problème ce n’est pas de mettre des caméras partout, le problème c’est l’IA. Aucun vendeur de solution basé sur du DL ne peut affirmer sans mentir que son produit est fiable, ne serait-ce qu’à 80 %…



(quote:2122959:DantonQ-Robespierre)
Qui dit algorithme, dit “sujet à erreur”. L’algorithme peut être biaisé, tel que discuté dans un autre sujet. Les algorithmes d’analyse d’images en mouvement sont encore très largement perfectibles, et peuvent mener à des arrestations arbitraires abusives.




Alors:




  1. les humains sont également “sujet à erreur”.

  2. les algorithmes ne font pas d’arrestation. Du moins j’ai pas vu l’achat de robots Boston Dynamics dans le projet de loi :transpi: .



La vraie question c’est de savoir si l’algorithme peut influencer négativement le comportement de l’humain.



En clair, la séquence redoutée est:




  1. l’algo génère un faux positif.

  2. les humains suivent la décision de l’algo et font une arrestation abusive.

  3. Sans l’algo, les humains n’auraient pas fait cette arrestation abusive.



J’insiste sur le point 3 car si les humains, qui sont également “sujet à erreur”, avaient fait la même fausse déduction que l’algo alors l’algo ne fait pas empirer les choses d’un point de vue théorique.



En pratique, par contre, l’algo sera beaucoup plus rapide/multitâche que l’humain et va donc générer beaucoup plus de faux-positif en absolu.



Le problème n’est donc pas tant l’efficacité de l’algo (sensibilité/spécificité) que sa capacité de traitement qui va mécaniquement augmenter le nombre absolu de faux-positif.


Je vois déjà une grosse différence. Une chaine d’humain, tu peux rendre des gens responsables en cas d’erreur (surtout répétées). Tu mets un algo comme maillon de la chaine, c’est bon, tu viens de trouver le coupable idéal sur lequel se dédouanera le reste de la chaine.
Coupable impersonnel, qui ne dira rien, bref le parfait.



C’est pas comme si on voyait pas déjà cette pratique sur d’autres systèmes de décision “assistés” par des algo…..


Tout dépend de qui entraîne l’algorithme.


Encore une porte qu’on essaye d’entrouvrir. Et après, par petit pas on va pousser les choses de plus en plus loin. Encore une fois :craint:



ndjpoye a dit:


Je vois déjà une grosse différence. Une chaine d’humain, tu peux rendre des gens responsables en cas d’erreur (surtout répétées). Tu mets un algo comme maillon de la chaine, c’est bon, tu viens de trouver le coupable idéal sur lequel se dédouanera le reste de la chaine. Coupable impersonnel, qui ne dira rien, bref le parfait.




La déresponsabilisation se pratique déjà sans avoir un algo dans la chaine: c’était la faute du fax, c’était la faute de la mauvaise communication entre les services/pays, c’était la faute de la victime, c’était la faute a pas de chance, etc…



Comme tu le dis, ca se voit déjà. Donc ca ne change pas grand chose.


Compare pas le c’est la faute du fax (ou du pc, ou du stylo, etc….) c’est pas du tout du même ordre, c’est pas une “assistance” à la prise de decision.. Quand je dis que ça se voit déjà c’est, dans les systèmes où t’as déjà un algo pour sélectionner.


Fermer