35 organisations internationales demandent le retrait de l’article 7 du projet de loi JO 2024
Le 07 mars 2023 à 06h09
2 min
Droit
Droit
Dans une tribune publié dans le Monde, 35 organisations, dont Amnesty International, Human Rights Watch, AlgorithmWatch et Privacy International, demandent le retrait de l'article 7 du projet de loi JO 2024 qui introduit les mesures de vidéosurveillance algorithmique. « La France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques » s'insurgent-elles.
Elles estiment que ces mesures sont « contraires au droit international relatif aux droits humains » notamment parce que les principes de nécessité et de proportionnalité ne seraient pas satisfaits. Pour ces organisations, le vote de cet article créerait un précédent « inquiétant en matière de surveillance injustifiée et disproportionnée dans l'espace public ».
Les organisations considèrent que ce projet de loi « allonge considérablement et dangereusement la liste des motifs justifiant la surveillance des espaces publics ». Elles pointent aussi le fait que le paragraphe III de l'article 7 du projet de loi interprèterait de façon erronée le RGPD en affirmant que le système de surveillance ne traitera pas de donnée biométrique.
« La France endosserait alors le rôle peu reluisant de “leader” des politiques de surveillance au sein de l’Union européenne » déplorent-elles en conclusion.
Les JO 2024 constitueront « un tournant » pour la surveillance algorithmique de l'espace public
Vidéosurveillance algorithmique : les JO 2024 serviront aussi de « vitrine industrielle »
Le 07 mars 2023 à 06h09
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/03/2023 à 06h13
« La France deviendrait le premier État de l’Union européenne (UE) à légaliser de manière explicite ce type de pratiques » ???
Euh, l’Angleterre le faisait bien avant le Brexit.
Le 07/03/2023 à 08h12
je ne penses pas qu’ils utilisaient des algos à l’époque
Le 07/03/2023 à 08h38
Ca a été la première ville a tester grandeur nature le système comportementale. Bon d’un autre côté, il ne l’ont pas mis en place, tout comme la reconnaissance faciale mobile encore heureux.
Maintenant qu’est ce que l’on appelle système avec algo. ou pas ? La reconnaissance faciale que l’on veuille ou pas, c’est avec algo. et c’est en place depuis des années à l’aéroport d’Heathrow et dans Londres.
Le 07/03/2023 à 08h47
Le chiffre 7 porte malheur à notre gouvernement, l’article 7 est aussi au coeur des débats de la réforme des retraites.
Et 2027 ?
Le 07/03/2023 à 09h11
Bizarre qu’il n’il n’y ait pas la QdN car c’est un peu leur sujet en ce moment.
Le 07/03/2023 à 10h57
Même remarque.
Le 07/03/2023 à 13h20
La QdN vient de publier un communiqué.
Le 07/03/2023 à 13h51
Assurer la sécurité avec des moyens automatisés modernes, c’est de la dictature.
La liberté ne peut s’exercer qu’avec des agents de l’ordre en sous-effectif qui notent ce qu’ils voient sur un petit calepin.
Le 07/03/2023 à 16h42
Qui dit algorithme, dit “sujet à erreur”. L’algorithme peut être biaisé, tel que discuté dans un autre sujet. Les algorithmes d’analyse d’images en mouvement sont encore très largement perfectibles, et peuvent mener à des arrestations arbitraires.
Le problème (comme tu le dis toi-même), c’est que pour ces activités de surveillance vidéo, on investi de moins en moins dans l’humain, qui devrait être seul juge d’une situation nécessitant intervention ou pas.
Donc pour résumer, le problème ce n’est pas de mettre des caméras partout, le problème c’est l’IA. Aucun vendeur de solution basé sur du DL ne peut affirmer sans mentir que son produit est fiable, ne serait-ce qu’à 80 %…
Le 07/03/2023 à 17h03
Alors:
La vraie question c’est de savoir si l’algorithme peut influencer négativement le comportement de l’humain.
En clair, la séquence redoutée est:
J’insiste sur le point 3 car si les humains, qui sont également “sujet à erreur”, avaient fait la même fausse déduction que l’algo alors l’algo ne fait pas empirer les choses d’un point de vue théorique.
En pratique, par contre, l’algo sera beaucoup plus rapide/multitâche que l’humain et va donc générer beaucoup plus de faux-positif en absolu.
Le problème n’est donc pas tant l’efficacité de l’algo (sensibilité/spécificité) que sa capacité de traitement qui va mécaniquement augmenter le nombre absolu de faux-positif.
Le 07/03/2023 à 18h44
Je vois déjà une grosse différence. Une chaine d’humain, tu peux rendre des gens responsables en cas d’erreur (surtout répétées). Tu mets un algo comme maillon de la chaine, c’est bon, tu viens de trouver le coupable idéal sur lequel se dédouanera le reste de la chaine.
Coupable impersonnel, qui ne dira rien, bref le parfait.
C’est pas comme si on voyait pas déjà cette pratique sur d’autres systèmes de décision “assistés” par des algo…..
Le 07/03/2023 à 18h27
Tout dépend de qui entraîne l’algorithme.
Le 07/03/2023 à 18h37
Encore une porte qu’on essaye d’entrouvrir. Et après, par petit pas on va pousser les choses de plus en plus loin. Encore une fois
Le 08/03/2023 à 07h38
La déresponsabilisation se pratique déjà sans avoir un algo dans la chaine: c’était la faute du fax, c’était la faute de la mauvaise communication entre les services/pays, c’était la faute de la victime, c’était la faute a pas de chance, etc…
Comme tu le dis, ca se voit déjà. Donc ca ne change pas grand chose.
Le 09/03/2023 à 09h54
Compare pas le c’est la faute du fax (ou du pc, ou du stylo, etc….) c’est pas du tout du même ordre, c’est pas une “assistance” à la prise de decision.. Quand je dis que ça se voit déjà c’est, dans les systèmes où t’as déjà un algo pour sélectionner.