Publié dans Droit

13

Le Tribunal constitutionnel allemand oblige la police à abandonner un système de police prédictive

Le Tribunal constitutionnel allemand oblige la police à abandonner un système de police prédictive

Le Tribunal constitutionnel fédéral d'Allemagne (Bundesverfassungsgericht) se prononce contre l'utilisation du logiciel de Palantir utilisé par la police du land de la Hesse et envisagé par celle de Hambourg, explique Euractiv.

La Société allemande pour les droits civiques (Gesellschaft für Freiheitsrechte, GFF) avait porté plainte contre les possibilités de surveillance accordées par la loi de ces länder.

Depuis 2017, la police du land de la Hesse utilisait un logiciel de Palantir nommé « Hessendata » permettant, en utilisant les données qu'elle récoltait elle-même, de mettre en place un dispositif de police prédictive. Ce n'était pas encore le cas dans le land de Hambourg, mais une loi dans ce sens y avait été votée.

Selon le tribunal, la police de la Hesse a utilisé le logiciel des milliers de fois.

Le système a été jugé inconstitutionnel, car il violait le droit à la vie privée de façon disproportionnée. Le tribunal ouvre néanmoins une porte à des systèmes de ce type qui seraient utilisés pour protéger la vie, l'intégrité physique ou la liberté de la personne.

Le responsable juridique de la GFF, Bijan Moini, a déclaré : « Aujourd'hui, le Tribunal fédéral a interdit à la police de regarder dans une boule de cristal et a formulé des directives strictes pour l'utilisation de logiciels de surveillance dans le travail de la police. C'était important car l'automatisation de la surveillance n'en est qu'à ses débuts. »

13

Tiens, en parlant de ça :

Toute l’équipe de Next vous souhaite une bonne année 2024 !

2⃣0⃣2⃣4⃣🥳🥳

23:55 Next 20

655e édition des LIDD : Liens Intelligents Du Dimanche

Et bonnes fêtes de fin d'année à tous les nextiens !

13:36 Next 10

#Flock termine l’année en beauté

Et se prépare pour 2024

13:36 Next 17

Toute l’équipe de Next vous souhaite une bonne année 2024 !

Next 20

655e édition des LIDD : Liens Intelligents Du Dimanche

Next 10

#Flock termine l’année en beauté

Next 17

[MàJ] Fusion : un exploit confirmé pour le nucléaire militaire américain

Science 65
Un coq chantant un message chiffré

Olvid gouvernemental : « les ministres étrangers utilisent tous WhatsApp ou Telegram »…

SécuSociété 37
espion sur fond de drapeau indien

Des journalistes ciblés par l’utilisation de Pegasus en Inde

SécuSociété 1

#LeBrief : Section 702 prolongée, NASA en 2024, « figures de l’ombre » de l’IA

Espion numérique

Triangulation : Kaspersky victime d’une longue campagne d’espionnage hautement sophistiquée

SoftSécu 32
La page d'accueil de Substack, qui indique "the home for great writers and readers".

Modération : Substack critiquée pour son hébergement d’auteurs nazis

Société 3
une Tesla model S bordeaux en mouvement

Tesla : devant les risques, des sénateurs américains appellent à un nouveau rappel de véhicules

Société 24
Zorin OS

Zorin OS 17 : toujours aussi soignée, la distribution affine ses performances

Soft 29

#LeBrief : arnaques Vinted, ITER by drone, deepfakes pornos, New York Times vs IA générative

Anthropic prévoit 850 millions de dollars de chiffre d’affaires et une nouvelle levée de fonds en 2024

ÉcoIA 3
fenêtre de recherche sur Google au sujet du coronavirus

Les moteurs de recherche accentuent la désinformation

Société 26
Le brief

#LeBrief : sanctions de la CNIL, open data en Europe, publicité dans Prime Video

Processeur CPU

RISC-V : Quintauris part à l’assaut du monde

Hard 11
Logo de l’ANSSI

L’ANSSI dresse le bilan de sécurité d’un secteur des télécoms sous pression

WebSécu 10
Bercy

#BigBrotherBercy : un million d’annonces ciblées, 68 000 euros recouvrés

DroitÉco 9

#LeBrief : brouilleurs d’ondes, IA Apple et médias américains, 10 ans de Gaia

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

13

Commentaires (13)


Lyzz Abonné
Le 17/02/2023 à 09h38

#1

Je trouve que ça manque d’informations sur les données qui étaient récupérées, utilisées pour formuler ces prédictions. Et dans quel cadre celles ci étaient utilisées ? Est-ce qu’il y a eu des arrestations, quels étaient les raisons évoquées, etc ?


akhyleus
Le 17/02/2023 à 09h50

#2

Ils devraient revoir Minority Report histoire de se rappeler que l’erreur est possible dans les prédictions, aussi fiables soient elles.


misocard Abonné
Le 17/02/2023 à 10h25

#2.1

Je ne l’ai pas lu, mais je crois que dans le bouquin ça tourne plus autour de la prophétie auto-réalisatrice



Ce que ce genre d’outils peut avoir.



Les criminels potentiels seraient plus ciblés, ce qui pourrait avoir un impact sur leur vie (plus de contrôles, …), ce qui pourrait les pousser à la marge de la société et enfin les amener à commettre un délit.



Je vais peut être un peu loin, mais c’est un peu l’effet Hans le Malin


Wosgien Abonné
Le 17/02/2023 à 10h09

#3


akhyleus a dit:


Ils devraient revoir Minority Report histoire de se rappeler que l’erreur est possible dans les prédictions, aussi fiables soient elles.




Toujours le même débat: logique systémique vs logique individualiste - le bien du plus grand nombre n’est pas le meilleur pour chacun.


macintosh_plus Abonné
Le 17/02/2023 à 10h23

#3.1

En aucun cas, le bien commun ne passe par la surveillance irraisonnée de tout le monde.



Au état unis, la police a utiliser ce genre de logiciel prédictif qui a eu des mauvaises conséquences bien réelles sur des personnes bien réelles.



Il faut arrêter d’accepter plus de surveillance pour “plus de sécurité”, ça ne marche pas !


Wosgien Abonné
Le 17/02/2023 à 10h30

#4


macintosh_plus a dit:


Au état unis, la police a utiliser ce genre de logiciel prédictif qui a eu des mauvaises conséquences bien réelles sur des personnes bien réelles.




Tout à fait. Tout comme au Danemark pour la gestion du placement d’enfant sil me semble.
Ou en Chine avec le permis citoyen à points…



Le tribunal Allemand n’a pas pris cette décision au hasard: je pense que vu les récents incidents liés à ce genre de techno, ils ont aussi pris en compte le risque que cela fait peser sur les gens et l’insitution.


lorinc
Le 17/02/2023 à 12h04

#5

Il y a certainement aussi un gros effet culturel : le traumatisme allemand sur la dérive d’un système autoritaire est encore bien ancré. N’empêche que j’aimerais bien avoir plus d’info sur les données utilisées et surtout ce qu’ils prédisent.


misocard Abonné
Le 17/02/2023 à 13h38

#6


lorinc a dit:


N’empêche que j’aimerais bien avoir plus d’info sur les données utilisées et surtout ce qu’ils prédisent.




Ça semble effectivement compliqué de trouver des infos. Le mieux c’est l’article wikipedia, mais il n’y a pas de détails.
Je pense que ça peut aider d’essayer de trouver des infos sur le fonctionnement de GOTHAM de la société Palantir (non ce n’est pas une blague)



Ça semble utiliser une “IA” pour traiter les données et suggérer aux policiers les zones à surveiller et autre.
Ça semble également indiquer si une personne est à risque de commettre un crime ou pas
https://www.reuters.com/article/europe-tech-police-idINL8N2R92HQ




Sardjoe’s older brother was placed on another automated list - the Top 400 children at risk of criminal behaviour - before he had ever committed a crime, and then went on to become involved in stealing scooters, he added.
The “top criminal” tag felt “almost like a self-fulfilling prophecy,” Sardjoe said.




En sois, l’IA ne s’est pas trompée, mais la question (qui je suppose n’aura pas de réponse) est de savoir si le crime aurait été commis si l’IA ne l’avait pas “prédit”



Globalement on retrouve tous les biais des IA, elles exaspèrent les données qu’elles reçoivent.



C’est pas forcément pire qu’un humain (toutes proportions gardées). SI on me demande d’analyser des données je vais répondre que les policiers doivent patrouiller les zones où il y a le plus de crimes.
Les policiers vont donc trouver plus de crimes dans ces zones, donc il faudra patrouiller plus, … (je simplifie énormément).


FrancoisA Abonné
Le 18/02/2023 à 07h55

#6.1

Le problème c’est que c’est comme cela que l’on forme des ghettos.



On enferme les habitants de certains quartiers dans une réputation (plus ou moins justifiée).



D’où l’idée des CV anonymes pour promouvoir la diversité dans les processus de recrutement.


Gemini_Power Abonné
Le 18/02/2023 à 09h19

#7


misocard a dit:


C’est pas forcément pire qu’un humain (toutes proportions gardées). SI on me demande d’analyser des données je vais répondre que les policiers doivent patrouiller les zones où il y a le plus de crimes. Les policiers vont donc trouver plus de crimes dans ces zones, donc il faudra patrouiller plus, … (je simplifie énormément).




En soit, est-ce vraiment un mal ?
Je m’explique.



Tu as une patrouille de police à positionner.
Vaut-il mieux la positionner à un endroit où il y a peu de crimes et de fait ils ne trouverons rien ?
Ou dans un ghettos où ils vont trouver des crimes à la pelle ?



Quelle est la meilleure solution pour la ville ?
En terme d’efficacité, c’est mieux de la mettre dans le ghetto…



Après, je suis bien conscient par contre de l’effet pernicieux peut avoir :
Regardez la quantité de crimes. Olala, ca augmente, il faut plus de moyen (et donc on en trouvera encore plus). et en plus, la population aura peur, car trop de crime… (tout en pointant du doigt les endroits où ce crime est “le plus fort”…



Le problème vient donc plus de la perception qu’en a la société (comme dit FrançoisA, le ghetto, même si injustifié) que d’une efficacité brute, je trouve.



Par contre, je ne cautionne vraiment pas l’aspect prédictif qui est évoqué dans l’article


NoRunTime
Le 18/02/2023 à 09h44

#8

Le problème majeur, à mes yeux, sur l’entraînement des IA, reste que cela peut être totalement partial.
Dans ce contexte, ça reviendrait à prédire une action policière pour contrer une action qui dénonce des injustices ou autres : illégitime d’un côté, nécessaire de l’autre. Un cas-exemple extrême, certes, mais aujourd’hui j’arrive malheureusement à me dire que ça devient possible.



Et on sait bien que les palantirs ont été perverti par Sauron, il ne faut pas les utiliser.


Erwan123 Abonné
Le 18/02/2023 à 11h00

#9

Tout comme il avait été interdit pour la police anglaise de mettre en place des “honeypots”… comme par exemple un laptop en évidence sur un siege passager ou une plage arrière de voiture (portes verrouillées) dans des quartiers un peu mal famés notamment…



Bref, le juge avait déclaré que c’était un peu trop “pousser au crime justement”….
:non:


misocard Abonné
Le 19/02/2023 à 16h28

#10


Gemini_Power a dit:


Tu as une patrouille de police à positionner. Vaut-il mieux la positionner à un endroit où il y a peu de crimes et de fait ils ne trouverons rien ? Ou dans un ghettos où ils vont trouver des crimes à la pelle ?




L’idée que je voulais exacerber, c’est que si on met les policiers là où on trouve des crimes, on finira par les mettre tous au même endroit, tout simplement par ce qu’il n’y aura plus de policiers ailleurs (donc plus de crimes … détectés ailleurs).



C’est très simpliste, mais c’est pour illustrer les soucis de l’automatisation de ce genre de taches. La décision au moment T de l’iA est certainement intéressante, mais avec le temps elle va alimenter ses données et tourner en rond.



Et ça c’est sans prendre en compte le coté social du truc. Mettre rop de policiers ça risque de provoquer du ressentiment et donc “provoquer” l’esprit rebelle de certaines personnes qui vont commettre un crime alors que sans les policiers ils ne l’auraient pas commis.



Imagine la vie de quelqu’un qui se ferait contrôler à chaque fois qu’il traine avec ses potes dehors …



C’est un problème qui me dépasse un peu, mais je pense qu’il faut se rendre compte que c’est quand même compliqué et qu’en voulant faire bien (optimiser la “ressource” policière) on risque de faire pire (“provoquer” plus crimes)