Connexion
Abonnez-vous

Le fiasco du système de police prédictive de Chicago

Le fiasco du système de police prédictive de Chicago

Le 27 janvier 2020 à 09h18

Expérimenté depuis 2012 avec l’aide de la RAND Corporation et l’Institut de technologie de l’Illinois, le système de police prédictive de Chicago vient d’être abandonné, à mesure qu’il encourageait les discriminations, sans réduire la criminalité, explique Boing Boing.

Intitulé TRAP (Targeted Repeat-Offender Apprehension Program, qui signifie aussi piège, ou traquenard en anglais), le programme favorisait le profiling racial, la présomption de culpabilité, ne surveillait pas correctement qui y avait accès ni pourquoi, au point que des personnes extérieures à la police pouvaient même y accéder.

Le 27 janvier 2020 à 09h18

Commentaires (12)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

pendant ce temps à londres

votre avatar

Oui, enfin ce n’est pas le programme qui est de lui-même discriminant, ce sont les critères entrés dans l’algorithme…

votre avatar

Ou bien si c’est du data learning, il a appris avec les mêmes biais que les policiers qui font les contrôles <img data-src=" />

votre avatar

Spielberg avait aussi essayé, mais lui non plus n’a pas réussi <img data-src=" />

votre avatar

Targeted Repeat-Offender Apprehension Program



Le problème est quand on regarde les stat US, c’est que les minorités ont plus de chances de subir un control “aléatoire” que les autres. Du coup le système n’étant qu’un reflet de la société qui l’a conçu il va faire pareil.


votre avatar

Peut être mais ça montre le problème sous-jacent de ces systèmes, sans un paramétrage optimal (et impossible) ils ne peuvent pas bien fonctionner.

votre avatar

C’est exactement ça, il est basé sur les même biais qui nous aveugle, soit grossièrement :




  • Couleur de peau ≈ pauvreté ≈ criminalité



    Du coup couleur de peau ≈ criminalité, mais sans réfléchir au problème de fond, yeah <img data-src=" />

votre avatar







misterB a écrit :



Targeted Repeat-Offender Apprehension Program



Le problème est quand on regarde les stat US, c’est que les minorités ont plus de chances de subir un control “aléatoire” que les autres. Du coup le système n’étant qu’un reflet de la société qui l’a conçu il va faire pareil.







Exactement. Il y avait eu des reportages sympas sur le sujet. Ils démontraient que, grosso modo, si tu separes ta ville en quatre (riches, pauvres, blacks, latinos par ex) alors, d’après les stats classiques, le crime est équitablement réparti. Mais, si tu renforces les forces de police dans un quartier précis, alors tu y competeras davantage de crimes (y en a pas plus qui sont perpétrés, mais juste davantage qui sont relevés). L’IA en question favorisant les rondes dans les quartiers noirs, bah ils se contentaient fièrement de montrer leurs beaux chiffres.



Et dire qu’il leur aura fallut tout ce temps pour réaliser, ou du moins admettre cet énorme biais… :-(


votre avatar

Je ne suis pas certain que le biais sera attribué à la police ni que cela servira de leçon aux forces de police.

Tout est question d’électeurs

votre avatar







misterB a écrit :



Targeted Repeat-Offender Apprehension Program



Le problème est quand on regarde les stat US, c’est que les minorités ont plus de chances de subir un control “aléatoire” que les autres. Du coup le système n’étant qu’un reflet de la société qui l’a conçu il va faire pareil.







Quand tu regardes les stats en France, c’est pareil. Je me souviens d’un reportage ou un flic répondait au “délit de sale gueule” (typiquement les noirs et les arabes) et qui répondait tranquillou: “bah, c’est les statistiques”.

Donc effectivement, si les origines, par ex. rentrent dans les stats, ça ne peut que foirer.<img data-src=" />


votre avatar







article a écrit :



avec l’aide de la RAND Corporation







des résultats pour le moins hasardeux ?


votre avatar

Il y a 110ans naissait l’école de Chicago. Ce n’est certainement pas un hasard si profitant d’une confiance excessive en son histoire la ville a fait un virage à 180° sans toucher au frein à main. C’est un exemple supplémentaire de la dérive actuelle qui consiste à faire confiance aux sciences sociales pour en faire l’exact contraire une fois l’esprit passé et les œillères arrivées.

Le fiasco du système de police prédictive de Chicago

Fermer