Le fiasco du système de police prédictive de Chicago

Le fiasco du système de police prédictive de Chicago

Le fiasco du système de police prédictive de Chicago

Expérimenté depuis 2012 avec l’aide de la RAND Corporation et l’Institut de technologie de l’Illinois, le système de police prédictive de Chicago vient d’être abandonné, à mesure qu’il encourageait les discriminations, sans réduire la criminalité, explique Boing Boing.

Intitulé TRAP (Targeted Repeat-Offender Apprehension Program, qui signifie aussi piège, ou traquenard en anglais), le programme favorisait le profiling racial, la présomption de culpabilité, ne surveillait pas correctement qui y avait accès ni pourquoi, au point que des personnes extérieures à la police pouvaient même y accéder.

Commentaires (12)


pendant ce temps à londres


Oui, enfin ce n’est pas le programme qui est de lui-même discriminant, ce sont les critères entrés dans l’algorithme…


Ou bien si c’est du data learning, il a appris avec les mêmes biais que les policiers qui font les contrôles <img data-src=" />


Spielberg avait aussi essayé, mais lui non plus n’a pas réussi <img data-src=" />


Targeted Repeat-Offender Apprehension Program



Le problème est quand on regarde les stat US, c’est que les minorités ont plus de chances de subir un control “aléatoire” que les autres. Du coup le système n’étant qu’un reflet de la société qui l’a conçu il va faire pareil.



Peut être mais ça montre le problème sous-jacent de ces systèmes, sans un paramétrage optimal (et impossible) ils ne peuvent pas bien fonctionner.


C’est exactement ça, il est basé sur les même biais qui nous aveugle, soit grossièrement :




  • Couleur de peau ≈ pauvreté ≈ criminalité



    Du coup couleur de peau ≈ criminalité, mais sans réfléchir au problème de fond, yeah <img data-src=" />








misterB a écrit :



Targeted Repeat-Offender Apprehension Program



Le problème est quand on regarde les stat US, c’est que les minorités ont plus de chances de subir un control “aléatoire” que les autres. Du coup le système n’étant qu’un reflet de la société qui l’a conçu il va faire pareil.







Exactement. Il y avait eu des reportages sympas sur le sujet. Ils démontraient que, grosso modo, si tu separes ta ville en quatre (riches, pauvres, blacks, latinos par ex) alors, d’après les stats classiques, le crime est équitablement réparti. Mais, si tu renforces les forces de police dans un quartier précis, alors tu y competeras davantage de crimes (y en a pas plus qui sont perpétrés, mais juste davantage qui sont relevés). L’IA en question favorisant les rondes dans les quartiers noirs, bah ils se contentaient fièrement de montrer leurs beaux chiffres.



Et dire qu’il leur aura fallut tout ce temps pour réaliser, ou du moins admettre cet énorme biais… :-(



Je ne suis pas certain que le biais sera attribué à la police ni que cela servira de leçon aux forces de police.

Tout est question d’électeurs








misterB a écrit :



Targeted Repeat-Offender Apprehension Program



Le problème est quand on regarde les stat US, c’est que les minorités ont plus de chances de subir un control “aléatoire” que les autres. Du coup le système n’étant qu’un reflet de la société qui l’a conçu il va faire pareil.







Quand tu regardes les stats en France, c’est pareil. Je me souviens d’un reportage ou un flic répondait au “délit de sale gueule” (typiquement les noirs et les arabes) et qui répondait tranquillou: “bah, c’est les statistiques”.

Donc effectivement, si les origines, par ex. rentrent dans les stats, ça ne peut que foirer.<img data-src=" />









article a écrit :



avec l’aide de la RAND Corporation







des résultats pour le moins hasardeux ?



Il y a 110ans naissait l’école de Chicago. Ce n’est certainement pas un hasard si profitant d’une confiance excessive en son histoire la ville a fait un virage à 180° sans toucher au frein à main. C’est un exemple supplémentaire de la dérive actuelle qui consiste à faire confiance aux sciences sociales pour en faire l’exact contraire une fois l’esprit passé et les œillères arrivées.


Fermer