Connexion Premium

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

ML récidiviste

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.

Le 18 février à 15h55

Un nouveau système algorithmique prompt aux erreurs a été épinglé aux Pays-Bas. Ce 12 février, le ministère de la Justice néerlandais a publié un rapport relatif au système utilisé par les services de probation Reclassering Nederland pour évaluer le risque de récidive chez les détenus déjà condamnés comme chez les personnes en détention provisoire.

L’audit fait partie intégrante d’un travail plus large sur les systèmes algorithmiques utilisés à travers l’administration, lui-même initié à la suite de deux scandales relatifs à des outils biaisés.

Pendant près d’une dizaine d’années, l’administration fiscale néerlandaise a en effet recouru à un système qui a demandé des sommes faramineuses et indues à des familles généralement ciblées pour leurs origines étrangères. De même, des systèmes de détection de fraude aux prêts étudiants accusaient beaucoup plus fréquemment les étudiants issus de minorités ethniques, donc à leur faire subir plus fréquemment des contrôles.

Consommation de drogues et problématiques psychologiques non pris en compte

Dans le cas présent, le système algorithmique incriminé a été utilisé pour traiter de l’ordre de 44 000 cas par an, et aider à évaluer si ces personnes risquaient plus ou moins de récidiver.

Un tel cas d’usage rappelle les premiers grands travaux sur les travers que ce type d’outils créent sur le terrain en termes d’égalité devant la loi. En 2016, le journal ProPublica publiait ainsi une enquête au long cours démontrant qu’aux États-Unis le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) qualifiait beaucoup plus fréquemment les suspects noirs de risque de récidives que les suspects blancs, à tort.

Dans le cas néerlandais, le système, nommé OxRec, fournit de mauvais résultats dans 20 % des cas et ne correspond pas aux standards gouvernementaux d’utilisation. Depuis 2018, les formules normalement utilisées pour évaluer les personnes déjà condamnées et suspectes ont été inversées, la consommation de drogues n’est pas correctement prise en compte, et les problématiques psychologiques graves ne sont pas prises en considération, relève l’enquête administrative. Le système a par ailleurs été entraîné sur d’anciennes données issues de prisons suédoises, et non sur la population des prisons néerlandaises.

Pause avant remise en service

Suite à ce rapport, Reclassering Nederlands a stoppé l’utilisation d’OxRec. Le ministère de la Justice néerlandais a en revanche expliqué « chercher à le remettre en service dès que toutes les améliorations auront été déployées, car une utilisation responsable de cet algorithme contribue à l’efficacité et à la cohérence des conseils en termes de probation », souligne sur LinkedIn Alexander Laufer, chercheur auprès d’Amnesty International.

Pour les enquêteurs du ministère de la Justice, le plus gros risque que posent les dysfonctionnements du système est en effet que des probabilités de récidive aient été sous-évaluées.

En 2020, des scientifiques avaient quant à eux émis une alerte sur l’usage des codes postaux dans OxRec, expliquant que cela pouvait mener de manière indirecte à des logiques de profilage ethnique. D’après la directrice du service de probation Jessica Westerik, ces alertes avaient été prises « très au sérieux », mais les services avaient conclu qu’il existait suffisamment de preuves scientifiques pour considérer que l’adresse et les revenus étaient des paramètres.

Alexander Laufer, lui, rappelle que la prédiction de la récidive est « une des applications les plus controversées » du machine learning, et que le consensus scientifique estime désormais « (1) que ça ne fonctionne pas et (2) que ç’a des conséquences discriminatoires sévères et imprévisibles », y compris en termes d’accès à un procès équitable.

Commentaires (6)

votre avatar
Pourquoi donc ne pourrait-on pas utiliser du Machine Learning sur de l'humain ?
votre avatar
Je propose qu"on l'entraine avec des données basées sur les casseroles des politiques.
Quand ils en auront marre d'être surveillés comme des délinquants récidivistes (le sont-ils ? La machine nous le dira :fumer: ), ils arrêteront les ""expérimentations"" définitivement temporaires.
votre avatar
Grilled.
Je pensais au cas Bismuth, pile dans la cible.
votre avatar
Quoi ? Un bug dans les precogs ?
votre avatar
Après, il faut être pragmatique, les dernières données statistiques sur les récidives font état que les récidivistes avaient déjà été condamnés par le passé dans presque 100% des cas !!!
votre avatar
Selon moi, le problème est encore et toujours lié à une mauvaise utilisation d'un outil, lié à une méconnaissance totale de ce que l'on peut lui demander et vraisemblablement aussi une méconnaissance de l’contrairement d'un tel outil pour en éviter les biais.

Interdire l'usage du mot intelligence pour le remplacer par intuition serait, je pense, un bon début pour mettre fin au mensonge marketing.

Les mots ont un sens et le mésusage des mots à des conséquences sur les personnes qui écoutent les message de promo en en déduisant des choses fausses. C'est un mensonge indirect car le message originel ne prétend pas que l'outil est capable de réflexion mais c'est ce qu'entendent la plus part des gens.

Les assureurs utilisent depuis des lustres des outils statistiques pour évaluer les risques de leurs contrats. Ils se dotent par contre très vraisemblablement des compétences nécessaires pour alimenter leurs outils avec des données propres et des compétences nécessaires pour analyser les résultats.

Une fois encore, un désastre est lié à la folie de croire que l'IA permet de faire le travail seule. Comme toutes les technologies qui se sont succédées, on remplace des tâches faciles réalisées par pleins d'humains par des tâches plus complexes réalisées par peux d'humains et on met de côté un peu plus de gens qui ne trouvent plus leur place.

S'agissant d'une administration, vaut-il mieux payer des aides à des gens à qui on dit qu'ils ne sont plus employables ou faudrait-il mieux leur payer un petit salaire identique aux aides mais pour faire des tâches accessibles, leur permettant d'être utiles et intégrés ?

Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive

  • Consommation de drogues et problématiques psychologiques non pris en compte

  • Pause avant remise en service