Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive
ML récidiviste
Mathilde Saliou
Le 18 février à 15h55
Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.
Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive
ML récidiviste
Aux Pays-Bas, le ministère de la Justice vient de mettre au jour les dysfonctionnements d’un système algorithmique déployé pour tenter de prévoir la récidive d’individus suspects ou condamnés. Alors que l’administration cherche à le réparer, des défenseurs des droits humains soulignent que ce type d’usage du machine learning est critiqué depuis une décennie.
Le 18 février à 15h55
Droit
Droit
4 min
Un nouveau système algorithmique prompt aux erreurs a été épinglé aux Pays-Bas. Ce 12 février, le ministère de la Justice néerlandais a publié un rapport relatif au système utilisé par les services de probation Reclassering Nederland pour évaluer le risque de récidive chez les détenus déjà condamnés comme chez les personnes en détention provisoire.
L’audit fait partie intégrante d’un travail plus large sur les systèmes algorithmiques utilisés à travers l’administration, lui-même initié à la suite de deux scandales relatifs à des outils biaisés.
Pendant près d’une dizaine d’années, l’administration fiscale néerlandaise a en effet recouru à un système qui a demandé des sommes faramineuses et indues à des familles généralement ciblées pour leurs origines étrangères. De même, des systèmes de détection de fraude aux prêts étudiants accusaient beaucoup plus fréquemment les étudiants issus de minorités ethniques, donc à leur faire subir plus fréquemment des contrôles.
Consommation de drogues et problématiques psychologiques non pris en compte
Dans le cas présent, le système algorithmique incriminé a été utilisé pour traiter de l’ordre de 44 000 cas par an, et aider à évaluer si ces personnes risquaient plus ou moins de récidiver.
Un tel cas d’usage rappelle les premiers grands travaux sur les travers que ce type d’outils créent sur le terrain en termes d’égalité devant la loi. En 2016, le journal ProPublica publiait ainsi une enquête au long cours démontrant qu’aux États-Unis le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) qualifiait beaucoup plus fréquemment les suspects noirs de risque de récidives que les suspects blancs, à tort.
Dans le cas néerlandais, le système, nommé OxRec, fournit de mauvais résultats dans 20 % des cas et ne correspond pas aux standards gouvernementaux d’utilisation. Depuis 2018, les formules normalement utilisées pour évaluer les personnes déjà condamnées et suspectes ont été inversées, la consommation de drogues n’est pas correctement prise en compte, et les problématiques psychologiques graves ne sont pas prises en considération, relève l’enquête administrative. Le système a par ailleurs été entraîné sur d’anciennes données issues de prisons suédoises, et non sur la population des prisons néerlandaises.
Pause avant remise en service
Suite à ce rapport, Reclassering Nederlands a stoppé l’utilisation d’OxRec. Le ministère de la Justice néerlandais a en revanche expliqué « chercher à le remettre en service dès que toutes les améliorations auront été déployées, car une utilisation responsable de cet algorithme contribue à l’efficacité et à la cohérence des conseils en termes de probation », souligne sur LinkedIn Alexander Laufer, chercheur auprès d’Amnesty International.
Pour les enquêteurs du ministère de la Justice, le plus gros risque que posent les dysfonctionnements du système est en effet que des probabilités de récidive aient été sous-évaluées.
En 2020, des scientifiques avaient quant à eux émis une alerte sur l’usage des codes postaux dans OxRec, expliquant que cela pouvait mener de manière indirecte à des logiques de profilage ethnique. D’après la directrice du service de probation Jessica Westerik, ces alertes avaient été prises « très au sérieux », mais les services avaient conclu qu’il existait suffisamment de preuves scientifiques pour considérer que l’adresse et les revenus étaient des paramètres.
Alexander Laufer, lui, rappelle que la prédiction de la récidive est « une des applications les plus controversées » du machine learning, et que le consensus scientifique estime désormais « (1) que ça ne fonctionne pas et (2) que ç’a des conséquences discriminatoires sévères et imprévisibles », y compris en termes d’accès à un procès équitable.
Aux Pays-Bas, nouveau scandale autour d’un algorithme de prédiction de la récidive
-
Consommation de drogues et problématiques psychologiques non pris en compte
-
Pause avant remise en service
Commentaires (6)
Abonnez-vous pour prendre part au débat
Déjà abonné ou lecteur ? Se connecter
Cet article est en accès libre, mais il est le produit d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles d'un média expert
Profitez d'au moins 1 To de stockage pour vos sauvegardes
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 18/02/2026 à 16h50
Le 18/02/2026 à 21h31
Quand ils en auront marre d'être surveillés comme des délinquants récidivistes (le sont-ils ? La machine nous le dira
Le 19/02/2026 à 14h37
Je pensais au cas Bismuth, pile dans la cible.
Le 18/02/2026 à 22h02
Le 19/02/2026 à 10h38
Le 19/02/2026 à 11h51
Interdire l'usage du mot intelligence pour le remplacer par intuition serait, je pense, un bon début pour mettre fin au mensonge marketing.
Les mots ont un sens et le mésusage des mots à des conséquences sur les personnes qui écoutent les message de promo en en déduisant des choses fausses. C'est un mensonge indirect car le message originel ne prétend pas que l'outil est capable de réflexion mais c'est ce qu'entendent la plus part des gens.
Les assureurs utilisent depuis des lustres des outils statistiques pour évaluer les risques de leurs contrats. Ils se dotent par contre très vraisemblablement des compétences nécessaires pour alimenter leurs outils avec des données propres et des compétences nécessaires pour analyser les résultats.
Une fois encore, un désastre est lié à la folie de croire que l'IA permet de faire le travail seule. Comme toutes les technologies qui se sont succédées, on remplace des tâches faciles réalisées par pleins d'humains par des tâches plus complexes réalisées par peux d'humains et on met de côté un peu plus de gens qui ne trouvent plus leur place.
S'agissant d'une administration, vaut-il mieux payer des aides à des gens à qui on dit qu'ils ne sont plus employables ou faudrait-il mieux leur payer un petit salaire identique aux aides mais pour faire des tâches accessibles, leur permettant d'être utiles et intégrés ?
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?