Australie : la commission royale étrille les responsables du système de robot-dette

Robot-inégalité

Australie : la commission royale étrille les responsables du système de robot-dette

Le 17 juillet 2023 à 09h49

Commentaires (19)

votre avatar

Présomption de culpabilité, c’est terrifiant.



Clairement, un système automatisé doit se contenter de faire une présélection de cas suspects et les présenter à un humain qui tranche. Il ne faut jamais que la décision soit prise entièrement de façon automatisée sans humain dans la boucle.

votre avatar

Merci pour cet article, glaçant 😟

votre avatar

Merci pour cet article de qualité qui va fouiller son sujet. C’est avec ce genre d’articles que, grâce à NXi, je nourris depuis tant d’années mon insatiable curiosité et ma réflexion sur le monde, MERCI ! :incline:

votre avatar

Très bon article. C’est important que la justice fasse son travail. Outre sa mauvaise spécification, ce système automatisé n’aurait jamais du appliquer des règles “rustines” comme le calcul des moyennes de périodes là où justement on était clairement dans un cas “hors scope” nécessitant l’intervention humaine.



L’inversion de la charge de la preuve, la présomption de culpabilité et les impacts très lourd que ça a eu appellent un verdict exemplaire pour faire école.



(et puis bon, système d’AIDE à la décision, ça porte bien son nom à la base, c’est pas à lui de prendre la décision, il est supposé se contenter d’AIDER, rien de plus)

votre avatar

Merci pour cet article qui nous permet de voir et comprendre ce qui se passe en dehors de nos frontières en espérant que cela nous permettra de ne pas faire les même erreurs…

votre avatar

Au train où vont les choses, ça sera opérationnel en france d’ici 2024 … -_-”

votre avatar

Ca existe déjà et depuis au moins 15 ans, ça s’appelle le RNCPS de mémoire. La boite où je travaillais à l’époque était fournisseuse de données et j’étais dans l’équipe en charge de mettre le flux en place.
Le principe : tout les contributeur sociaux (pole emploi, secu, etc…. il y en a énormément ) envoient leur datas, elle sont traités seront des règles qui suivent 2 objectifs : 90% pour recoupement et éviter la fraude, 10% pour que des personnes qui devraient avoir des droits mais n’en bénéficie pas soient identifié et alerté.
A cette époque par exemple pole emploi avait monté une grande équipe qui s’était servi de ce système pour faire du ménage dans ses fichiers, le résultat étais passé dans les journaux d’actualités.

votre avatar

Le pire c’est qu’il est très compliqué de contesté, c’est devenue difficile de parler à un Humain qui peu nous comprendre, et même quand on y arrive, on se rend souvent compte que de toute façon, il n’a pas beaucoup plus d’information, ce genre de système ayant rarement un point d’entré pour que quelqu’un aille vérifier ce qui a permit le prise de décision automatique.

votre avatar

Patatt a dit:


Le pire c’est qu’il est très compliqué de contesté, c’est devenue difficile de parler à un Humain qui peu nous comprendre, et même quand on y arrive, on se rend souvent compte que de toute façon, il n’a pas beaucoup plus d’information, ce genre de système ayant rarement un point d’entré pour que quelqu’un aille vérifier ce qui a permit le prise de décision automatique.


Pour moi c’est effectivement pire que le problème de départ. Tout est devenu une boîte noire, qui te diriges de FAQ en formulaires ultra-guidés qui te permettent jamais de préciser clairement ton cas, et génère de fait des réponses formatées.



Dans une situation comme ça, il aurait suffit de quelques humains disponibles au téléphone (et formés par autre chose qu’un guide de conversation, on précise) pour cerner qu’il y avait clairement un problème de mise en œuvre du dispositif…

votre avatar

Oui et un humain peu faire preuve d’empathie (dans les limites du stock disponible) alors que la machine …
Quand on est déjà dans une situation de stress, se heurter au mur bête et méchant de la machine n’arrange pas les choses.
Heureusement, les IA conversationnelles vont nous sauver :transpi:

votre avatar

Chercher à lutter contre la lutte à la fraude me parait tout à fait normal MAIS dans ce cas, l’outil ne doit PAS se tromper. Bref, on ne fait pas des hypothèses, mais on verifie tout. Et si jamais il y a des suspicions, on reste présumé innocent… mais dans ce cas, provoquer une enquête !

votre avatar

Finalement, c’est a la base une grossière erreur de calcul et d’algorithme. Ça aurait put se gérer en renvoyant les données a un humain qui aurait fait les vérifications pertinentes de son côté.
Là où ça devient choquant, c’est que personne n’a tilté que les données étaient fausses.

votre avatar

Je vois les commentaires qu’il faut renvoyer à un humain c’est vrai mais admettons que sur les 440k il y en ait la moitié de faux positifs il reste 220k enquêtes à faire et s’ils ont la même fonction publique que la nôtre il faut 30 ans pour traiter ça et durant ce laps de temps la fraude continue… Bref un truc sans fin

votre avatar

“Curieusement”, ce système n’a pas été développé pour lutter contre la fraude fiscale #ohbençaalors #surprise :dors:

votre avatar

ydamian a dit:


Je vois les commentaires qu’il faut renvoyer à un humain c’est vrai mais admettons que sur les 440k il y en ait la moitié de faux positifs il reste 220k enquêtes à faire et s’ils ont la même fonction publique que la nôtre il faut 30 ans pour traiter ça et durant ce laps de temps la fraude continue… Bref un truc sans fin


Bah pas vraiment tu fais quelques enquêtes manuelles, et t’as un aperçu assez fiables du taux d’erreurs que te sors la machine, si le taux est élevé tu peux rapidement te rendre compte que l’algo déconne et arrêter la machine, mettre en pause les demandes de recouvrements en cours.
Si le taux est faible, tu peux envoyer les cas aux informaticiens pour qu’ils analysent la cause de l’erreur pour la corriger ensuite.
En fait ce que je décrie c’est des tests qui auraient dû être faits avant la mise en production globale. Sur ce genre d’automatisme, tu travailles d’abord à blanc, en shadow l’humain contrôle manuellement, puis on fait tourner l’algo sur ce cas pour vérifier si c’est similaire, puis en reverse-shadow : la machine tourne et l’humain vérifie son calcul.

votre avatar

C’est ce que je pense aussi. Aucune verif avant la mise en prod :yes:

votre avatar

(quote:2143332:David.C)
C’est ce que je pense aussi. Aucune verif avant la mise en prod :yes:


Pour quoi faire? C’est toujours l’utilisateur final qui teste non? :transpi:

votre avatar

the_frogkiller a dit:


Pour quoi faire? C’est toujours l’utilisateur final qui teste non? :transpi:


Oué, mais avec des morts en sortie d’analyse, c’est rédhibitoire.



Depuis très longtemps, on sais que la réification des gens lambda tue ces gens tôt ou tard …
:windu:

votre avatar

(quote:2143133:alex.d.)
Clairement, un système automatisé doit se contenter de faire une présélection de cas suspects et les présenter à un humain qui tranche. Il ne faut jamais que la décision soit prise entièrement de façon automatisée sans humain dans la boucle.


Et même comme ça, il faut s’assurer que l’humain ne valide pas bêtement ce que le robot lui propose (en introduisant de faux positifs par exemple).

Australie : la commission royale étrille les responsables du système de robot-dette

  • Améliorer la gestion des aides sociales et la lutte contre la fraude

  • Automatisation et réduction du travail humain

  • Défaillances technico-politiques aux conséquences tragiques

  • Des recommandations sur l’usage de systèmes automatisés d’aide à la décision

Fermer