L'État américain du Nevada veut utiliser l'IA générative pour accélérer le traitement des demandes d'allocations chômage. Les dossiers d'appels des chômeurs devraient bientôt être traités avec une IA de Google qui fera un pré-traitement ainsi que des recommandations au personnel à qui revient la décision. Que la « rapidité » du traitement soit mise en avant inquiète certains experts.
Le Département de l'emploi, de la formation et de la réadaptation (Department of Employment, Training, and Rehabilitation, DETR) du Nevada a signé un contrat avec Google pour créer un système d'IA générative qui analysera les transcriptions des audiences d'appel relatives aux demandes d'allocations chômage. Elle générera des recommandations qui pourront être suivies, ou non, par les employés de l'équivalent de France Travail dans cet État américain, explique Gizmodo.
Les autorités du Nevada assurent au média américain que le système est mis en place pour aider à accélérer le traitement des dossiers, comme souvent dans les projets d'automatisation des procédures. L'administration aurait pris un retard important depuis le début de la pandémie de Covid-19. Selon elles, le temps de rédaction de la réponse pourrait passer de plusieurs heures à seulement cinq minutes pour certains cas.
Un modèle existant affiné pour 1,4 million de dollars
Le DETR du Nevada ne prévoit pas l'entrainement d'un modèle complet, mais de s'appuyer sur un modèle fourni par Google dans son Vertex AI Studio, sans pour autant préciser lequel. Le modèle doit ensuite être adapté à sa tâche en utilisant la génération augmentée de récupération (RAG, retrieval-augmented generation). Pour ce faire, le RAG devrait s'appuyer sur les cas d'appels déjà tranchés et archivés par l'administration du Nevada.
ArsTechnica précise, après avoir consulté un document budgétaire de l'État (PDF), que le montant du contrat serait de 1 383 838 dollars.
Le directeur du DETR, Christopher Sewell, assure à Gizmodo qu' « il n'y aura aucune décision écrite par IA qui sortira sans une interaction et une relecture par un humain ». Il ajoute : « nous pouvons rendre les décisions plus rapidement afin d'aider le demandeur » sans préciser combien d'équivalents temps pleins (ETP) auraient pu être financés dans son administration avec ce budget pour évaluer les dossiers des demandeurs d'emploi.
Des critiques sur le bienfondé d'un tel système
Mais ça ne suffit pas pour rassurer certains juristes et responsables. « Si un robot vient de vous remettre une recommandation et que vous n'avez plus qu'à cocher une case, et qu'il y a une pression pour résorber un arriéré, c'est un peu inquiétant », réagit Michele Evermore, ancienne responsable au ministère fédéral de l'emploi, interrogée par Gizmodo.
De son côté, l'association d'aide juridique Nevada Legal Services est aussi critique. Sa responsable, Morgan Shah, affirme que « le gain de temps qu'ils recherchent n'est possible que si l'examen est très superficiel ». Elle ajoute que « si quelqu'un relit quelque chose de manière approfondie et correctement, il ne gagne pas beaucoup de temps ».
Les avocats de l'association ont aussi peur que si l'IA génère une « hallucination », elle puisse compromettre la décision du service administratif de l'état, mais également celle d'un tribunal civil en cas d'appel devant la justice. Dans le droit américain, les tribunaux de district ne peuvent pas réévaluer les faits et doivent s'appuyer sur les constats faits par l'administration d'appel, explique une des avocates de Nevada Legal Services.
Google assure de son côté à Gizmodo travailler « avec [ses] clients pour identifier et traiter tout biais potentiel, et les aider à se conformer aux exigences fédérales et nationales », sans toutefois en dire plus sur les garde-fous mis en place. Comme le pointe ArsTechnica, l'État du Névada demande (Guidelines en PDF) à ses agences de privilégier une « utilisation éthique » de l'IA, « en évitant les biais et en garantissant l'équité et la transparence des processus de prise de décision ».
Commentaires (5)
#1
#1.1
CDQF 🤪
#2
C'est la pire utilisation possible de l'IA.
L'IA n'est pas transparente, n'est pas débuggable, et n'assure même pas que deux personnes dans des conditions identiques auront le même traitement.
Alors que justement, la loi donne un cadre fixe, que l'on peut coder à la main, et qui assure la transparence, l'équité, et la justesse des traitements.
Bref, les gens, la meilleure IA, c'est celle qu'on utilise pas.
#2.1
#3