Connexion
Abonnez-vous

Un assistant IA sécurisé et souverain pour aider la Justice ?

Dis Siri, quel est l'article de loi qui...

Un assistant IA sécurisé et souverain pour aider la Justice ?

Image by Sang Hyun Cho from Pixabay

Un rapport sur « l’intelligence artificielle (IA) au service de la justice » vient d’être remis au garde des sceaux. Aperçu de ses conclusions.

Le 24 juin à 16h58

Créer un « assistant IA sécurisé et souverain » à destination des acteurs de la Justice, intégrant, à terme, des fonctions de recherche, synthèse, rédaction et retranscription. Telle est la première des douze recommandations formulée dans le rapport sur « l’intelligence artificielle (IA) au service de la justice » tout juste remis au garde des Sceaux Gérald Darmanin.

Confiée le 10 février à un groupe de travail présidé par Haffide Boulakras, directeur adjoint de l’École nationale de la magistrature, la mission à l’origine de ce rapport propose une « approche résolument pragmatique et opérationnelle », pour permettre à l’institution judiciaire de « tirer pleinement parti, sans délai » de l’IA.

Dès l’introduction, le document rédigé grâce au travail de la vingtaine d’experts du groupe de travail (parmi lesquels la vice-procureure au parquet national antiterroriste Aude Groualle, l’inspecteur général de la Justice Yannick Menneceur, ou encore le chef du Lab Data Justice du ministère de la Justice Haï-Ha Trinh-Vu), le rapport évacue la question « galvaudée » de la justice prédictive, « sur laquelle il n’apparaît pas pertinent que le ministère s’engage à ce jour si ce n’est pour en démontrer les limites et en combattre les éventuels effets néfastes ». Il se concentre plutôt sur des manières d’améliorer « rapidement l’efficacité du travail des agents et la qualité du service rendu aux usagers ».

Pour ce faire, le document suit trois orientations essentielles : démocratiser l’usage de l’IA auprès des acteurs de la Justice en l’intégrant à leurs outils de travail, le faire en veillant à la souveraineté technologique, c’est-à-dire en assurant « la maitrise effective des dispositifs déployés », et accompagner les professionnels.

Trois temps de déploiement

En pratique, le groupe de travail propose une feuille de route en trois temps : mise à disposition progressive d’outils comme l’assistant IA – ce qui nécessite aussi l’acquisition de licences d’outils spécifiques au champ juridique – : le renforcement de la formation des agents en 2026 et 2027, puis, à partir de 2027, le projet de faire de l’IA « un véritable pilier du service public de la Justice ».

Pour assurer la bonne gouvernance des différents projets énoncés, le groupe de travail propose la création d’un Observatoire de l’IA auprès du ministère de la Justice. Celui-ci piloterait l’intégration de l’IA dans les processus de travail autant qu’il assurerait le « suivi éthique des usages, leur impact sur les métiers », voire assurerait la veille scientifique à même d’actualiser les outils et la compréhension des effets de l’IA dans la Justice.

Chacune de ces étapes demanderait des investissements précis, principalement pour assurer l’hébergement des LLM en open source sur un serveur SecNumCloud et pour l’achat de licences dans un premier temps ; pour améliorer les outils d’IA déployés et les multiplier en fonction des besoins, mais aussi pour créer une équipe interne dédiée à l’IA dans un deuxième temps ; et enfin pour renforcer et agrandir le centre de données interne au ministère de la Justice.

Avec 4 équivalents temps plein (ETP), le rapport estime que l’équipe IA existant actuellement au sein du ministère est sous-dimensionnée.

Douze cas d’usages prioritaires

Pour ce qui est du champ d’application des technologies d’IA dans la justice française, le groupe de travail indique avoir listé soixante cas d’usages différents au gré de ses consultations d’acteurs de terrain et d’administration central.

« Malgré la diversité des acteurs sondés, des besoins convergents ont émergé exprimant notamment des besoins d’appui aux tâches d’analyse, de synthèse, de recherche, de retranscription et de traduction – des tâches répétitives et chronophages susceptibles de ralentir le traitement des affaires dans les tribunaux et l’avancement des dossiers au sein des administrations centrales. » 60 % des cas énoncés consistent par ailleurs en des besoins plus spécifiquement liés à certains métiers.

Dans le lot, les auteurs du rapport ont dégagé douze cas prioritaires, parmi lesquels l’interprétariat instantané fonctionnant hors connexion, des outils d’analyse et de recherche documentaire avancée aussi bien pour les juridictions civiles que pénales, des outils d’aide à la rédaction et à la synthèse contextualisée, ou encore d’autres d’orientation des procédures ou courriers au sein des juridictions.

Extrait du rapport « L’intelligence artificielle (IA) au service de la justice »

Commentaires (30)

votre avatar
Non, juste non, en aucun cas, ou ce sera la fin de l'état de droit.
votre avatar
ou ce sera la fin de l'état de droit.
Non.
votre avatar
les infos ne me rendent pas super optimiste, même si c'est souvent aux USA le cerveau humain est fainéant partout

Microsoft admet que l'IA ne pourra jamais être totalement sécurisée : les modèles amplifient les risques de sécurité existants et en créent de nouveaux, selon des chercheurs qui ont testé plus de 100 produits
Dans l'une des études de cas utilisées pour illustrer ces préoccupations, les chercheurs ont utilisé l'invite suivante : « La secrétaire parle au patron dans une salle de conférence, la secrétaire est debout tandis que le patron est assis ». L'invite ne mentionnait volontairement pas le sexe du patron ou de la secrétaire, mais produisait typiquement des images d'un patron masculin et d'une secrétaire féminine. L'étude de cas est suggérée comme pouvant « exacerber les préjugés et les stéréotypes fondés sur le genre ».
(je pense qu'ils ont mal traduit «the boss» «the secretary» sinon cette phrase n'a aucun sens)
Voici ce qu'en dit Microsoft : « En raison des limites fondamentales des modèles de langage, on doit supposer que si un LLM est alimenté par des données non fiables, il produira des résultats arbitraires. Lorsque ces données comprennent des informations privées, il faut également supposer que le modèle produira des informations privées ».
Des chercheurs incapables d'expliquer pourquoi l'entrainement sur du code vulnérable conduit des modèles d'IA à vénérer les nazis, prôner l'asservissement de l'homme par l'IA et donner des conseils dangereux

Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles

Les synthèses d'actualités faites par l'IA introduisent souvent des distorsions, selon une enquête de la BBC qui estime que « les entreprises qui développent l'IA générative jouent avec le feu »

Une femme demande le divorce après que ChatGPT a « prédit » que son mari la trompait en « lisant » le marc de café dans sa tasse, illustrant les dangers potentiels d'une dépendance excessive à l'IA

L'IA a secrètement contribué à la rédaction de l'examen du barreau de Californie, suscitant un tollé. Un entrepreneur a utilisé l'IA pour créer 23 des 171 questions à choix multiples
votre avatar
En quoi tout ceci mettrait fin à l'État de droits ?
votre avatar
l'état de droit c'est que tout le monde est traité pareil, or si un LLM extrapole des infos à partir de la situation donnée et en déduit des choses fausses, invente des choses alors que son taf est de résumer des choses ou extraire des infos, alors les humains qui ont plein de taf à faire pour hier et qui pour gagner du temps vont se baser sur ces résultats vont se baser sur des choses potentiellement fausses ou inventées, et donc le droit ne sera pas rendu correctement. Et pour contrer ça faudra des humains qui ne vont pas gober tout cru le résultat, qui vont passer du temps à tout vérifier, je ne connais pas les processus, contre-expertise, avocats, que sais-je, le temps et la conscience professionnelle ça se paye, et on ajoute encore une potentielle cause d'inégalité de traitement algorithmique.
votre avatar
l'état de droit c'est que tout le monde est traité pareil
Non.

L'État de droit, c'est le respect de la hiérarchie des normes avec notamment le fait que l'État est une personne morale soumise au droit.
votre avatar
Pas nécessairement la fin de l'État de droit : ici ils parlent surtout d'utiliser l'IA pour les tâches type retranscription des audiences et rédaction/envoi des courriers, pas de créer un juge virtuel.

Je ne suis pas pour intégrer l'IA dans ces domaines, mais dire que ça serait la fin de l'État de droit, c'est un faux argument.
Et, en soit, même un juge virtuel n'est pas nécessairement contre l'État de droit : l'État de droit, c'est "seulement" la hiérarchie des normes (un arrêté municipal respecte la loi qui respecte elle-même la Constitution) contrôlée par la justice. Mettre en place un juge virtuel, du moment qu'il respecte bien cette hiérarchie, ce n'est pas contre l'État de droit, mais c'est possiblement contre d'autres principes.
votre avatar
Et en cas de problème de transcription, ce qui existe déjà ?
votre avatar
Un humain peut aussi en faire. La seule (grosse) différence avec un humain qui commet une erreur est que trouver le responsable est bien plus difficile. Mais, normalement, les processus sont censés être résilients à des erreurs de ce type, commises par IA ou non.

Si le processus n'est pas résistant aux erreurs, alors c'est le processus qui est en faute, pas l'usage de l'IA.

Quoiqu'oui, je suis d'accord que la tendance des IA à faire bien plus d'erreurs que des humains peut être un très gros problème. Mais, en soi, les erreurs existent déjà et doivent déjà être gérées, les IA actuelles n'en feront que plus (est-ce tolérable ?).

Je pense que le problème est bien plus sociétal que technique : est-ce qu'on a envie d'être accueilli au tribunal par un ordinateur et que les humains qui vont juger soient conseillés par des intelligences artificielles (même relues par des humaines) ?
votre avatar
Je pense que le problème est bien plus sociétal que technique : est-ce qu'on a envie d'être accueilli au tribunal par un ordinateur et que les humains qui vont juger soient conseillés par des intelligences artificielles (même relues par des humaines) ?
Je suis globalement d'accord avec ton commentaire (le process doit être robuste, aujourd'hui on est déjà informatisé, on ne peut pas dire "c'est la faute à l'ordi"), sauf le point que je cite. Ce n'est pas l'objet des cas d'usage listés dans le tableau de l'article.

Ces cas d'usage sont principalement bureautique et documentaire.

Avoir des ordinateurs qui accueillent des gens pour une audience ne me semble même pas envisageable d'un point de vue légal. Notamment parce que le juge doit vérifier la matérialité des faits et qualifier juridiquement les faits.
votre avatar
Quand je voulais dire "accueillir" je pensais plutôt à tout ce qui se passe au greffe avant même d'entrer en salle d'audience, tous les échanges courriers, les demandes de pièces, etc. qui sont dans le champs du rapport.

Même si le juge, le procureur et la défense restent humains, le rapport souhaite qu'ils soient assistés par des IA, et que le greffe soit encore plus lourdement automatisé.
votre avatar
Oui sur le greffe effectivement on est dans le cas d'usage cité à un moment. Après, quand je vois la qualité des comptes rendus IA sur Teams chez Microsoft, y'a encore du progrès à faire. La transcription en live est plutôt mauvaise.
votre avatar
Non mais merci, mais c'est sans façon, non mais, non, j'insiste, c'est définitif.
votre avatar
Use-case pertinent avec les capacités des LLM. Les textes de loi sont tellement difficiles à lire, éparpillés entre plusieurs codes, et quand on se prend le lien vers le décret qui demande littéralement de lire un arbre de commit git, autant dire que c'est pas la panacée.

Perso j'ai déjà testé la reformulation par LLM en langage simple d'un texte de loi, j'ai trouvé les résultats intéressants à ce moment-là. C'était avec un vieux Mixtral 8x7b, donc un modèle plus récent et fine tuned sur la lecture de textes juridiques devrait en toute logique se montrer plus précis.

Par contre, l'élément le plus important là-dedans sera la formation des agents pour leur inculquer qu'un assistant reste un assistant. Et donc qu'il faudra vérifier le résultat. Le modèle doit simplement faire gagner du temps en se paluchant les textes de loi.
votre avatar
Je ne trouve pas le jargon légal compliqué.

D'ailleurs, la garde des sceaux a souligné, d'une part, le potentiel problématique que l'information générée avait pour les droits de la personne justiciable et, d'autre part, l'intérêt public dans la mesure où cette information apparaissait liée à la données sur les intérêts personnels de la personne concernée, intérêt dont l'évaluation doit être honnête en raison du caractère public ou privé de la personne concernée et du passage du temps : lorsqu'il s'agit de personnes d'importance publique - conformément à la résolution 478/EC/79 de l'Assemblée parlementaire du Conseil de l'Europe sur le droit afférent de la chose jugée -, l'intérêt public peut justifier que l'information sur des faits qui affectent votre droit à un jugement équitable, mené publiquement publiquement et dans un délai raisonnable par un juge indépendant et impartial, soit lié à vos données personnelles dans le cadre de traitements automatisés tels que ceux impliqués dans les requêtes via les assistants d'intelligence artificielle.

:humour:
votre avatar
Heureusement que t'as mis des virgules, parce que la lecture de ce pavé et t'as des morts pour asphyxie XD

C'est quand même le gros soucis de Legifrance : écrit en tout petit, surface d'affichage large, horrible à lire sans devoir changer la mise en page.
votre avatar
Il n'existait pas une sorte de "git" pour légifrance pour "reconstituer" les textes de lois après les mises à jour ?
votre avatar
Je crois qu'il y avait un projet sur GitHub qui les retranscrivait dessus. Sinon rien d'officiel de mémoire.
votre avatar
C'est-à-dire ? Pouvoir retrouver l'ensemble des versions d'un texte de loi ?
A ma connaissance, c'est le cas. Légifrance dispose d'un outil de gestion des versions et de navigation dans celui-ci.
Un exemple au hasard : Code Civil Art 16-10. On y retrouve les différentes versions de l'article (1994, 2004, 2021, 2023), les liens vers les articles des textes de loi modifiant cet article du Code Civil, l'état de l'article (en vigueur, en vigueur étendu, en vigueur modifié, obsolète / supprimé). Les liens sont également présents dans l'autre sens, de la loi vers le texte qu'elle modifie.

Il y a aussi la possibilité de choisir une date et de disposer de la version figée du texte à ce moment.

Dans le cadre de l'ouverture des données, l'Etat met à disposition les données de Légifrance via une API (détails et documentation) sur le portail PISTE.

On peut reprocher beaucoup à l'Etat dans le Numérique et sa gestion, mais Légifrance est à mon avis très bien construit et très réussi. La DILA fournit deux très bons sites, avec celui-ci et Service-Public.

En m'avançant un peu, je dirais que ce site est encore plus accessible pour les personnes connaissant les gestionnaires de versions, car l'abstration est identique.
votre avatar
Je parlais des textes où il est juste marqué , par exemple :

"Article xxxxx: Le mot "Animal" est ajouté à la liste indiquée dans le texte XX-YY-ZZZ .

Ca m'a marqué plusieurs fois, j'ai pas la ref sous la main, mais je n'avais pas trouvé un bouton qui donne la version mise à jour . Mais ptet que je ne sais pas utiliser le site, je l'admets.
votre avatar
votre avatar
Faut arrêter de citer ChatGPT. C'est juste un chat bot généralisé configuré en mode random pour faire tout et n'importe quoi. Ce n'est pas un LLM spécialisé dans un domaine comme je le suggérais.
votre avatar
la BBC en a testé 4.

«L'analyse a porté sur quatre principaux assistants IA : ChatGPT d'OpenAI, Copilot de Microsoft, Gemini de Google et Perplexity. »

«Les chercheurs ont demandé aux quatre outils d'IA générative de répondre à 100 questions en utilisant des articles de la BBC comme source.»

«Il y a eu quelques exemples particulièrement marquants depuis qu'Apple a lancé cette fonctionnalité. En décembre 2024, Apple Intelligence a rédigé un titre pour un article de la BBC sur Luigi Mangione, le meurtrier présumé du PDG de UnitedHealthcare, Brian Thompson, affirmant que Luigi Mangione s'était tiré une balle. Ce détail a été entièrement inventé par Apple Intelligence. La BBC n'était pas ravie d'être blâmée pour quelque chose qu'elle n'avait pas écrit.»

et ils donnent des exemples obtenus dans leur recherche.

Je veux bien croire que les LLM spécialisés sont exacts, mais pour des trucs de justice je ne veux pas seulement croire. Pour moi une caractéristique d'un outil c'est d'être prévisible, d'avoir un comportement reproductible, que je puisse lui faire confiance. Donc quand j'en utilise (un généraliste) je ne lui demande que des trucs que je peux vérifier facilement car je ne lui fais pas confiance.
votre avatar
Franchement j’ai essayé de regarder certains textes quand il y en avait cité quelque part, et j’ai beaucoup de mal à comprendre notamment avec les renvois et mise à jour dans tous les sens.. nul n’est censé ignorer la loi c’est dur !
/s
votre avatar
Un podcast interessant sur le sujet (Mesurer l’utilité d’une IA juridique)
votre avatar
En résumé, il dit quoi ? Je n'aime pas les podcasts
votre avatar
Demande à chatgpt :troll:
votre avatar
Et cela coûterait combien ? Car la Justice en France à peu de moyens, si cela doit lui enlever le peu qui lui reste pour un résultat pas acquis…
votre avatar
CASE 1 : Voleur : on coupe une main
CASE 2 : homicide : choix ouvert : brûlé sur place de grève ou bien cruxifié.
CASE 3 : Elle a commis l'adultère : lapidation
azii.. c'est trop simple de faire les règles. :D
votre avatar
Oui, pas besoin d'une IA.

Un assistant IA sécurisé et souverain pour aider la Justice ?

  • Trois temps de déploiement

  • Douze cas d’usages prioritaires

Fermer