Un assistant IA sécurisé et souverain pour aider la Justice ?
Dis Siri, quel est l'article de loi qui...

Image by Sang Hyun Cho from Pixabay
Un rapport sur « l’intelligence artificielle (IA) au service de la justice » vient d’être remis au garde des sceaux. Aperçu de ses conclusions.
Le 24 juin à 16h58
5 min
IA et algorithmes
IA
Créer un « assistant IA sécurisé et souverain » à destination des acteurs de la Justice, intégrant, à terme, des fonctions de recherche, synthèse, rédaction et retranscription. Telle est la première des douze recommandations formulée dans le rapport sur « l’intelligence artificielle (IA) au service de la justice » tout juste remis au garde des Sceaux Gérald Darmanin.
Confiée le 10 février à un groupe de travail présidé par Haffide Boulakras, directeur adjoint de l’École nationale de la magistrature, la mission à l’origine de ce rapport propose une « approche résolument pragmatique et opérationnelle », pour permettre à l’institution judiciaire de « tirer pleinement parti, sans délai » de l’IA.
Dès l’introduction, le document rédigé grâce au travail de la vingtaine d’experts du groupe de travail (parmi lesquels la vice-procureure au parquet national antiterroriste Aude Groualle, l’inspecteur général de la Justice Yannick Menneceur, ou encore le chef du Lab Data Justice du ministère de la Justice Haï-Ha Trinh-Vu), le rapport évacue la question « galvaudée » de la justice prédictive, « sur laquelle il n’apparaît pas pertinent que le ministère s’engage à ce jour si ce n’est pour en démontrer les limites et en combattre les éventuels effets néfastes ». Il se concentre plutôt sur des manières d’améliorer « rapidement l’efficacité du travail des agents et la qualité du service rendu aux usagers ».
Pour ce faire, le document suit trois orientations essentielles : démocratiser l’usage de l’IA auprès des acteurs de la Justice en l’intégrant à leurs outils de travail, le faire en veillant à la souveraineté technologique, c’est-à-dire en assurant « la maitrise effective des dispositifs déployés », et accompagner les professionnels.
Trois temps de déploiement
En pratique, le groupe de travail propose une feuille de route en trois temps : mise à disposition progressive d’outils comme l’assistant IA – ce qui nécessite aussi l’acquisition de licences d’outils spécifiques au champ juridique – : le renforcement de la formation des agents en 2026 et 2027, puis, à partir de 2027, le projet de faire de l’IA « un véritable pilier du service public de la Justice ».
Pour assurer la bonne gouvernance des différents projets énoncés, le groupe de travail propose la création d’un Observatoire de l’IA auprès du ministère de la Justice. Celui-ci piloterait l’intégration de l’IA dans les processus de travail autant qu’il assurerait le « suivi éthique des usages, leur impact sur les métiers », voire assurerait la veille scientifique à même d’actualiser les outils et la compréhension des effets de l’IA dans la Justice.
Chacune de ces étapes demanderait des investissements précis, principalement pour assurer l’hébergement des LLM en open source sur un serveur SecNumCloud et pour l’achat de licences dans un premier temps ; pour améliorer les outils d’IA déployés et les multiplier en fonction des besoins, mais aussi pour créer une équipe interne dédiée à l’IA dans un deuxième temps ; et enfin pour renforcer et agrandir le centre de données interne au ministère de la Justice.
Avec 4 équivalents temps plein (ETP), le rapport estime que l’équipe IA existant actuellement au sein du ministère est sous-dimensionnée.
Douze cas d’usages prioritaires
Pour ce qui est du champ d’application des technologies d’IA dans la justice française, le groupe de travail indique avoir listé soixante cas d’usages différents au gré de ses consultations d’acteurs de terrain et d’administration central.
« Malgré la diversité des acteurs sondés, des besoins convergents ont émergé exprimant notamment des besoins d’appui aux tâches d’analyse, de synthèse, de recherche, de retranscription et de traduction – des tâches répétitives et chronophages susceptibles de ralentir le traitement des affaires dans les tribunaux et l’avancement des dossiers au sein des administrations centrales. » 60 % des cas énoncés consistent par ailleurs en des besoins plus spécifiquement liés à certains métiers.
Dans le lot, les auteurs du rapport ont dégagé douze cas prioritaires, parmi lesquels l’interprétariat instantané fonctionnant hors connexion, des outils d’analyse et de recherche documentaire avancée aussi bien pour les juridictions civiles que pénales, des outils d’aide à la rédaction et à la synthèse contextualisée, ou encore d’autres d’orientation des procédures ou courriers au sein des juridictions.

Un assistant IA sécurisé et souverain pour aider la Justice ?
-
Trois temps de déploiement
-
Douze cas d’usages prioritaires
Commentaires (30)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 24/06/2025 à 17h10
Le 24/06/2025 à 17h23
Le 24/06/2025 à 22h13
Microsoft admet que l'IA ne pourra jamais être totalement sécurisée : les modèles amplifient les risques de sécurité existants et en créent de nouveaux, selon des chercheurs qui ont testé plus de 100 produits
(je pense qu'ils ont mal traduit «the boss» «the secretary» sinon cette phrase n'a aucun sens)
Des chercheurs incapables d'expliquer pourquoi l'entrainement sur du code vulnérable conduit des modèles d'IA à vénérer les nazis, prôner l'asservissement de l'homme par l'IA et donner des conseils dangereux
Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles
Les synthèses d'actualités faites par l'IA introduisent souvent des distorsions, selon une enquête de la BBC qui estime que « les entreprises qui développent l'IA générative jouent avec le feu »
Une femme demande le divorce après que ChatGPT a « prédit » que son mari la trompait en « lisant » le marc de café dans sa tasse, illustrant les dangers potentiels d'une dépendance excessive à l'IA
L'IA a secrètement contribué à la rédaction de l'examen du barreau de Californie, suscitant un tollé. Un entrepreneur a utilisé l'IA pour créer 23 des 171 questions à choix multiples
Le 25/06/2025 à 07h40
Le 26/06/2025 à 20h14
Le 26/06/2025 à 20h29
L'État de droit, c'est le respect de la hiérarchie des normes avec notamment le fait que l'État est une personne morale soumise au droit.
Modifié le 25/06/2025 à 08h44
Je ne suis pas pour intégrer l'IA dans ces domaines, mais dire que ça serait la fin de l'État de droit, c'est un faux argument.
Et, en soit, même un juge virtuel n'est pas nécessairement contre l'État de droit : l'État de droit, c'est "seulement" la hiérarchie des normes (un arrêté municipal respecte la loi qui respecte elle-même la Constitution) contrôlée par la justice. Mettre en place un juge virtuel, du moment qu'il respecte bien cette hiérarchie, ce n'est pas contre l'État de droit, mais c'est possiblement contre d'autres principes.
Le 25/06/2025 à 19h54
Le 26/06/2025 à 11h57
Si le processus n'est pas résistant aux erreurs, alors c'est le processus qui est en faute, pas l'usage de l'IA.
Quoiqu'oui, je suis d'accord que la tendance des IA à faire bien plus d'erreurs que des humains peut être un très gros problème. Mais, en soi, les erreurs existent déjà et doivent déjà être gérées, les IA actuelles n'en feront que plus (est-ce tolérable ?).
Je pense que le problème est bien plus sociétal que technique : est-ce qu'on a envie d'être accueilli au tribunal par un ordinateur et que les humains qui vont juger soient conseillés par des intelligences artificielles (même relues par des humaines) ?
Le 26/06/2025 à 13h36
Ces cas d'usage sont principalement bureautique et documentaire.
Avoir des ordinateurs qui accueillent des gens pour une audience ne me semble même pas envisageable d'un point de vue légal. Notamment parce que le juge doit vérifier la matérialité des faits et qualifier juridiquement les faits.
Modifié le 26/06/2025 à 17h21
Même si le juge, le procureur et la défense restent humains, le rapport souhaite qu'ils soient assistés par des IA, et que le greffe soit encore plus lourdement automatisé.
Le 26/06/2025 à 17h32
Modifié le 24/06/2025 à 17h20
Le 24/06/2025 à 17h20
Perso j'ai déjà testé la reformulation par LLM en langage simple d'un texte de loi, j'ai trouvé les résultats intéressants à ce moment-là. C'était avec un vieux Mixtral 8x7b, donc un modèle plus récent et fine tuned sur la lecture de textes juridiques devrait en toute logique se montrer plus précis.
Par contre, l'élément le plus important là-dedans sera la formation des agents pour leur inculquer qu'un assistant reste un assistant. Et donc qu'il faudra vérifier le résultat. Le modèle doit simplement faire gagner du temps en se paluchant les textes de loi.
Modifié le 24/06/2025 à 20h00
D'ailleurs, la garde des sceaux a souligné, d'une part, le potentiel problématique que l'information générée avait pour les droits de la personne justiciable et, d'autre part, l'intérêt public dans la mesure où cette information apparaissait liée à la données sur les intérêts personnels de la personne concernée, intérêt dont l'évaluation doit être honnête en raison du caractère public ou privé de la personne concernée et du passage du temps : lorsqu'il s'agit de personnes d'importance publique - conformément à la résolution 478/EC/79 de l'Assemblée parlementaire du Conseil de l'Europe sur le droit afférent de la chose jugée -, l'intérêt public peut justifier que l'information sur des faits qui affectent votre droit à un jugement équitable, mené publiquement publiquement et dans un délai raisonnable par un juge indépendant et impartial, soit lié à vos données personnelles dans le cadre de traitements automatisés tels que ceux impliqués dans les requêtes via les assistants d'intelligence artificielle.
Le 24/06/2025 à 20h33
C'est quand même le gros soucis de Legifrance : écrit en tout petit, surface d'affichage large, horrible à lire sans devoir changer la mise en page.
Le 24/06/2025 à 21h04
Le 24/06/2025 à 21h32
Le 24/06/2025 à 23h44
A ma connaissance, c'est le cas. Légifrance dispose d'un outil de gestion des versions et de navigation dans celui-ci.
Un exemple au hasard : Code Civil Art 16-10. On y retrouve les différentes versions de l'article (1994, 2004, 2021, 2023), les liens vers les articles des textes de loi modifiant cet article du Code Civil, l'état de l'article (en vigueur, en vigueur étendu, en vigueur modifié, obsolète / supprimé). Les liens sont également présents dans l'autre sens, de la loi vers le texte qu'elle modifie.
Il y a aussi la possibilité de choisir une date et de disposer de la version figée du texte à ce moment.
Dans le cadre de l'ouverture des données, l'Etat met à disposition les données de Légifrance via une API (détails et documentation) sur le portail PISTE.
On peut reprocher beaucoup à l'Etat dans le Numérique et sa gestion, mais Légifrance est à mon avis très bien construit et très réussi. La DILA fournit deux très bons sites, avec celui-ci et Service-Public.
En m'avançant un peu, je dirais que ce site est encore plus accessible pour les personnes connaissant les gestionnaires de versions, car l'abstration est identique.
Le 25/06/2025 à 18h52
"Article xxxxx: Le mot "Animal" est ajouté à la liste indiquée dans le texte XX-YY-ZZZ .
Ca m'a marqué plusieurs fois, j'ai pas la ref sous la main, mais je n'avais pas trouvé un bouton qui donne la version mise à jour . Mais ptet que je ne sais pas utiliser le site, je l'admets.
Le 24/06/2025 à 22h00
Un avocat cite des affaires juridiques fictives inventées par ChatGPT, provoquant la fureur du juge et des sanctions potentielles. ChatGPT avait assuré à l'avocat que ces affaires étaient réelles
Les synthèses d'actualités faites par l'IA introduisent souvent des distorsions, selon une enquête de la BBC qui estime que « les entreprises qui développent l'IA générative jouent avec le feu »
Le 25/06/2025 à 07h36
Modifié le 26/06/2025 à 20h24
«L'analyse a porté sur quatre principaux assistants IA : ChatGPT d'OpenAI, Copilot de Microsoft, Gemini de Google et Perplexity. »
«Les chercheurs ont demandé aux quatre outils d'IA générative de répondre à 100 questions en utilisant des articles de la BBC comme source.»
«Il y a eu quelques exemples particulièrement marquants depuis qu'Apple a lancé cette fonctionnalité. En décembre 2024, Apple Intelligence a rédigé un titre pour un article de la BBC sur Luigi Mangione, le meurtrier présumé du PDG de UnitedHealthcare, Brian Thompson, affirmant que Luigi Mangione s'était tiré une balle. Ce détail a été entièrement inventé par Apple Intelligence. La BBC n'était pas ravie d'être blâmée pour quelque chose qu'elle n'avait pas écrit.»
et ils donnent des exemples obtenus dans leur recherche.
Je veux bien croire que les LLM spécialisés sont exacts, mais pour des trucs de justice je ne veux pas seulement croire. Pour moi une caractéristique d'un outil c'est d'être prévisible, d'avoir un comportement reproductible, que je puisse lui faire confiance. Donc quand j'en utilise (un généraliste) je ne lui demande que des trucs que je peux vérifier facilement car je ne lui fais pas confiance.
Le 25/06/2025 à 00h18
/s
Modifié le 24/06/2025 à 18h26
Le 25/06/2025 à 01h05
Le 25/06/2025 à 10h26
Le 25/06/2025 à 08h40
Le 26/06/2025 à 12h45
CASE 2 : homicide : choix ouvert : brûlé sur place de grève ou bien cruxifié.
CASE 3 : Elle a commis l'adultère : lapidation
azii.. c'est trop simple de faire les règles.
Le 26/06/2025 à 12h54