Les pistes du ministère de la Justice pour garder la main sur l'IA
Le ministère de la Justice a détaillé sa feuille de route sur l'IA avec comme priorité de préserver la souveraineté des données judiciaires et de faciliter l'accès au droit. La mission suggère aussi une labellisation des solutions d'IA proposées par des éditeurs juridiques.

© DITP
Remis en mai 2025, le rapport de la mission dirigée par Haffide Boulakras, directeur adjoint de l'École nationale de la magistrature, rompt avec les débats théoriques sur la "justice prédictive" pour adopter une démarche "résolument pragmatique et opérationnelle". Ce document de 55 pages fait 10 propositions pour intégrer l'IA d'ici trois ans au sein du ministère.
Tester un assistant IA généraliste
Le ministère veut doter 91.000 magistrats et agents du ministère d'outils d'IA efficaces, tout en évitant les écueils de sécurité et de souveraineté. "Les opportunités offertes par l'IA exigent une mobilisation rapide et concrète afin que le ministère de la Justice réussisse ce tournant décisif", souligne le rapport. Pour le ministère il s'agit à la fois de valoriser son patrimoine de données et de désengorger les tribunaux.
La mission a recensé 60 cas d'usage potentiels dont douze "prioritaires", de l'interprétariat instantané en milieu pénitentiaire à l'aide à la rédaction de décisions de justice. Le déploiement commencera par un assistant IA "généraliste" et "souverain" testé d'ici la fin de l'année avant d’être généralisé en 2026. Ce déploiement sera accompagné d'une formation massive des agents et de l'adoption d'une charte éthique.
Améliorer l'accès au droit
Dans les préoccupations partagées avec les collectivités, on citera l'accès au droit. Du côté des agents du ministère tout d'abord : ceux-ci consacrent aujourd'hui un temps considérable à des recherches juridiques manuelles dans une multiplicité de bases de données (Dalloz, Lexis Nexis, jurisprudences …). Or l'IA générative permet de réaliser facilement des synthèses en proposant une "recherche juridique augmentée".
Le rapport préconise aussi le développement d'"outils d'information juridique accessibles au grand public et faciles d'utilisation, capables de présenter des textes complexes en termes simples". Ces dispositifs, du type chatbot, viseraient à "orienter les justiciables vers les services compétents" et à "renforcer l'accessibilité au système judiciaire", y compris pour "les publics suivis par l'administration pénitentiaire et la protection judiciaire de la jeunesse".
IA souveraine et labellisation
La prééminence des solutions étrangères dans le domaine de l'IA générative et les enjeux de souveraineté constituent le fil rouge du rapport. Ses auteurs s'inquiètent du "shadow AI", l'utilisation cachée d'outils comme ChatGPT, une pratique qui concerne 13,5% des agents de la fonction publique selon une enquête de juin 2024. Si ce chiffre, très variable selon les métiers, révèle une "appétence", il représente aussi un "risque" dans la mesure où "aucun agent conversationnel grand public n'est aujourd'hui souverain et sécurisé". Et si les synthèses du droit en vigueur sont peu sensibles, il en va tout autrement pour le traitement par l'IA de données de justiciables.
Les systèmes d'IA servant à élaborer des décisions de justice relèvent du reste des "IA à haut risque" au sens du règlement européen sur l'IA et seront soumises à une certification. Dans ce domaine, le ministère souhaite disposer de sa propre solution d'IA, en s'appuyant sur des IA open source, avec un hébergement dans un cloud certifié SecNumCloud à l'abri des lois extraterritoriales. Il aspire même à ne dépendre d'aucun éditeur en développant ses propres solutions d'IA sur une infrastructure maitrisée de bout en bout. Cela suppose cependant que des moyens adéquats soient affectés à ce projet.
Pour les IA juridiques ne relevant pas des IA à haut risque (sans transmission de données procédurales), la mission suggère d'encadrer l'écosystème privé en créant un label "IA digne de confiance en Justice". Ce label viserait à signaler les solutions de la Legal tech respectant des "principes directeurs éthiques" et apportant des "garanties appropriées" en matière de sécurité des données, de prévention des biais algorithmiques et de cybersécurité. Un label qui pourra faciliter les achats des collectivités territoriales.