
Sommaire de la conférence.
Contexte et nécessité de l’IA.
Le ministère de la Justice couvre les juridictions, la pénitentiaire et la protection judiciaire de la jeunesse, soit 90 000 agents au total.
L’IA est déjà une réalité dans l’institution judiciaire, comme le montre une étude de 2024 portant sur 96 pays, indiquant qu’un grand nombre d’acteurs de la justice utilisent déjà l’IA générative. Les agents du ministère ont rapidement compris le potentiel de l’IA pour leurs métiers, notamment dans l’analyse documentaire, la rédaction, et la recherche d’information, offrant :
des gains de temps ;
l’automatisation des tâches répétitives.
Cependant, l’utilisation non encadrée de l’IA pose des difficultés, principalement le problème du shadow IA. Les usages existants se font sur des outils grand public, exposant les données sensibles de la justice et soulevant des questions de souveraineté. Fournir des outils adaptés est donc crucial pour éviter les usages cachés, non partagés et non accompagnés, qui augmentent les biais.
Cadre stratégique du Ministère.
Face aux contraintes (sécurité, déontologie, contexte technique et budgétaire), une mission d’accélération a été lancée début 2025 par le Ministère. Cette mission a abouti à un rapport public de 60 pages, remis le 23 juin au Ministre de la Justice, qui sert de cadre pour la stratégie actuelle.
Cette stratégie repose sur trois grands axes :
1. La souveraineté.
2. Démocratiser l’intelligence artificielle pour la très grande majorité des agents.
3. Accompagner (formation, sensibilisation, anticipation des impacts).

Identification des cas d’usage.
Un travail de cartographie des cas d’usage a été mené auprès de l’ensemble du ministère. Les besoins identifiés sont souvent transversaux et concernent principalement la gestion et l’analyse de documents, la traduction, la retranscription et l’anonymisation.
L’analyse technique a montré que plus de la moitié des cas d’usage pourraient reposer sur un LLM.
Pour cette raison, priorité est donnée à la construction d’un assistant IA souverain et sécurisé, équivalent aux outils grand public mais conforme aux exigences du ministère. Cette initiative stratégique aligne le ministère sur d’autres ministères (Transition Écologique, Armées, Intérieur) qui ont commencé par un usage large de l’IA générative. Le ministère collabore avec la DINUM et Mistral, et fera partie des 10 000 agents publics testeurs de cette solution (campagne lancée la veille de la conférence).
Deux projets concrets ont été lancés en collaboration avec la Cour d’appel de Paris :
1. L’investigation des besoins des magistrats civilistes (tests de résumé de conclusion, rédaction d’exposé du litige).
2. Le développement de l’outil « mon assistant pénal », qui vise à faciliter la synthèse de procédure pénale, avec une première version prévue pour le début 2026.

Formation et principes éthiques.
La formation est un élément essentiel pour l’appropriation de l’IA et l’accompagnement des agents.
Cinq grands principes ont été fixés pour guider l’utilisation et le développement de l’IA :
1. Souveraineté : utilisation d’un hébergement souverain (Cloud ou SecNum Cloud) pour les données sensibles.
2. Maîtrise : maintenir l’« humain dans la boucle » (human in the loop) ; l’IA ne doit jamais se substituer à la décision humaine.
3. Esprit critique : nécessité pour les agents de vérifier les sources et la cohérence des résultats pour se prémunir des erreurs ou des hallucinations des LLM.
4. Sobriété : utiliser l’IA seulement quand c’est strictement nécessaire, compte tenu de son coût écologique (une requête peut consommer 4 à 5 fois plus qu’une recherche Google).
5. Transparence : sur le développement des systèmes par le ministère (explicabilité) et sur l’utilisation des systèmes d’IA par les agents.

En conclusion, Alexandre de Bosschère revient sur le caractère expérimental et terrain des développements, ainsi que sur la transparence de la stratégie (rapport public, interventions ouvertes). Cette transparence permet à l’ensemble de l’écosystème (professionnels du droit, legaltech) de comprendre les contraintes posées et de s’aligner collectivement vers une IA respectueuse de l’éthique et des justiciables.


