Village de la Justice : La réflexion autour de l’IA ne s’inscrit-elle pas dans la continuité notamment des réflexions autour de l’open data ?
- Sandrine Zientara
Sandrine Zientara : « Si, tout à fait. Quand la mission de l’Open Data nous a été confiée, il a fallu trouver des solutions pour la pseudonymisation des décisions de justice. Cela nous a poussé, depuis 2019, à travailler avec l’IA et nous avons conçu un logiciel pour pseudonymiser une grande masse de décisions de manière automatisée.
Un laboratoire d’innovation a été crée, composé notamment de data scientists (et au total de 10 personnes aujourd’hui). Ce laboratoire était pionnier en matière d’IA appliquée aux décisions de justice, et cela nous a permis une certaine avance sur les autres juridictions qui n’avaient pas cette mission Open data, et également à l’échelle européenne (nous recevons d’ailleurs souvent des délégations européennes pour leur montrer notre travail).
Finalement, nous étions habitués à travailler entre juristes et scientifiques sur ces questions.
En dehors de l’Open data, nous avons également d’ores et déjà réalisé un projet : celui de la pré-orientation des dossiers, assistée par IA.
Et nous avions aussi travaillé avec l’INRIA sur les similarités et les divergences de jurisprudences.
Cela étant, comme tout le monde, nous avons pris de plein fouet cette révolution qualifiée par certains d’"anthropologique", notamment avec l’IA générative. »
V.J : Le rapport est dense et technique : pourriez-vous en dégager quelques grandes idées qui intéressent les justiciables eux-mêmes, en indiquant ce que souhaite et ce que ne souhaite pas (pour eux) la Cour de cassation en matière d’IA ?
S.Z : « Ce rapport est le fruit de la réflexion sur l’usage de l’IA à la Cour de cassation, donc cela n’intéresse pas forcément tous les justiciables. Pour autant, nos réflexions peuvent intéresser l’ensemble des juridictions et de ce fait concerne un plus grand nombre.
Ce qu’il faut retenir, pour le justiciable, c’est que la démarche de la Cour en matière d’IA est très prudente, ni technophile ni technophobe. Nous avons réfléchi à des critères d’évaluation des projets d’IA susceptibles d’être conduits en donnant la priorité aux critères éthiques, en s’inspirant de la charte éthique de l’IA de la CEPEJ.
Conséquences concrètes pour le justiciable : nous avons toujours, dans le développement des projets IA, le souci du respect des droits fondamentaux (accès au juge, principe du contradictoire, etc.)
Cela signifie aussi :
que nous veillons à la maîtrise de la qualité et la sécurité des algorithmes. Cela se traduit notamment par le fait que nous utilisons une IA dont le développement est internalisé.
que nous insistons sur la maîtrise humaine de l’IA, ce qui signifie qu’il y a une intervention humaine à toutes les étapes du processus décisionnel, et que l’IA n’est qu’une aide ponctuelle et voulue, à la demande et sous le contrôle du magistrat.
Je vous donne un exemple concret : on ne demande pas à l’IA de faire un résumé du dossier traité (le risque étant que l’IA décide, elle, de ce qui est important ou non dans un dossier). En revanche, on peut lui demander de rechercher, par exemple, les dires de tel témoin, et les différences entre ses différents témoignages.
Vous voyez, nous sommes très loin du fameux mythe du juge-robot : l’IA reste une aide, mais elle ne substitue pas le juge dans la prise de décision.
Un autre point qui peut avoir du sens pour les citoyens justiciables, toujours dans le cadre du critère éthique : nous sommes attentifs à la frugalité des algorithmes et au coût environnemental de l’utilisation de l’IA. Par exemple, nous préconisons le développement d’IA entraînées sur un nombre de données limité, nécessitant une puissance de calcul plus faible. Et évidemment ce sont nos propres systèmes d’IA : nous n’utilisons pas d’IA autre que celle maîtrisée par la Cour. »
V.J : Quel est, s’il ne fallait en retenir qu’un, le gain principal de l’IA pour une juridiction comme la Cour de cassation, et pour les justiciables ?
S.Z : « Le juge du fond, lui, va pouvoir se dégager du temps sur certaines tâches pour avoir par exemple plus de temps d’audience, du temps d’écoute du justiciable. À la Cour de cassation, les justiciables sont rarement présents à l’audience, s’agissant d’une procédure écrite. Mais en revanche, cela va permettre au juge de consacrer plus de temps aux affaires les plus complexes, d’enrichir sa réflexion, d’accroître la qualité des décisions.
Concrètement, le juge de cassation peut faire appel :
à l’IA documentaire. Il va notamment pouvoir mieux connaitre la jurisprudence des juridictions du fond, puisque l’IA permet d’appréhender de grandes masses de décisions, et de repérer les divergences de jurisprudence, notamment entre juges du fond. Cela va dans le sens de l’égalité des traitements des justiciables.
L’utilisation de l’IA peut permettre aussi d’identifier des connexités entre dossiers qui posent notamment de nouvelles questions, et d’organiser des audiences thématiques par exemple pour envisager un problème juridique dans sa globalité.
à l’IA pour l’aide à la rédaction : cela peut permettre de trouver plus rapidement des formules de rédaction, d’automatiser la vérification des normes de saisies et d’améliorer le traitement des litiges "sériels" (même type de litige en série), pour gagner en célérité et éviter d’éventuelles erreurs. »
V.J : Et le risque principal ?
S.Z : « C’est celui, à mon sens, à la Cour de cassation, de l’appauvrissement du raisonnement juridique, en créant une jurisprudence "figée", le risque de ne plus voir la jurisprudence s’adapter à la société. L’IA raisonne, si tant est qu’elle raisonne, uniquement à partir des précédents. Or c’est important, mais cela ne couvre pas tout notre rôle qui est aussi de garantir la vitalité de la jurisprudence.
C’est la raison pour laquelle la Cour propose d’avancer avec prudence et d’évaluer de bout en bout ce qui est fait, pour s’assurer qu’on n’encourt pas ces risques-là. Nous avons donc créé une méthodologie d’évaluation et préconisé la création d’un comité de suivi, avec des spécialistes (de la science technologique et des sciences humaines), pour avoir toujours un regard sur ces risques et sur la prise de décision en matière d’IA. »
V.J : Qu’appelez-vous de vos vœux en matière d’IA et de formation des magistrats ?
S.Z : « C’est évidemment essentiel. Il faut des formations pratiques (par exemple apprendre à prompter) et des formations sur la technologie, pour comprendre comment l’IA fonctionne et quelles sont ses limites.
Il faut enfin des formations déontologiques pour que les magistrats se sentent "contraints" dans la façon de l’utiliser (par exemple en fonction d’une charte éthique).
Cela étant, il ne faut pas oublier la formation classique du juriste, une formation humaniste, qui permettra de questionner l’utilisation de l’IA et évidemment aussi une formation juridique. Un juriste augmenté est d’abord un juriste ! »