Par Sylvia Goudenege-Chauvin, Avocat.
 
  • 1203 lectures
  • 1re Parution: 27 janvier 2022

  • 4.67  /5
Guide de lecture.
 

Dommages corporels et justice prédictive : un amour impossible ?

Alors que le Conseil d’État a validé, dans une décision du 30 décembre 2021, l’algorithme d’évaluation des préjudices corporels « Data Just » instauré par le décret n°2020-356 du 27 mars 2020, et que ce modèle d’intelligence artificielle devait officiellement entrer en vigueur en mars 2022, le projet pourrait être stoppé net face à l’impossibilité de prendre en compte toutes les données nécessaires à la mise en place d’un algorithme fiable.

L’amour n’aura peut-être même pas duré deux ans avant que le Ministère de la Justice renonce devant la complexité de la tâche visant à créer un référentiel indicatif d’indemnisation des préjudices corporels piloté par une intelligence artificielle.

Si le Ministère de la Justice n’a pas encore confirmé l’arrêt de Data Just, la rumeur enfle.

L’Être humain aurait peut-être encore de beaux jours devant lui, et avec lui, les professionnels du droit… ?

I- Une incompatibilité éthique ?

Alors qu’aucune réforme ne devait intervenir pendant la période d’urgence sanitaire en France, quelques jours après l’instauration du premier confinement, un texte réglementaire était venu ébranler la communauté juridique attachée à la question de la réparation et l’indemnisation des dommages corporels.

En effet, le décret n°2020-356 du 27 mars 2020 autorisait pendant 2 années, le ministère de la Justice, à mettre en place un traitement des données personnelles issues de décisions de justice administratives et judiciaires compilées depuis le 1er janvier 2017 jusqu’au 31 décembre 2019, pour développer un algorithme permettant notamment de générer un référentiel indicatif d’indemnisation des préjudices corporels.

L’objectif était ainsi de recenser les montants demandés et offerts par les parties, les évaluations proposées dans le cadre des procédures de règlement des litiges et les montants alloués aux victimes pour chaque type de préjudice.

Cet algorithme était également destiné à l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges.

Déjà annoncé depuis la loi du 7 octobre 2016 (dit loi Lemaire) prévoyant l’Open Data de toutes les décisions de justice rendues par les juridictions, ce texte n’en demeurait pas moins « tombé » soudainement « du ciel » tant avait été prévue, initialement, une concertation, avant la parution d’un quelconque texte, avec le Conseil National des Barreaux et les associations de Victimes, concertation qui n’avait nullement eu lieu.

De plus, les inquiétudes étaient majeures quant aux garanties contenues par le décret du 29 mars 2020.

Notamment, ce décret permettait au Ministère de la Justice d’extraire des données personnelles concernant la réparation de préjudices corporels et qui touchent nécessairement à l’intime (santé, sexualité, voir religion des justiciables…) sans que les principaux concernés ne puissent venir s’y opposer ou opposer un contrôle effectif sur le retraitement de leurs données, et ce également en totale contradiction avec la garantie issue du RGPD.

En outre, et alors que le Conseil de l’Europe a adopté le 4 décembre 2018 une « Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement », aucun des principes énoncés, notamment celui de transparence, n’était respecté par le décret du 27 mars 2020 puisque toutes les décisions de justice qui émanent au judiciaire de Jurica et à l’administratif de Ariane, ne sont pas librement accessibles.

Or, sans le respect de cette transparence, aucun contrôle possible. Et sans ce contrôle, c’était demain un algorithme basé sur des traitements de données opaques qui allait être mis à jour pour venir sceller le sort de milliers de justiciables.

Ce texte avait donc émergé dans un contexte flou, avec un manque d’assise légale manifeste, mais le Conseil d’Etat avait déjà refusé de suspendre, le 26 mai 2020, son application, estimant que l’autorisation de développer cet algorithme n’étant donné que pour 2 ans, il ne s’agissait que d’un processus purement expérimental et nullement d’autoriser définitivement la mise en œuvre de cet algorithme.

Si l’objectif poursuivi par ce décret du 27 mars 2020 était une volonté d’égalité et de rationalisation, le danger manifeste d’un tel processus était le passage d’une reconnaissance personnalisée et individualisée de dommages subis, à une évaluation purement mathématique et générale où l’illusion d’une meilleure information des victimes et d’un possible règlement amiable quasi-systématique avec assurances ou fonds de garantis apparaissaient comme de véritables leurres.

Pourtant, le Conseil d’Etat dans une décision du 30 décembre 2021 a rejeté les requêtes déposées par plusieurs associations de victimes et avocats et visant à annuler pour excès de pouvoir ce décret retenant notamment que le traitement des données prévu était nécessaire à l’exécution d’une mission d’intérêt public ou relevant de l’exercice de l’autorité publique et qu’il était proportionné.

Malgré cette décision, il semblerait que Data Just ne dépassera pas le stade de l’expérimentation, après deux années, comme cela avait été prévu, en mars 2022, puisque la Chancellerie aurait stoppé le projet face à la complexité de la mise en place de cette justice prédictive.

Cette information reste cependant à nuancer, tant que la Chancellerie n’aura pas officialisé cet arrêt de Data Just.

II- Une impossibilité technique ?

L’objectif avancé de Data Just était de permettre une harmonisation des décisions.
Il peut à première vue sembler effectivement étrange pour un justiciable de voir qu’une juridiction de Nice va accorder deux fois plus, par exemple, pour un poste de préjudice que la juridiction parisienne, ou deux fois moins qu’une autre juridiction française.

Mais c’est cependant occulter le principe d’individualisation de la réparation des préjudices corporels, qui suppose que chaque cas doit être étudié individuellement et « in concreto » et que l’indemnisation de l’un ne sera pas nécessairement celle de l’autre, compte tenu de son histoire personnelle, de son parcours ou de son environnement.

De plus, rappelons que le Décret du 27 mars 2020 prévoyait une étude de toutes les décisions administratives et judiciaires du 1er janvier 2017 au 31 décembre 2019, pour venir ensuite alimenter la base de données devant servir à la mise en place de l’algorithme.

Or, il n’est un mystère pour personne que les juridictions administratives et judiciaires n’indemnisent nullement de la même façon, les juridictions administratives ayant une indemnisation bien en deçà des juridictions judiciaires.

En outre, le fait de ne se baser que sur des décisions rendues au plus tard le 31 décembre 2019, risquait de priver cette compilation de données des dernières avancées jurisprudentielles, surtout quand on sait à quel point cette matière est mouvante et en perpétuelle évolution.

Enfin, il semblerait que seules les décisions d’appel aient été analysées dans le cadre de l’expérimentation des deux années écoulées, biaisant un peu plus les éventuelles données qui ont émané de ces travaux de jurimétrie.

En tout état de cause, il semblerait que ce soit finalement la complexité même du projet qui soit venue sonner la fin de la récrée pour Data Just.

La cause semblerait être une trop grande source de données à prendre en compte, et l’absence d’analyses des décisions de 1ère instance, pour assurer la fiabilité du processus d’IA (intelligence artificielle).

En effet, la gestion des dossiers de dommages corporels suppose la prise en considération d’un nombre considérable de paramètres, tous plus subtiles les uns que les autres, et qui semble avoir mis à mal le projet Data Just.

Comme tout processus d’IA, il suppose un panel de données restreints à analyser pour éviter le phénomène de « corrélations fallacieuses », qui conduit à connecter des données entre elles, dans une apparence de cohérence, sans que cette cohérence soit finalement réelle et fiable mais plus liée au hasard.

C’était donc particulièrement inquiétant de laisser le hasard gouverner ce qui devait ensuite servir de soutien pour la prise de décisions judiciaires.

L’algorithme de Data Just ne verra donc peut-être pas le jour.

Ainsi, ce serait pour l’instant encore, une « victoire de l’Homme sur la Machine », et les professionnels du Droit pourraient, si réellement Data Just est abandonné, souffler un temps… jusqu’à la prochaine expérimentation.

Références / biblio.

- Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust ».
- Conseil d’État, 26/05/2020, 440378.
- Ariane Web : Conseil d’État 440376, lecture du 30 décembre 2021, ECLI:FR:CECHR:2021:440376.20211230.
- Conseil de l’Europe - Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires.
- Acteurspublics : article rédigé par Emile Marzolf le 14 janvier 2022, « Exclusif : le ministère de la Justice renonce à son algorithme DataJust ».

Sylvia Goudenege Chauvin
Avocat au Barreau d’Agen
www.martial-rlgc.fr

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

15 votes

A lire aussi dans la même rubrique :

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit, certifié 4e site Pro en France: Avocats, juristes, fiscalistes, notaires, huissiers, magistrats, RH, paralegals, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 148 780 membres, 22913 articles, 126 510 messages sur les forums, 5 000 annonces d'emploi et stage... et 2 000 000 visites du site par mois en moyenne. *


FOCUS SUR >

Le Tote-Bag de la Rédac' du Village pour les étudiants en Droit [Spécial orientation].

A LIRE AUSSI >

[Finalistes Prix de l'innovation] "DJTal, la transformation numérique au service de la DJ" à l'UGAP.




LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs