Durant cet entretien, d’une durée de 39 minutes (environ), Jean Lassègue explique pourquoi et comment depuis 2010, le développement de l’IA a réactivé l’utilisation à grande échelle du formalisme mathématique et plus précisément des statistiques pour traiter des masses de données dans le domaine du droit afin de modéliser des comportements, des actions pour les automatiser voire pour les anticiper.
Il précise aussi que cette volonté de rationaliser, de mathématiser le droit n’est pas nouvelle. Le premier a y penser étant Leibniz (philosophe, mathématicien et juriste allemand). Dans les années 1670, le philosophe construit un système rationnel algébrique (et même algorithmique) pour pouvoir à partir de ce calcul faire des prédictions. Il propose de transposer ce modèle au droit et de créer ainsi un système juridique où le juge n’aurait plus qu’ à appliquer des règles et n’aurait plus de liberté d’interprétation... de là à dire que ce projet serait l’ancêtre de la justice prédictive actuelle, il n’y a qu’un pas...
Mais cette mathématisation du droit pose la problématique de l’écriture codée du droit qui entraîne une incapacité pour tous de pouvoir la déchiffrer librement, ce qui s’oppose de ce fait à l’idée de l’accessibilité du droit à tous.
De même, l’usage des statistiques dans le système juridique a une incidence sur la notion de l’égalité et la sur la fonction de juger. C’est au droit de juger et non pas aux statistiques...
Aussi, le droit et les mathématiques arriveront-ils au XXIème siècle entretenir des relations amies ?
Pour prendre connaissance de cet entretien enrichissant dans son intégralité cliquez sur l’image ci-dessous :