L’aura qui entoure l’intelligence artificielle, et donc également la justice prédictive, alimente en nous tant de craintes et d’espoirs, que nos sens sembleraient presque enivrés.
Les plus timorés auraient le sentiment que l’heure est grave, qu’un avenir sans juge ni avocat approche à grands pas. Dans un tel scénario, les prétoires seraient bientôt occupés par des robots « intelligents » en lieu et place des juges.
Les plus optimistes, au contraire, y voient une chance à saisir, en mettant au défi ceux qui, pour des raisons qui sans doute nous échappent, ne souhaiteraient pas avoir une justice plus efficace, plus rapide, peu coûteuse et pourquoi pas plus équitable.
Or, d’un côté comme de l’autre, une telle démarche ne peut qu’être symptomatique d’un certain égarement intellectuel.
I. L’état des lieux de l’intelligence artificielle et de la justice prédictive.
Dans un contexte où l’on parle de plus en plus d’intelligence artificielle, de révolution du numérique, de justice prédictive et des risques qui sont rattachés à l’emploi, un état des lieux s’impose.
Tout d’abord, force est de constater que cet engouement découle d’un usage de plus en plus fréquent des expressions telles que « legal tech », « justice prédictive » et plus encore « intelligence artificielle ». On relève, hélas, un usage immodéré, pour ne pas dire abusif de ces expressions.
Ensuite, ces expressions, de plus en plus galvaudées depuis les années 2015-2016 [1], interrogent quant à l’impact réel de la « révolution numérique » sur les métiers du droit et sur le contentieux judiciaire et extra-judiciaire dans son ensemble.
A. L’intelligence artificielle en Europe.
Le 4 décembre 2018, la Commission européenne pour l’efficacité de la justice (CEPEJ) a adopté, à Strasbourg, la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement en vue d’améliorer l’efficacité et la qualité du travail des tribunaux.
En France, la loi pour une République numérique n°2016-1321 du 7 octobre 2016 permet désormais d’accéder librement et gratuitement à l’ensemble des décisions rendues par les juridictions françaises.
Cette loi a vocation à : « donner une longueur d’avance à la France dans le domaine du numérique en favorisant une politique d’ouverture des données et des connaissances » et « adopter une approche progressiste du numérique, qui s’appuie sur les individus, pour renforcer leur pouvoir d’agir et leurs droits dans le monde numérique » [2].
La naissance de l’intelligence artificielle remonte à la conférence de Dartmouth en 1956 [3]. A cette occasion, la vision de l’intelligence artificielle de John McCarthy comme étant un « résolveur de problèmes universel » a fini par primer.
Le terme « intelligence artificielle » (IA), est donc créé par John McCarthy, mais défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique » [4]. L’intelligence artificielle n’est donc pas une technique spécifique et facilement identifiable, mais regroupe un large éventail de méthodes et d’outils informatiques.
A ce titre, nombreuses ont été les publications qui ont tenté d’en illustrer les enjeux et certains dangers prétendument imminents. On y compte notamment la publication The Future of the Professions : How Technology Will Transform the Work of Human Experts [5] en octobre 2015, ou encore Robots in Law : How Artificial Intelligence is Transforming Legal Services de la journaliste britannique Joanna Goodman en novembre 2016.
B. Les legal tech et les cabinets d’avocats.
Les sociétés travaillant sur l’application des dernières technologies informatiques au droit sont communément appelées les « legal tech ». Les legal tech proposent de nombreux services et produits, qui portent notamment sur : la justice prédictive [6], le financement de contentieux (third-party litigation funding), les plateformes d’actions collectives, la génération automatisée de documents juridiques dynamiques, l’édition de logiciels spécialisés, la résolution de litiges non contentieux en ligne, les procédures d’arbitrage en ligne, les outils de recherche juridique, les procédures de divorce en ligne, la signature électronique, la certification de documents (grâce notamment à la technologie blockchain), la réalisation de formalités et de dépôts en ligne (ex. acte introductif d’instance), la programmation de contrats intelligents (smart contracts).
En France, à l’heure actuelle, les plus connus sont au nombre de quatre : Predictice,Case Law Analytics, Legalmetrics de Lexbase, JuriPredis.
Il est vrai que depuis l’année 2017, plusieurs cabinets d’avocats semblent intéressés par Predictice et en testent l’application. C’est le cas notamment de certains cabinets d’avocats tels que Châtain & Associés, et Taylor Wessing. Dans la même optique, les cabinets d’avocats tels que Linklaters, Clifford Chance, Allen & Overy, DLA Piper, Freshfields et Latham & Watkins ont adopté Kira Systems, un logiciel d’audit de contrats de cession d’actions/parts de société [7].
Ceci dit, il serait hasardeux d’en tirer des conclusions hâtives dans la mesure où le succès réel des legal tech et des outils qu’ils proposent est sujet à caution.
C. La « justice prédictive ».
Le rapport Cadiet, remis en 2017 à la Chancellerie, qualifie de justice prédictive l’« ensemble d’instruments développés grâce à l’analyse de grandes masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige » [8].
La justice prédictive est donc composée à la fois du Big Data (l’ensemble des données légales et jurisprudentielles) et de logiciels d’analyse sémantique qui indiquent la solution probable en fonction des mots employés par les juges et les parties dans leurs écrits.
A cet égard, Predictice et Case Law Analytics permettraient de prédire les chances de succès d’une action judiciaire, et partant d’optimiser les stratégies contentieuses des avocats [9].
Or, cet objectif, pour séduisant qu’il soit, semblerait néanmoins hors d’atteinte. En témoignent les résultats du test d’application de ces outils au sein des deux cours d’appel de Rennes et Douai qui s’est terminé début octobre 2017.
A cet égard, les magistrats ont fini par refuser d’adopter Predictice, estimant que malgré sa « modernité », il méritait d’être sensiblement amélioré.
A ce sujet, le communiqué précise qu’il « ne présentait pas en l’état de plus-value pour les magistrats, qui disposent déjà d’outils de grande qualité d’analyse de la jurisprudence de la Cour de cassation et des cours d’appel » [10].
Ainsi, le premier président de la Cour d’appel de Rennes, Xavier Ronsin, considérait que les résultats livrés étaient trop aléatoires [11].
Dans une interview, il faisait état des défauts de l’outil : « On se situe plus dans un projet d’approche statistique et quantitative que qualitative. Parfois, les résultats peuvent même être aberrants. [...] Le logiciel ne s’intéresse qu’au dispositif d’une décision de justice. L’algorithme ne sait pas lire toutes les subtilités de la motivation, surtout lorsque la décision est complexe » [12].
II. Mythes et limites de l’intelligence artificielle et de la justice prédictive.
En réalité, ces outils informatiques n’ont pas la capacité de s’adapter aux situations imprévues et leur utilisation montre une absence de réflexion et d’autoévaluation [13]
C’est pourquoi les spécialistes qualifient l’intelligence artificielle de « faible » (ou "weak AI"). Il s’agirait en effet d’une imitation d’une fonction étroite typiquement humaine afin de la rendre plus performante. Or, dans le domaine du contentieux, il n’existe pas pour l’heure d’intelligence artificielle « forte », dotée de conscience, de sensibilité et d’esprit propres à l’être humain.
A. L’intelligence artificielle « faible ».
Il convient donc de démystifier les attentes fantaisistes de ceux qui cultivent une certaine déférence à l’égard de l’intelligence artificielle. En effet, il s’avère que tous les systèmes d’intelligence artificielle actuellement existants sont considérés comme étant « faibles ».
Ainsi, Antonio Damasio, le neuroscientifique directeur du Brain and Creativity Institute à Los Angeles [14], reste assez sceptique quant à ce qu’on appelle intelligence « forte » en raison de la nature émotionnelle et physiologique du cerveau et des processus cognitifs de l’être humain [15].
Dans la même veine, le philosophe français Pierre Lévy estime qu’ « il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité » [16].
Or, si l’intelligence artificielle peut prospérer dans une certaine mesure, elle ne saurait néanmoins honorer des promesses fantaisistes, au regard du nombre significatif des défauts qu’elle présente.
Tout d’abord, elle n’est pas suffisamment performante en raison des résultats aléatoires et biaisés qu’elle produit [17] qui ne sont pas pour l’heure bien maîtrisés.
Ensuite, le principe de confidentialité des données lui fait largement défaut, les données n’étant pas cryptées de bout en bout.
Qui plus est, elle induit une certaine dépendance des personnes qui l’utilisent. Elle ne peut que recueillir un faible degré d’adhésion par la société (jusqu’où peut-on faire confiance à des robots ?). Elle n’est pas à même de prévoir les revirements de jurisprudence. Elle n’est pas capable d’évaluer le mobile ainsi que les circonstances atténuantes.
Enfin, elle peut conduire vraisemblablement à une possible « fainéantisation » des professionnels du droit, et partant à la réalisation d’un travail bâclé. C’est d’ailleurs l’avis d’un avocat Me Navy qui affirme qu’ : « On vient me voir avec un problème, je tape sur le logiciel, j’ai 90% de chances de le perdre, donc je ne prends pas le dossier alors qu’en s’y penchant bien, je pourrais soulever un point particulier et gagner » [18]
B. Le droit c’est le droit.
Certes, les outils fournis par les legal tech faciliteront la recherche et la veille juridique, en automatisant les tâches répétitives. Cependant, on ne saurait parler de véritable « révolution » pour les professions juridiques. A ce sujet, le bâtonnier de l’Ordre des avocats au Barreau de Lille a dû convaincre ses collègues du bien-fondé du scepticisme ambiant « il faut tuer tout de suite le fantasme, ça ne remplacera pas les avocats dont les analyses ne peuvent être automatisées » [19].
Le rapport du Conseil de l’orientation de l’emploi (ci-après « COE ») [20], indique à ce sujet que moins de 10% des emplois sont "très exposés" aux mutations technologiques et présentent donc le risque d’être supprimés, mais près de la moitié des emplois devront toutefois évoluer [21] . Or, les emplois juridiques évoqués ne figurent pas dans la liste des 10% du COE.
Xavier Ronsin, Premier président de la Cour d’appel de Rennes n’est de surcroît pas convaincu des avantages que ferait miroiter la justice prédictive. En réalité, le défaut de sophistication de l’analyse judiciaire par un robot fait obstacle à l’aboutissement d’un résultat véritablement concluant. A ce propos, il est d’avis que : « C’est une opération complexe que la motivation intellectuelle d’un juge, une opération subtile qui s’articule à un raisonnement et non à une simple corrélation d’items factuels » [22]
Dans la même veine, le magistrat Yannick Meneceur, détaché auprès du Conseil de l’Europe, affirme que : « la forte évolutivité des règles juridiques constitue en elle-même une limite technique pour les algorithmes. Car les règles juridiques n’évoluent pas de façon linéaire comme dans les sciences dures, où une nouvelle règle vient compléter la précédente sans nécessairement l’invalider. Dans les systèmes de droit continental, il suffit que le texte fondamental change pour que la jurisprudence qui était fondée dessus se trouve écartée » [23].
Enfin, comme le rappelle, le consultant Bruno Mathis, « la justice prédictive est inutile pour estimer des dommages-intérêts obéissant à un barème [...] et où la justice prédictive sera-t-elle la plus utile ? Dans la masse des décisions qui ne sont ni trop spécifiques ni trop communes. » [24]
Pourtant, sous couvert de vertus prétendument divinatoires, les legal tech se livrent à un embellissement de la réalité qui nous plonge aussitôt dans un scénario digne d’un film de science-fiction. Dans ce contexte, la force incantatoire du jus ex machina, loin de libérer l’Homme, semble plutôt neutraliser sa capacité de discernement.