Village de la Justice www.village-justice.com

Mythes et réalités de l’intelligence artificielle et de la justice prédictive. Par Dario Onana, Juriste.
Parution : lundi 24 juin 2019
Adresse de l'article original :
https://www.village-justice.com/articles/mythes-realites-intelligence-artificielle-justice-predictive-par-dario-onana,31852.html
Reproduction interdite sans autorisation de l'auteur.

A l’heure où les effets d’annonce sont légion et particulièrement suggestifs, l’engouement démesuré semble prévaloir sur une objectivité froide et dépassionnée. Il apparaît donc opportun de revenir sur la réalité de l’intelligence artificielle et de la justice prédictive telle qu’elle se présente à nous et non telle que nous la percevons.

L’aura qui entoure l’intelligence artificielle, et donc également la justice prédictive, alimente en nous tant de craintes et d’espoirs, que nos sens sembleraient presque enivrés.
Les plus timorés auraient le sentiment que l’heure est grave, qu’un avenir sans juge ni avocat approche à grands pas. Dans un tel scénario, les prétoires seraient bientôt occupés par des robots « intelligents » en lieu et place des juges.
Les plus optimistes, au contraire, y voient une chance à saisir, en mettant au défi ceux qui, pour des raisons qui sans doute nous échappent, ne souhaiteraient pas avoir une justice plus efficace, plus rapide, peu coûteuse et pourquoi pas plus équitable.
Or, d’un côté comme de l’autre, une telle démarche ne peut qu’être symptomatique d’un certain égarement intellectuel.

I. L’état des lieux de l’intelligence artificielle et de la justice prédictive.

Dans un contexte où l’on parle de plus en plus d’intelligence artificielle, de révolution du numérique, de justice prédictive et des risques qui sont rattachés à l’emploi, un état des lieux s’impose.

Tout d’abord, force est de constater que cet engouement découle d’un usage de plus en plus fréquent des expressions telles que « legal tech », « justice prédictive » et plus encore « intelligence artificielle ». On relève, hélas, un usage immodéré, pour ne pas dire abusif de ces expressions.

Ensuite, ces expressions, de plus en plus galvaudées depuis les années 2015-2016 [1], interrogent quant à l’impact réel de la « révolution numérique » sur les métiers du droit et sur le contentieux judiciaire et extra-judiciaire dans son ensemble.

A. L’intelligence artificielle en Europe.

Le 4 décembre 2018, la Commission européenne pour l’efficacité de la justice (CEPEJ) a adopté, à Strasbourg, la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement en vue d’améliorer l’efficacité et la qualité du travail des tribunaux.

En France, la loi pour une République numérique n°2016-1321 du 7 octobre 2016 permet désormais d’accéder librement et gratuitement à l’ensemble des décisions rendues par les juridictions françaises.
Cette loi a vocation à : « donner une longueur d’avance à la France dans le domaine du numérique en favorisant une politique d’ouverture des données et des connaissances » et « adopter une approche progressiste du numérique, qui s’appuie sur les individus, pour renforcer leur pouvoir d’agir et leurs droits dans le monde numérique » [2].

La naissance de l’intelligence artificielle remonte à la conférence de Dartmouth en 1956 [3]. A cette occasion, la vision de l’intelligence artificielle de John McCarthy comme étant un « résolveur de problèmes universel » a fini par primer.

Le terme « intelligence artificielle » (IA), est donc créé par John McCarthy, mais défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique » [4]. L’intelligence artificielle n’est donc pas une technique spécifique et facilement identifiable, mais regroupe un large éventail de méthodes et d’outils informatiques.
A ce titre, nombreuses ont été les publications qui ont tenté d’en illustrer les enjeux et certains dangers prétendument imminents. On y compte notamment la publication The Future of the Professions : How Technology Will Transform the Work of Human Experts [5] en octobre 2015, ou encore Robots in Law : How Artificial Intelligence is Transforming Legal Services de la journaliste britannique Joanna Goodman en novembre 2016.

B. Les legal tech et les cabinets d’avocats.

Les sociétés travaillant sur l’application des dernières technologies informatiques au droit sont communément appelées les « legal tech ». Les legal tech proposent de nombreux services et produits, qui portent notamment sur : la justice prédictive [6], le financement de contentieux (third-party litigation funding), les plateformes d’actions collectives, la génération automatisée de documents juridiques dynamiques, l’édition de logiciels spécialisés, la résolution de litiges non contentieux en ligne, les procédures d’arbitrage en ligne, les outils de recherche juridique, les procédures de divorce en ligne, la signature électronique, la certification de documents (grâce notamment à la technologie blockchain), la réalisation de formalités et de dépôts en ligne (ex. acte introductif d’instance), la programmation de contrats intelligents (smart contracts).

En France, à l’heure actuelle, les plus connus sont au nombre de quatre : Predictice,Case Law Analytics, Legalmetrics de Lexbase, JuriPredis.
Il est vrai que depuis l’année 2017, plusieurs cabinets d’avocats semblent intéressés par Predictice et en testent l’application. C’est le cas notamment de certains cabinets d’avocats tels que Châtain & Associés, et Taylor Wessing. Dans la même optique, les cabinets d’avocats tels que Linklaters, Clifford Chance, Allen & Overy, DLA Piper, Freshfields et Latham & Watkins ont adopté Kira Systems, un logiciel d’audit de contrats de cession d’actions/parts de société [7].
Ceci dit, il serait hasardeux d’en tirer des conclusions hâtives dans la mesure où le succès réel des legal tech et des outils qu’ils proposent est sujet à caution.

C. La « justice prédictive ». 

Le rapport Cadiet, remis en 2017 à la Chancellerie, qualifie de justice prédictive l’« ensemble d’instruments développés grâce à l’analyse de grandes masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige » [8].
La justice prédictive est donc composée à la fois du Big Data (l’ensemble des données légales et jurisprudentielles) et de logiciels d’analyse sémantique qui indiquent la solution probable en fonction des mots employés par les juges et les parties dans leurs écrits.
A cet égard, Predictice et Case Law Analytics permettraient de prédire les chances de succès d’une action judiciaire, et partant d’optimiser les stratégies contentieuses des avocats [9].

Or, cet objectif, pour séduisant qu’il soit, semblerait néanmoins hors d’atteinte. En témoignent les résultats du test d’application de ces outils au sein des deux cours d’appel de Rennes et Douai qui s’est terminé début octobre 2017.
A cet égard, les magistrats ont fini par refuser d’adopter Predictice, estimant que malgré sa « modernité », il méritait d’être sensiblement amélioré.
A ce sujet, le communiqué précise qu’il « ne présentait pas en l’état de plus-value pour les magistrats, qui disposent déjà d’outils de grande qualité d’analyse de la jurisprudence de la Cour de cassation et des cours d’appel » [10].

Ainsi, le premier président de la Cour d’appel de Rennes, Xavier Ronsin, considérait que les résultats livrés étaient trop aléatoires [11].
Dans une interview, il faisait état des défauts de l’outil : « On se situe plus dans un projet d’approche statistique et quantitative que qualitative. Parfois, les résultats peuvent même être aberrants. [...] Le logiciel ne s’intéresse qu’au dispositif d’une décision de justice. L’algorithme ne sait pas lire toutes les subtilités de la motivation, surtout lorsque la décision est complexe » [12].

II. Mythes et limites de l’intelligence artificielle et de la justice prédictive.

En réalité, ces outils informatiques n’ont pas la capacité de s’adapter aux situations imprévues et leur utilisation montre une absence de réflexion et d’autoévaluation [13]
C’est pourquoi les spécialistes qualifient l’intelligence artificielle de « faible » (ou "weak AI"). Il s’agirait en effet d’une imitation d’une fonction étroite typiquement humaine afin de la rendre plus performante. Or, dans le domaine du contentieux, il n’existe pas pour l’heure d’intelligence artificielle « forte », dotée de conscience, de sensibilité et d’esprit propres à l’être humain.

A. L’intelligence artificielle « faible ».

Il convient donc de démystifier les attentes fantaisistes de ceux qui cultivent une certaine déférence à l’égard de l’intelligence artificielle. En effet, il s’avère que tous les systèmes d’intelligence artificielle actuellement existants sont considérés comme étant « faibles ».

Ainsi, Antonio Damasio, le neuroscientifique directeur du Brain and Creativity Institute à Los Angeles [14], reste assez sceptique quant à ce qu’on appelle intelligence « forte » en raison de la nature émotionnelle et physiologique du cerveau et des processus cognitifs de l’être humain [15].
Dans la même veine, le philosophe français Pierre Lévy estime qu’ « il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité » [16].

Or, si l’intelligence artificielle peut prospérer dans une certaine mesure, elle ne saurait néanmoins honorer des promesses fantaisistes, au regard du nombre significatif des défauts qu’elle présente.

Tout d’abord, elle n’est pas suffisamment performante en raison des résultats aléatoires et biaisés qu’elle produit [17] qui ne sont pas pour l’heure bien maîtrisés.

Ensuite, le principe de confidentialité des données lui fait largement défaut, les données n’étant pas cryptées de bout en bout.
Qui plus est, elle induit une certaine dépendance des personnes qui l’utilisent. Elle ne peut que recueillir un faible degré d’adhésion par la société (jusqu’où peut-on faire confiance à des robots ?). Elle n’est pas à même de prévoir les revirements de jurisprudence. Elle n’est pas capable d’évaluer le mobile ainsi que les circonstances atténuantes.

Enfin, elle peut conduire vraisemblablement à une possible « fainéantisation » des professionnels du droit, et partant à la réalisation d’un travail bâclé. C’est d’ailleurs l’avis d’un avocat Me Navy qui affirme qu’ : « On vient me voir avec un problème, je tape sur le logiciel, j’ai 90% de chances de le perdre, donc je ne prends pas le dossier alors qu’en s’y penchant bien, je pourrais soulever un point particulier et gagner » [18]

B. Le droit c’est le droit. 

Certes, les outils fournis par les legal tech faciliteront la recherche et la veille juridique, en automatisant les tâches répétitives. Cependant, on ne saurait parler de véritable « révolution » pour les professions juridiques. A ce sujet, le bâtonnier de l’Ordre des avocats au Barreau de Lille a dû convaincre ses collègues du bien-fondé du scepticisme ambiant « il faut tuer tout de suite le fantasme, ça ne remplacera pas les avocats dont les analyses ne peuvent être automatisées » [19].

Le rapport du Conseil de l’orientation de l’emploi (ci-après « COE ») [20], indique à ce sujet que moins de 10% des emplois sont "très exposés" aux mutations technologiques et présentent donc le risque d’être supprimés, mais près de la moitié des emplois devront toutefois évoluer [21] . Or, les emplois juridiques évoqués ne figurent pas dans la liste des 10% du COE.
Xavier Ronsin, Premier président de la Cour d’appel de Rennes n’est de surcroît pas convaincu des avantages que ferait miroiter la justice prédictive. En réalité, le défaut de sophistication de l’analyse judiciaire par un robot fait obstacle à l’aboutissement d’un résultat véritablement concluant. A ce propos, il est d’avis que : « C’est une opération complexe que la motivation intellectuelle d’un juge, une opération subtile qui s’articule à un raisonnement et non à une simple corrélation d’items factuels » [22]

Dans la même veine, le magistrat Yannick Meneceur, détaché auprès du Conseil de l’Europe, affirme que : « la forte évolutivité des règles juridiques constitue en elle-même une limite technique pour les algorithmes. Car les règles juridiques n’évoluent pas de façon linéaire comme dans les sciences dures, où une nouvelle règle vient compléter la précédente sans nécessairement l’invalider. Dans les systèmes de droit continental, il suffit que le texte fondamental change pour que la jurisprudence qui était fondée dessus se trouve écartée » [23].

Enfin, comme le rappelle, le consultant Bruno Mathis, « la justice prédictive est inutile pour estimer des dommages-intérêts obéissant à un barème [...] et où la justice prédictive sera-t-elle la plus utile ? Dans la masse des décisions qui ne sont ni trop spécifiques ni trop communes. » [24]

Pourtant, sous couvert de vertus prétendument divinatoires, les legal tech se livrent à un embellissement de la réalité qui nous plonge aussitôt dans un scénario digne d’un film de science-fiction. Dans ce contexte, la force incantatoire du jus ex machina, loin de libérer l’Homme, semble plutôt neutraliser sa capacité de discernement.

Dario Onana, Juriste

[1Voir Intelligence artificielle et enjeux juridiques, par Antoine Chéron, avocat, Village de la Justice, 3 avril 2018.

[2« Dossiers législatifs - Exposé des motifs - LOI n° 2016-1321 du 7 octobre 2016 pour une République numérique » [archive], sur www.legifrance.gouv.fr (consulté le 30 novembre 2017).

[3Organisée au Darmouth college par Marvin Minsky, John McCarthy et deux scientifiques seniors : Claude Shannon et Nathan Rochester d’IBM.

[4Mercier A., L’information face à l’intelligence artificielle : promesses et dangers, La revue des médias, 5 février 2018.

[5Richard Susskind et son fils Daniel : Le futur des professions libérales : comment les nouvelles technologies vont transformer le travail des experts humains, Oxford University Press, OUP.

[6Le calcul de probabilités concernant les décisions de justice - IA (très) faible

[7Quand le droit s’appropriera l’IA, Capital Finance, 17 septembre 2018. NB : on parle là des bureaux anglais et/ou américains de ces cabinets. En 2018, les bureaux français sont seulement en début de test ou d’adoption.

[8v. Dalloz actualité, 10 janv. 2017, art. M. Babonneau et T. Coustet

[9Hugo Bonnaffé, Predictice : grâce aux algorithmes, cette startup est capable de prédire l’issue d’une action en justice et d’optimiser les stratégies contentieuses des avocats, OVH News 7 juillet 2016.

[10Signoret P., Justice prédictive : les algorithmes ne sont pas prêts de remplacer les pros, 2 novembre 2017.

[11Xavier Ronsin : “Ce logiciel de justice prédictive ne nous apportait aucune plus-value”, interview par Soazig Le Nevé, Acteurs publics.com, 27 novembre 2017.

[12L’utilisation de l’outil Predictice déçoit la cour d’appel de Rennes, Dalloz, 16 octobre 2017.

[13On parle ainsi d’IA faible. Pour une discussion plus approfondie et plusieurs références lire : http://informationsystemsbiology.bl....

[14A. Damasio est l’auteur de : L’Erreur de Descartes (Odile Jacob, 1995), Le Sentiment même de soi (1999), Spinoza avait raison (2003) et L’Ordre étrange des choses (2017). Il n’a eu de cesse de réhabiliter l’importance des émotions et des sentiments dans les processus cognitifs.

[15Damasio A. : « Je ne crois pas à des ordinateurs doués de conscience », interview par Yann Verdo, Les Echos.fr, 1er décembre 2017. Extraits : « Si nous avons demain des voitures autonomes qui causent moins d’accidents ou des robots-docteurs qui font des diagnostics plus sûrs que des médecins humains, tant mieux ! Mais je reste, il est vrai, assez sceptique quant à ce qu’on appelle l’« IA forte », la possibilité de construire des ordinateurs ou des robots doués de conscience, ou du moins de certaines des composantes de la conscience.
A commencer par la subjectivité, cette conscience de soi qui fait par exemple que, lorsque je discute avec une personne, comme en ce moment avec vous, ma conscience ne se limite pas aux perceptions visuelles ou auditives de cette personne, il s’y ajoute le fait que je sais que je suis en train de discuter avec elle, que je me vois et m’entends en train de discuter avec elle. Car tout ceci - conscience, subjectivité - suppose un corps vivant régi par l’homéostasie, que par définition les ordinateurs ou les robots n’ont pas. Cela dit, un jeune doctorant de mon laboratoire, le Brain and Creativity Institute, est en train d’essayer de développer un programme d’IA reposant sur une simulation de corps vivant soumis à des processus de type homéostatique - Disons que je pense que l’IA mérite pleinement son qualificatif d’« artificielle ». Simuler des sentiments est possible, mais simuler n’est pas dupliquer. Tant qu’ils seront privés d’affects, les programmes d’IA, même très intelligents (bien plus que nous !), n’auront rien à voir avec les processus mentaux des êtres humains. Et tant qu’ils seront privés de corps vivants régis par les lois de l’homéostasie, ils seront privés de conscience et d’affects...
 »

[16Intelligence artificielle et sciences humaines, par Pierre Lévy, Pierre Levy’s Blog, 8 octobre 2014.

[17Cette dépendance à la "data" se vérifie même dans le processus d’apprentissage : ainsi, selon Michael Benesty, il faut d’abord alimenter Word avec des corpus de textes généralistes et thématiquement très éloignés du domaine dans lequel on veut spécialiser, puis se rapprocher progressivement de ce domaine. Ici, en droit, cela veut dire commencer par exemple par la base Gutenberg pour finir par Legifrance ou Jurispedia.

[18La "justice prédictive", le pouvoir judiciaire vers un grand bouleversement ?, l’Express, 5 mai 2017.

[19Les avocats testent un logiciel de "justice prédictive", par Mikael Libert, 20minutes.fr 12 février 2017.

[20Nous ne ferons pas référence au rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) Pour une intelligence artificielle maîtrisée, utile et démystifiée du 15 mars 2017, car sa partie sur l’emploi traite essentiellement de l’impact de la robotisation et ne donne aucun chiffre sur les professions intellectuelles, a fortiori les juristes et documentalistes. Par ailleurs, ses conclusions font très "déjà vu", après les recommandations du Parlement européen (voir infra dans les notes).

[21Automatisation : peu d’emplois risquent de disparaître, Le Figaro.fr 12 janvier 2017

[22Ronsin X., “Ce logiciel de justice prédictive ne nous apportait aucune plus-value”, interview par Soazig Le Nevé, Acteurs publics.com, 27 novembre 2017.

[23La justice prédictive, ou quand les algorithmes s’attaquent au droit, Paris Innovation Review, 9 juin 2017.