Village de la Justice www.village-justice.com

[I.A. et Avocats] Convoquons Hippocrate !
Parution : lundi 27 février 2023
Adresse de l'article original :
https://www.village-justice.com/articles/primum-non-nocere,45290.html
Reproduction interdite sans autorisation de l'auteur.

Et si l’on s’inspirait de cette phrase célèbre du serment d’Hippocrate : "Avant toute chose, ne pas nuire" pour répondre par anticipation aux comportements prévisibles de nos clients qui vont se servir massivement de l’intelligence artificielle ?

Primum non nocere : avant toute chose, ne pas nuire. Ne pas aggraver les choses.
Et si notre métier d’avocat avait besoin de nos jours d’introduire dans son arsenal ce principe emprunté aux médecins ?

Ne faudrait-il pas, en effet, face à nos clients afficher cette phrase en gros dans nos salles d’attente et commencer nos entretiens en prenant une grande respiration et en invoquant ce principe ?

L’intelligence artificielle générative.

A l’heure de l’IA générative et des algorithmes des réseaux sociaux, une mécanique infernale risque en effet de se mettre en place.
Les victimes, cherchant à savoir ce qu’elles doivent faire, vont se retrouver face aux Google Bard et autres Bing- chat GPT face à une sorte d’interlocuteur technique omniscient qui leur donnera le sentiment de toujours savoir quoi faire dans n’importe quelle situation.

Un sentiment humain, une émotion qui risque, telle celle qui conduit à donner à boire ou à manger à un blessé grave encore sous le choc, d’aggraver la situation !

Certes, pour le moment, l’expertise juridique de ces IA génératives, se situe plutôt du côté du café du commerce que du côté de la bibliothèque de l’Ordre des avocats.

Ayant fait l’essai avec chat-GPT, celui-ci a réussi à m’inventer des arrêts de la Cour de cassation qui ne traitaient pas du tout du sujet évoqué, ou bien à confondre dans une affaire soi-disant importante, le nom du prévenu et celui du juge. Joli travail !

Il n’empêche. Un non-juriste ne verrait pas la différence.

Et puis, la machine est lancée. Pour l’instant, elle s’appuie sur des connaissances figées. Bientôt, elle sera reliée à tout l’Internet.
Comment les phénomènes psychologiques que nous connaissons déjà chez nos clients pourraient-ils ne pas s’accélérer ?

Les simulateurs.

En matière de droit du préjudice corporel, nous avions déjà le problème des simulateurs. Les barèmes utilisés par les professionnels et destinés à l’origine à faire en sorte qu’un même type de préjudice soit évalué de la même façon dans toutes les juridictions, sont désormais entrés dans des calculateurs en ligne.

Malgré les précautions oratoires, les victimes les utilisent hélas bien souvent dans des termes qui relèvent du e-commerce inversé. “Pour une jambe cassée, combien vais-je recevoir ?”

Peu importe de savoir où la jambe a été cassée, dans quelles circonstances, ce que cela a eu comme conséquences, etc.

Auto-spécialisation.

L’auto-spécialisation (comme on peut parler d’auto-médication) risque d’aller encore plus loin. Et de faire les mêmes dégâts.

Pour une raison tout simple : le principe même sur lequel est fondé l’intelligence artificielle.
La corrélation prime la causalité. Peu importe qu’il y ait un rapport de cause à effet. Si les big data utilisées indiquent que les gens qui ont les yeux bleus ont plus tendance à frauder avec leur carte bleue que les gens qui ont les yeux marrons, ma banque me demandera de quelle couleur sont mes yeux.
On a ici un exemple de cas d’usage déjà connu de l’IA (inventé, certes, pour forcer le trait, mais ce type d’approche a déjà cours).

L’IA générative ajoute à ceci la capacité à générer des textes ou des images à partir de textes déjà écrits ou enregistrés sur le sujet. C’est pour cela qu’elle se trompe encore souvent ou qu’elle reste approximative dans ses réponses : elle associe des éléments de textes “qui vont bien ensemble”.
C’est pour cela aussi que la capacité d’analyse derrière est quasi-nulle. Ce n’est que de la “doc” bien assemblée.

Le problème est “l’effet waouh” donné par les articulations logiques que l’IA sait créer et le résultat final que cela donne.

Analyse.

La machine donne en effet le sentiment de savoir analyser une situation.
Elle “by-passe” l’étape de tri et d’assemblage de la documentation.

Elle ne sait, en réalité, que rechercher dans les archives des situations déjà traitées et ressemblant à la situation étudiée. Le problème, c’est qu’elle va le faire avec une forme (la discussion) qui donnera le sentiment à l’utilisateur qu’il a touché lui-même à l’expertise suprême et donc qu’il est au niveau de son avocat.

Tout se passe donc comme si un nouveau problème s’annonçait pour nous, professionnels : des clients viendront jusqu’à nous non seulement déjà armés de convictions et d’expertise, récemment acquise sur Internet (ça on connaît déjà), mais ces connaissances et ces expertises auront déjà pris la forme même des conseils que nous délivrons, nous, au titre de notre métier, et ce, après analyse du cas particulier du client.
Le client viendra à nous parce que la procédure l’y oblige et prétendra avoir déjà toutes les réponses et la stratégie à suivre puisqu’il aura consulté les IA.

Nous passerons notre temps à nous battre contre des réponses toutes faites et bien argumentées, pour démontrer que la réponse, aussi brillante soit-elle, ne peut être exacte puisque la question a été trop mal ou trop vite posée.

Des avirons que nous devrons sortir pour ramer à contre-courant dans ces situations, l’un devra affronter la force des réponses, l’autre la force de la conviction du client qu’il a posé la bonne question.

Cas particulier.

L’obsession d’avoir la réponse tout de suite, l’exigence de vitesse, même quand cela est impossible, risque également d’ajouter à l’art de nuire. Par exemple, toujours dans le domaine du préjudice corporel, tant que la situation de la victime n’est pas consolidée, donner une réponse précise sur le montant de l’indemnisation est, techniquement, impossible.

Dans le cas des traumatisés crâniens, par exemple, un des plus grands problèmes auxquels on doit faire face est le déni de la victime elle-même. “Non, ce n’est qu’un coup sur la tête, ça va aller mieux”. Alors même qu’il suffit de consulter rapidement un “lexique du traumatisé crânien” pour se rendre compte de l’étendue du champ de vigilance qu’il faut avoir dès que le mot de “traumatisme crânien” a été prononcé.

Comment travailler avec l’entourage d’une victime qui réagit comme cela, quand l’IA viendra conforter les biais cognitifs de la victime, au lieu de les remettre en cause ?

Comment faire ?

Peut-être donc précisément en étendant ce principe du “primum non nocere” des médecins à notre droit. Ou, alors, sans attendre le législateur, en agissant de façon prosaïque.

Comment remettre en avant cette idée selon laquelle chaque cas est un cas particulier ?

Comment faire comprendre au public que, aussi intelligente soit-elle, l’IA ne peut s’appuyer que sur des données anciennes qui, par définition, ne tiennent pas compte du cas particulier qui vient de se produire ?

Et si nous nous organisions pour “entraîner” nous-mêmes ces machines ? Non pas en leur apportant des réponses, comme on l’a déjà fait beaucoup via nos sites Internet. Mais en y injectant plutôt les questions que l’on nous pose et en expliquant à chaque fois pourquoi la question est mal formulée et pourquoi elle risque de mener à une analyse de la situation qui, au final, peut nuire.

Hadrien Muller, Avocat au Barreau de Paris, spécialisé en droit du dommage corporel