Village de la Justice www.village-justice.com

ChatGPT : Que peut-on attendre des effets futurs de cet outil sur l’appréhension universelle du droit ? Par Manon Delobel, Etudiante.
Parution : samedi 4 février 2023
Adresse de l'article original :
https://www.village-justice.com/articles/chatgpt-que-peut-attendre-des-effets-futurs-cet-outil-sur-apprehension,45075.html
Reproduction interdite sans autorisation de l'auteur.

L’opinion publique toute entière a récemment tremblé à l’occasion de la mise en ligne de ChatGPT, intelligence artificielle conversationnelle qui a vocation à fournir des réponses adaptées, à la demande et en toute situation, ce même aux questions les plus concises de l’utilisateur. Globalement jugé inefficace dans le domaine juridique par professionnels et chargés d’enseignement, le logiciel pose quand même question s’agissant de son utilité dans ce secteur. Retour sur cet outil et sur son éventuelle intégration future dans le monde du droit.

L’intelligence artificielle inquiète dans la quasi-totalité des secteurs, et les métiers du droit ne font pas exception. L’innovation constante en la matière peut poser à réfléchir sur l’évolution de la distinction entre tâches confiées à la machine et missions relevant uniquement de l’humain.

Totalement gratuit et très médiatisé, ChatGPT est déjà source d’exaspération pour de nombreux enseignants du secondaire qui voient leurs élèves effectuer tous types d’exercices avec. Le supérieur serait-il épargné ? Sur les réseaux sociaux, les vidéos sur l’utilisation de l’outil florissent, relatant la marche à suivre afin de faire rédiger par l’IA une fiche d’arrêt, une dissertation, voire un mémoire de fin d’études. Cette capacité apparente à rédiger des exercices théoriques et à répondre à des problématiques spécifiques serait à prendre avec des pincettes, car les chargés d’enseignement rappellent globalement que ChatGPT est bien souvent incapable d’appréhender les problématiques aussi précises que complexes étudiées à l’université, tous domaines confondus.

En effet, l’agent conversationnel l’indique lui-même : il se base sur une vaste quantité de données, telles que « des livres de référence, des articles scientifiques et des sources en ligne ». Or, cette dernière catégorie - qui représente une partie non-négligeable de son savoir - peut être le résultat de la combinaison d’un « tout-et-n’importe-quoi » considérable de contributions émises numériquement par des profanes, non-nécessairement vérifiées, et de sources en ligne plus sérieuses, parfois même émises par des spécialistes en la matière. Le résultat s’en fait sentir : ChatGPT ne se prive pas de conseiller à l’utilisateur d’appréhender ses réponses avec prudence, celles-ci pouvant être approximatives, voire inexactes, puisqu’issues de données très – voire trop – diverses. Aussi, l’attente initiale d’obtention d’une réponse adaptée et exacte devra parfois être revue à la baisse. Il est également précisé que l’IA montre des signes de faiblesses s’agissant des informations postérieures à 2021, ce qui, dans le domaine juridique qui se caractérise par sa perpétuelle évolution, est sans aucun doute un point noir de taille.

Il convient donc de passer de la théorie à la pratique et de tester le logiciel avec une question de droit. J’ai choisi de lui opposer les problématiques renvoyant au point de départ de la personnalité physique et notamment l’existence juridique du fœticide. J’ai eu l’occasion de tutorer de nouveaux étudiants dans la compréhension de ces notions fondamentales, qui sont respectivement appréhendées en première année de droit en droit des personnes/introduction au droit privé et en deuxième année en droit pénal général. Ces notions ont globalement peu évolué ces dernières années.

S’agissant de cette première question, relative à l’existence juridique du fœtus, ChatGPT répond correctement dans la globalité, malgré une légère pauvreté de vocabulaire. Il semble donc bien pouvoir fournir une réponse adaptée à une question juridique aussi précise qu’élémentaire.

S’agissant de cette deuxième question, le logiciel se trompe, et il est assez impressionnant de le voir s’éparpiller dans des explications assez floues et inexactes, avec un vocabulaire toujours pauvre, et surtout non-juridique (« à partir du moment où il peut vivre en dehors du corps de sa mère »).
La réponse correcte attendue ici est que l’article 221-6 du Code pénal, qui réprime l’homicide involontaire, définit ce dernier comme le fait de causer involontairement la mort d’autrui. Or, le terme « autrui » désigne un être doté de la personnalité physique, donc né vivant et viable, ce qui n’est pas le cas du fœtus in utero. C’est en tout cas la position de la Cour de cassation dans un arrêt de principe rendu en 2001 (Cass, Ass. Plén., 29 juin 2001, n°99-85.973).
Il semblait cependant intéressant de voir si ChatGPT était lui-même capable de comprendre un raisonnement juridique en l’invitant à se référer à sa première réponse.

Malgré le coup de pouce, ChatGPT se trompe à nouveau, se basant sur son erreur précédente pour déterminer le début de la personnalité physique. Encore une fois, il reste assez impressionnant de le voir affirmer son raisonnement avec grande fermeté, bien qu’il soit erroné.
Il paraissait intéressant de pointer à l’agent conversationnel son erreur afin de voir ce qu’il pouvait en tirer.

ChatGPT répond partiellement bien, et choisit enfin la naissance comme point de départ de la personnalité physique (sa réponse reste imprécise voire partiellement erronée, puisqu’il fallait également mentionner les termes « vivant » et « viable », et qu’il semble exclure maladroitement le critère de viabilité).

C’est cette réponse qui parait la plus intéressante et prometteuse : ChatGPT a été capable, après avoir assimilé le point de départ de la personnalité physique, d’en tirer les conséquences s’agissant de la qualification de l’homicide involontaire, sans que je ne lui donne plus de détails à ce sujet. Il semble donc capable d’effectuer le syllogisme attendu, en concluant que le fœtus in utero non-né vivant et viable ne saurait rentrer dans le champ de l’homicide involontaire en l’absence d’obtention de la personnalité juridique. La capacité de raisonnement du logiciel est plutôt étonnante et peut se rapprocher des attendus s’agissant d’un étudiant qui découvre la matière. Il convient quand même de préciser qu’il n’a pas fourni la jurisprudence de laquelle est issu ce raisonnement, ce malgré son importance (et son omniprésence au sein des sources qui traitent du sujet), bien que cela reste prévisible puisque l’outil est globalement incapable d’appréhender seul la jurisprudence et l’importance du concept jurisprudentiel au sein des questions juridiques.

Aussi, ChatGPT, dans sa configuration actuelle, semble ne pas pouvoir à lui seul répondre à des problématiques juridiques complexes. Il faut le guider, ce qui lui confèrerait peu d’utilité pour des étudiants cherchant à s’appuyer dessus pour s’aider dans leur travail. Cependant, sans cette ambiguïté apparente des sources, le logiciel aurait vraisemblablement pu me donner les bonnes réponses plus rapidement : il semble en effet capable de relier les notions juridiques mentionnées et d’en tirer des conclusions, à la manière du syllogisme juridique.

Il convient de noter que les contributions des utilisateurs du chat ne sont pas conservées dans sa base de données, il ne peut réutiliser les informations communiquées que dans le flux d’une conversation. Néanmoins, on peut se demander ce qu’il adviendrait dans le cas où un tel dispositif d’intelligence artificielle devenait participatif, voire compilait les contributions de spécialistes de la matière. On pourrait imaginer un outil bien plus performant, qui apporterait des réponses juridiquement exactes aux utilisateurs capables de formuler correctement leur problématique - la formulation de la demande reste le premier facteur déterminant dans la réponse du chat, et la mauvaise utilisation des termes juridiques aboutirait à coup sûr à une réponse erronée - ce qui pourrait constituer une vraie menace au sein des professions juridiques et pour l’appréhension autonome du droit par les apprentis juristes.

Toutefois, en l’état des choses, ChatGPT reste évidemment un outil trop imprécis dans une matière aussi exigeante et pointue que le droit, ce qui a permis à de nombreux professionnels de conclure à son inefficacité, en tout cas en sa configuration actuelle. Il reste tout de même fort à parier que ce type d’intelligence artificielle évoluera davantage, et finira peut-être même par remettre en question l’équilibre des professions juridiques, entre autres, telles que nous les connaissons actuellement...

Manon Delobel, étudiante en Master 1 Droit de la santé à l'Université Paris-Saclay
Comentaires: