Extrait de : Vaughan Avocats

Peut-on demander à un chatbot juridique de se comporter comme un avocat ?

Par Ludovic de la Monneraye, Avocat.

1671 lectures 1re Parution: Modifié: 4.75  /5

Explorez aussi: # chatbot juridique # responsabilité juridique # consultation juridique # intelligence artificielle

Début 2023, l’application ChatGPT créée par Musk et Altman a officiellement passé la barre des 100 millions d’utilisateurs, illustrant l’utilisation croissante des programmes d’intelligence artificielle.
Se sont ensuite développés de nombreux programmes informatiques basés sur l’IA, capables de répondre en temps réel aux questions d’un internaute, faisant office de conseillers virtuels et qualifiés de « Chabot ». Ces derniers sont souvent utilisés dans les entreprises et se déploient dans de nombreux domaines tels que celui du juridique.

-

Les Chatbots juridiques partagent souvent diverses capacités communes et sont fortement utilisés en raison de leur accessibilité constante. En effet, ceux-ci sont aptes à établir des réponses automatisées aux questions juridiques, à générer des documents, à offrir un accès personnalisé à l’information juridique, à orienter vers des ressources spécialisées et à suivre les modifications législatives.

Mais comment qualifier la responsabilité juridique de ces Chatbots, en tant qu’outils autonomes et capables d’interagir avec les utilisateurs sans intervention humaine ?

En premier lieu, il semble pertinent d’établir une frontière importante entre information juridique et consultation juridique, cette dernière étant davantage règlementée.

L’information juridique est généralement prodiguée à titre gratuit et permet, souvent en cas de litige, d’être conseillé sur les droits dont disposent les individus, notamment « Quel est le délai de prescription d’un crime ? ». Dans ce cas, aucune formalité ne sera effectuée et il n’est donc pas nécessaire de faire appel à un professionnel du droit.

Au contraire, la loi du 31 décembre 1971 précise, en son article 54, l’activité de consultation juridique, activité généralement rémunérée et réservée à certaines professions règlementées (avocat, notaire, huissier, commissaire-priseur, professeur de droit). Ainsi, l’exercice de la profession d’avocat concerne uniquement des personnes titulaires d’un diplôme et inscrites à un barreau français, critères uniquement applicables à des personnes physiques. 

La start-up DoNotPay a d’ailleurs été bloquée lorsque celle-ci a tenté l’expérience inédite de faire plaider une IA devant un tribunal. Cette initiative a effectivement été annulée en raison des restrictions légales encadrant l’exercice de la profession d’avocat. En somme, l’IA peut donc être un outil puissant d’assistance aux avocats mais ne peut pas les remplacer.

En outre, la fourniture de conseils juridiques personnalisés reste pour le moment inexistante du côté des machines.

Une activité de consultation juridique réalisée par un Chatbot juridique serait donc illicite et constitutive d’une infraction pénale. Son utilisation se limite donc à servir d’outil pour l’avocat car il n’est, en aucun cas, autorisé à se substituer à lui.

Concernant l’avènement des chatbots juridiques, le doute subsiste concernant une possible invocation de concurrence déloyale. Cette action en concurrence déloyale (1240 Code civil) suppose à la fois l’existence d’une faute commise par le défendeur mais également d’un préjudice souffert par le demandeur (Cass. Com., 19 juillet 1976). Dans cette hypothèse, la faute est cependant difficile à démontrer.

Aux États-Unis, le célèbre cabinet d’avocats Edelson a d’ailleurs engagé une action sur ce fondement. Les professionnels du droit affirment que DoNotPay pratique illégalement le droit en raison de l’absence de diplôme. Ainsi, sa pratique commerciale serait frauduleuse.

Toutefois, relativement à la responsabilité juridique des chatbots, nous faisons actuellement face à une absence de législation spécifique. Certains textes peuvent néanmoins être mobilisés (ex. la « directive européenne sur le commerce électronique » : les prestataires d’un service en ligne ne peuvent être tenus responsables des informations stockées, transmises ou mises à disposition par les utilisateurs tant qu’ils n’ont pas connaissance de leur caractère illicite et qu’ils agissent promptement pour les supprimer ou en empêcher l’accès une fois informés ; la « loi française pour une République numérique » de 2016 prévoit que les éditeurs de services en ligne ne peuvent être tenus responsables des contenus publiés par des tiers, sauf s’ils ont été alertés et n’ont pas agi promptement pour les retirer).

Une décision a été rendue par la Cour des petites créances de Colombie britannique (Affaire Jake Moffatt vs Air Canada, en date du 14 février 2024) concernant la responsabilité d’un professionnel du fait d’un dommage causé par l’IA. En effet, même pour des IA à risque limité, comme les chatbots, le droit commun suffit à engager la responsabilité du professionnel. Ceci permettant une mise en lumière de l’obligation des entreprises face aux outils numériques.

L’encadrement de la responsabilité reste, pour le moment, en suspend. Toutefois, certaines pistes de réflexion sont envisagées :

Premièrement, est envisagée la création d’un statut juridique spécifique, à travers lequel les chatbots seraient des personnes morales dotées de droits et d’obligations.

Deuxièmement, l’inclusion des chatbots dans les textes existants est évoquée.
Enfin, la responsabilité des chatbots pourrait s’entendre d’une responsabilisation accrue des concepteurs et développeurs. Pour cela, plusieurs fondements sont évoqués, tels que la responsabilité pour faute (1240 Code civil) mais dont la preuve est difficile à apporter, la responsabilité du fait des choses (1242 Code civil) dont l’engagement est rendu délicat par le manque de preuve de la garde de la chose par le créateur, ainsi que la responsabilité du fait des produits défectueux (1245 Code civil) présentant des limites quant à la caractérisation du défaut du système IA.

En somme, la responsabilité du créateur du chatbot juridique pourra être engagée mais l’utilisateur ne pourra également être épargné.

L’utilisation de l’IA par les avocats est-elle source de risques ?

L’IA est, sans nul doute, une source de risques pour les avocats. Le principal risque se présente dans l’absence totale de vérification des informations fournies par la machine. En effet, cette dernière est susceptible d’hallucination ou de confabulation, c’est-à-dire, de réponse fausse ou trompeuse présentée comme un fait certain. Or, un avocat est soumis au respect de normes élevées de conduite et à l’obligation déontologique et professionnelle de vérifier les faits et le droit avant de les présenter au juge. Il devrait donc, être en mesure de superviser étroitement son fonctionnement.

Cette absence de vérification sera susceptible de sanctions disciplinaire, procédurale, civile ou pénale.

En somme, les compétences très élevées de l’IA n’indiquent pas inévitablement un remplacement des avocats par des chatbots juridiques mais davantage un outil d’aide puissant. En effet, les tâches répétitives pourront être automatisées et les avocats se concentreront sur des tâches plus importantes et complexes qui nécessiteraient une expertise juridique et une compréhension des subtilités du droit. La profession doit s’adapter à ces nouveaux outils et, en retour, l’outil doit se modeler à la profession. Quant à la responsabilité juridique de ces chatbots, la règlementation s’étoffe progressivement et tente de s’adapter aux constantes évolutions.

Le sujet ici, « Peut-on demander à un chatbot juridique de se comporter comme un avocat ? », admet une réponse négative. Certes, les chatbots juridiques sont aptes à délivrer des informations juridiques gratuitement et sans nécessaire intervention d’un professionnel juridique. Toutefois, l’activité de consultation juridique reste parfaitement limitée aux personnes physiques, titulaires de droits et d’obligations ainsi que d’un diplôme de droit. En cas d’exercice illégal, des sanctions pourraient être prononcées à l’égard de ces chatbots et de leur créateur.

À noter cependant que, le développement massif des nouvelles technologies, et ainsi des chatbots, ne promet pas une exclusion perpétuelle de ces restrictions.

Ludovic de La Monneraye
Avocat associé IP/IT
Barreau de Rennes

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

4 votes

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

A lire aussi :

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 157 540 membres, 29749 articles, 127 305 messages sur les forums, 2 085 annonces d'emploi et stage... et 1 400 000 visites du site par mois en moyenne. *


FOCUS SUR...

• Le silence du barreau : pourquoi les avocats ont du mal à demander de l’aide.

• Sondage Express du Village de la Justice : VOUS et l’IA...





LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs