Il n’est pas nouveau que le Sénat s’intéresse à la technologie dans le monde du Droit (le Village de la justice et Open Law* avaient déjà participé à la création au Sénat du Forum parlementaire de la legaltech en 2018, sous l’impulsion du Sénateur Philippe BAS, alors président de la commission des lois, suite notamment au lancement du 1er Village de la Legaltech en 2016).
Mais l’IA générative bouleverse rapidement l’écosystème et la tendance s’accélère ("Le droit est un domaine perméable aux outils d’intelligence artificielle générative qui a vu éclore une offre économique dynamique" [2]) dans "une transformation inexorable, mais hétérogène". "Au-delà du refus théorique d’une justice déshumanisée, le besoin pratique d’un rattrapage numérique se fait sentir" et l’IA en est le nouveau potentiel bras armé.
Il faut donc comprendre le phénomène, s’y former, l’accompagner, le cadrer...
La synthèse du rapport est limpide :
"Apparue seulement à la fin de l’année 2022, l’intelligence artificielle générative a déjà commencé à transformer profondément notre perception des outils technologiques, ceux-ci imitant de mieux en mieux la pensée humaine. Les métiers du droit, qu’il s’agisse de la magistrature administrative et judiciaire, des personnels des juridictions, des professions réglementés ou des juristes d’entreprise, apparaissent particulièrement concernés par ces bouleversements, tant cette nouvelle technologie pourrait affecter leurs méthodes de travail ainsi que leurs relations avec les justiciables.
En effet, l’intelligence artificielle générative augure des opportunités en termes de gains de temps, de productivité, d’amélioration de l’accès au droit et de prévisibilité de la justice. L’adaptation rapide des entreprises de la legaltech et des éditeurs juridiques en témoigne.
Les professionnels du droit doivent donc s’adapter au développement des outils d’intelligence artificielle générative, dans le respect de leurs principes déontologiques et du cadre réglementaire français et européen. Les rapporteurs ont toutefois constaté le décalage technologique croissant entre les professions réglementées, qui se saisissent déjà de ces outils et élaborent des codes de bonnes pratiques spécifiques à cette technologie pour limiter les risques que son emploi engendre, et les magistrats et personnels en juridiction, qui souffrent d’un sous-investissement majeur et pérenne dans leur équipement informatique et numérique auquel il est urgent de remédier.
La bonne diffusion de cette technologie dans le secteur juridique exige, pour qu’elle soit vertueuse, d’assurer l’adaptation de la formation initiale et continue des professionnels du droit. Les logiciels d’intelligence artificielle générative ont en effet vocation à être utilisés par les professionnels du droit eux-mêmes – et leur fonctionnement suppose des compétences qui limitent tant les risques d’hallucination que la méconnaissance de la réglementation applicable et des principes déontologiques des métiers concernés.
Ainsi, derrière les enjeux économiques, déontologiques, professionnels et matériels que soulève le déploiement de l’intelligence artificielle générative dans le domaine du droit, c’est la vision de la justice de demain et d’après-demain qu’il convient de caractériser.
Pour ce faire, et en ayant pour préoccupation première l’intérêt du justiciable et l’amélioration du service public de la justice, la commission, à l’initiative de ses rapporteurs, Christophe-André Frassa et Marie-Pierre de la Gontrie, a formulé 20 propositions."
Voici donc l’introduction de la synthèse d’un rapport tout à fait accessible, qui s’appuie sur l’audition de très nombreux acteurs du droit et qui analyse en profondeur le mouvement de l’IA générative dans le monde du Droit.
Et qui recoupe bien d’autres constats sur le monde du Droit, mais pas tous liés à l’IA... Est-ce un signe de pertinence ? Une conjonction favorable ? Sans doute et nous y reviendrons ci-dessous.
La synthèse et les propositions de ce Rapport sur l’IA pour le Droit sont consultables ci-dessous :
Focus sur 3 points en particulier qui ont retenu notre attention et démontrent la pertinence globale de l’analyse...
💡 Le besoin de formation des métiers du droit à l’IA est lié à l’évolution de ces métiers, et pas seulement à l’arrivée d’une nouvelle technologie.
🔎 Propositions n°4 et 14 :
Proposition n° 14 : Poursuivre – et accélérer – l’adaptation de la formation continue aux enjeux et à l’utilisation de l’intelligence artificielle générative.
Proposition n° 4 : Favoriser la montée en compétence des assistants juridiques au sein des cabinets, notamment en leur confiant des tâches de vérification des résultats de l’intelligence artificielle générative.
Oui bien entendu il faut former, ce qui passe par l’exploration et les tests (le Congrès RDV des Transformations du Droit existe pour cela et remplit pleinement la mission), et par la formation plus académique, initiale et continue. Il y a quand même au moins 300000 personnes à former aux technologies et à leurs conséquences en termes de processus, ça n’est pas une mince tâche !
L’idée ici de former non seulement les professionnels du Droit, mais aussi les fonctions support (paralegal, secrétariat, documentalistes, supports divers...), est très intéressante, car elle permettra de faire monter en compétences toute l’équipe en cabinets d’avocats ou directions juridiques ou études notariales ou juridiction, etc, et offrira de nouvelles perspectives aux collaborateurs, ouvrant ainsi des pistes de nouvelles organisations internes.
Cela va parfaitement par exemple avec la nouvelle segmentation du métier anciennement appelé "secrétaire ou assistant juridique", plutôt flou dans le contenu de poste. Désormais, il y a 2 métiers :Attaché(e) juridique, nouveau métier hybride entre l’assistant juridique et le juriste ou encore le clerc d’avocat, donc plus orienté sur la pratique partielle du Droit en soutien. C’est ce métier particulièrement qui pourra venir assister les Avocats et Juristes sur ce sujet IA [3].
Assistant juridique, l’ancien titre de secrétaire juridique (qui disparaît), comprend essentiellement les missions administratives d’assistanat traditionnel.
💡 Développer la confiance et encourager les bonnes pratiques.
🔎 Proposition n°17 : Développer une certification ou un label public à la destination des éditeurs juridiques et des jeunes entreprises innovantes du secteur qui s’engagent à respecter certaines bonnes pratiques, relatives tant au traitement des données qu’au fonctionnement de logiciels d’intelligence artificielle générative.
L’idée d’un Label a du sens et paraît séduisante.
Certains ont déjà commencé la démarche, comme le groupe Legaltech de France Digitale [4]. Ici il s’agit d’une charte auto-gérée, ce n’est qu’un premier pas.
On peut répondre à la demande des rapporteurs du rapport que, si les éditeurs respectent la loi, c’est déjà sécurisant pour l’utilisateur final, et pas toujours appliqué.
Mais il est vrai qu’un Label permet de renforcer la confiance, l’auto-contrôle, compléter la loi par de bonnes pratiques, etc.
Les rapporteurs semblent aussi avoir en tête un Label incitant les acteurs innovants de l’IA (et notamment les nouveaux) à travailler avec des juristes dès la définition de leurs offres, et ça, c’est un bon encouragement...
💡Eviter que ne s’installe une autojuridication personnalisée... mais potentiellement trompeuse.
🔎 Proposition n° 3 : Définir légalement la loi n° 71-1130 du 31 décembre 1971 portant réforme de certaines professions judiciaires et juridiques.
Le but est de donner des garde-fous contre l’autojuridication lorsqu’elle peut mettre en danger la sécurité juridique :
"Si le risque « d’autojuridication » qu’a pu faire craindre le déploiement de l’intelligence artificielle générative paraît pouvoir être écarté en raison des limites inhérentes de ces modèles et de la plus-value que représentent l’analyse et l’expertise humaines du professionnel du droit ainsi que les temps d’échanges personnalisés, une vigilance particulière demeure quant au respect du périmètre d’activité des professionnels du droit, à savoir donner une consultation juridique. Or, des intitulés ambigus « d’aide ou d’assistance juridique », utilisés par certaines plateformes, pourraient prêter à confusion un public non averti et laisser entendre que la consultation d’un professionnel n’est pas nécessaire. L’inscription dans la loi d’une définition de la consultation juridique, dans un double objectif de lisibilité du droit et de sécurité juridique, apparaît ainsi opportune."Il y a, en effet, un risque d’une confusion, pour l’utilisateur de droit, qui en pensant suffisant d’obtenir une réponse, n’imagine pas que celle-ci puisse être erronée, à côté du sujet, non personnalisée, etc.
Ce même utilisateur pourrait alors s’estimer victime ou connaître pire sort que le non-recours au Droit...
Mais la loi ne règlera pas facilement ce problème, l’utilisateur ignorant la loi sur la notion de Conseil juridique (ou préférant avoir recours à des informations gratuites et rapides - donc non personnalisées).
Par contre, elle permettrait de développer des moyens de lutte et de tenter de de limiter l’offre illégale ou trompeuse. Des moyens existent déjà, le CNB (Conseil national des barreaux) et les différents Ordres luttent déjà souvent avec succès contre le conseil juridique illégal.
Est-il utile d’aller plus loin, n’avons-nous pas déjà tous les moyens ?
Peut-être bien, car avec l’IA rien n’empêche d’imaginer des Assistants personnalisés assez aboutis [5], il en existe déjà.
Une nouvelle difficulté cependant, nombre des IA ne sont pas hébergées / opérées en France, ni même en Europe. Comment contraindre un opérateur américain ou chinois ?