Les enjeux de l'intelligence artificielle dans le milieu du droit.

Les enjeux de l’intelligence artificielle dans le milieu du droit.

Simon Brenot
Rédaction du Village de la Justice

L’intelligence artificielle est un sujet omniprésent aujourd’hui. Au coeur de toutes les convoitises, mais également de tous les fantasmes, en faisant à la fois rêver et peur. Ses capacités seraient telles que l’humain serait déjà dépassé. De nombreux métiers sont destinés à disparaitre à cause d’elle. Le milieu professionnel du droit lui-même n’est pas rassuré quant aux implications d’une telle technologie.
Pour décrypter le sujet, le Village de la Justice a assisté pour vous à la huitième édition des Débats du Cercle le 11 avril 2019 à l’Hôtel des Arts et Métiers, un événement organisé par le Cercle Montesquieu et le service d’information Option Droit & Affaires.

-

Avant tout, de quoi parlons-nous ? L’intelligence artificielle (I.A.) peut être définie comme toutes les techniques utilisées pour simuler l’intelligence humaine. L’intelligence humaine se décline en trois tâches : la perception, la compréhension, la prise de décision. La troisième est pour l’instant hors de portée des machines.

Dans l’évolution de cette technologie, plusieurs techniques ont été développées, du machine learning au plus récent deep learning. Celles-ci reposent sur l’utilisation d’un déluge de données ou big data pour atteindre un niveau de performance proche de celui du cerveau humain.

L’écart entre les fantasmes de performance de l’I.A et la réalité demeure important.

Malgré ses promesses de révolution des activités de services, l’I.A a encore aujourd’hui une capacité de compréhension très limitée. Ensuite, celle-ci produit un résultat mais ne sait ni l’expliquer ni dire si ce résultat est pertinent statistiquement. Enfin, l’énergie déployée pour la faire fonctionner est énorme avec l’utilisation de gigantesques data centers. Néanmoins, à terme, l’I.A challengera l’humain sur une partie des tâches : il faut donc imaginer la future collaboration entre l’Homme et la machine.

L’écart entre les fantasmes sur les performances de l’I.A et la réalité demeure donc important. Pour les améliorer, les dépenses mondiales en I.A étaient de 36 milliards en 2018, ce qui est beaucoup mais ne représentent que 3% des dépenses en transformation digitale. Toujours est-il qu’elles sont appelées à croitre de façon exponentielle compte tenu des besoins de la société. Cette évolution pose de nombreuses questions, notamment pour les entreprises qui développent et utilisent cette technologie. Leurs enjeux sont doubles : managériaux et juridiques.

L’intelligence artificielle dans le management juridique de l’entreprise.

Les directions juridiques doivent petit à petit se faire à l’idée que la digitalisation va transformer le métier de juriste. Dans ce processus, l’enquête « Transformation digitale de la fonction juridique » du cabinet PwC Société d’Avocats en date du 5 juin 2018 nous invite à observer que l’outil digital est indispensable pour le futur du juriste et la mise en place de ses nouvelles priorités. En effet, celui-ci devra se concentrer sur la performance, la maîtrise des risques, la visibilité de la fonction et l’optimisation des ressources. Un retour à son métier d’expert de la chose juridique, aidé du digital, pour optimiser son accès à l’information juridique mais également pour mieux la communiquer.

Les résultats de l’enquête montrent néanmoins une situation contrastée sur l’adoption des outils digitaux par les directions juridiques, la moitié des 99 directions ayant répondu que la maturité digitale de leurs outils est faible. Un constat plutôt décevant et qui s’explique comme suit : les départements juridiques n’ont pas encore une bonne compréhension des outils. Ajoutez-y l’évolution très rapide des innovations dans ce secteur, le manque de temps pour s’y adapter, et parfois les carences dans le soutien des directions d’entreprise...les résultats peuvent difficilement être positifs par conséquent l’intégration de ces outils à court terme est faible voire nulle.

Un mauvais calcul car les principaux enjeux issus de la digitalisation et de l’utilisation de l’intelligence artificielle sont connus : hausse des performances et maîtrise des risques. Finalement, digital et juridique vont de pair quand on lit cette enquête car les priorités sont identiques : dématérialiser la documentation et les processus, avoir une plateforme centralisée pour améliorer la collaboration et améliorer la conformité à l’environnement règlementaire.

Le juriste augmenté est celui qui parviendra à se saisir des outils digitaux pour accroître sa valeur ajoutée

Comme toute innovation, l’I.A doit être enseignée aux profanes afin que chacun en maîtrise les codes et puisse en retirer une valeur ajoutée. Il en va de même pour les juristes, voire même plus si l’on s’attarde sur l’objet de leur expertise : le Droit. En effet, l’I.A se nourrit de données, en grandes quantités, toujours plus énormes d’ailleurs, pour fonctionner et croître.

La technologie du deep learning, dans laquelle les grandes multinationales de l’IA investissent à milliards, fait déjà l’objet d’interrogations. Son principe est de ne pas devoir définir à l’avance une règle de déduction mais laisser l’ordinateur la déterminer tout seul à partir de nombreux exemples, en apprentissage automatique. Dès lors, il devient difficile de pouvoir expliquer les décisions de cet outil, d’en rendre compte facilement. On peut alors aisément remettre en question la fiabilité, la sécurité des données et la capacité des opérationnels à les traiter. Cela s’applique également aux juristes.

Dans l’optique de ces bouleversements, la direction juridique a la responsabilité de former ses salariés, qu’ils soient managers comme collaborateurs, aux applications de l’IA intégrées aux process internes. De même, une réflexion en interne doit être réalisée avec l’ensemble des parties prenantes (collaborateurs, managers, partenaires extérieurs) afin d’encadrer les tâches de l’I.A et sa place dans l’entreprise. Délimiter les prérogatives de chacun pour mettre en confiance les équipes sur les nouvelles transformations de leur travail et de leurs responsabilités. Ce faisant, c’est bien l’accroissement de la productivité qui est mis en avant pour vendre les bienfaits de cette innovation. Via l’implémentation de cet outil, les juristes pourront donc se concentrer sur les tâches à forte valeur ajoutée, délaissant celles qui sont répétitives et redondantes.

Dans cette nouvelle configuration de travail, le juriste change de profil et le recrutement se fera non seulement sur les connaissances juridiques, mais aussi sur sa capacité à connaitre l’entreprise et les enjeux du digital et de l’I.A en son sein. Le professionnel du droit devient augmenté, élargissant son champ de compétences vers les promesses de ces nouvelles technologies.

L’enjeu d’un cadre juridique et éthique européen

Que l’on se place du point de vue de l’entreprise ou de la société toute entière, les implications de l’I.A sont et seront révolutionnaires. L’éthique, le juridique, les fondements même de ce qui nous relie les uns aux autres sont appelés à être profondément bouleversés par cette innovation.

Aujourd’hui, le maître mot est l’expérimentation pour parvenir à comprendre cet outil et à construire des règles solides pour y répondre. Tous les grands acteurs internationaux travaillent en ce sens, mais avec des barrières éthiques et juridiques différentes.

Côté européen, la Commission européenne s’est lancée dans un projet de mise en place d’une éthique de l’I.A au travers de plusieurs étapes. Depuis fin 2018, elle travaille sur la mise en place de principes d’éthique sur l’I.A grâce au concours du Groupe européen d’éthique des sciences et des nouvelles technologies composé de 52 spécialistes de cette technologie d’avenir.

Ces lignes directrices éthiques sont les suivantes : tout d’abord, les systèmes d’I.A devraient se mettre au service de l’humain et des droits fondamentaux ; ensuite, une IA digne de confiance nécessite des algorithmes sûrs, fiables et robustes ; puis, il faut que les citoyens aient la maîtrise totale de leurs données personnelles ; de même, la traçabilité des données et des systèmes doit être assurée ; ceux-ci devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie ; ils devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique ; enfin, il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’I.A et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

En avril 2019, l’institution européenne a annoncé lancer une phase de test pour mettre en pratique ces principes. L’expérimentation est ouverte aux industries, aux instituts de recherche et aux autorités publiques. Cette étape est bien sûr cruciale pour l’Union européenne, car il est primordial pour notre souveraineté de défendre une I.A basée sur les valeurs de la communauté européenne, aux antipodes de celles qui sont développées chez les autres grandes puissances mondiales de l’I.A que sont la Chine et les États-Unis.

L’enjeu de la définition d’une éthique européenne pour l’IA est primordial pour la protection de nos valeurs.

Juridiquement, les questions soulevées par l’éthique de l’I.A sont profondes. Que faire de l’intentionnalité ? Si l’action n’est pas explicitement consentie mais simplement déduite d’un comportement humain ? La limite est ténue. Il y aussi le coût de la donnée et de sa sécurité avec la question du partage des données, de leur anonymisation. En matière de santé par exemple, pour faire évoluer l’I.A, il faudra connaitre presque tout de la personne. Or, la sensibilité de l’opinion publique à l’égard de la vie privée risque de rendre impossible cette connaissance des individus. Il faut donc trouver un équilibre entre l’amélioration de la science et la vie privée. Le rapport Villani rendu public le 28 mars 2018 proposait de « faciliter le recours à l’open data, en incitant les entreprises publiques et privées à rendre leurs données publiques, via des plateformes de mutualisation entre le secteur public et le secteur privé. »

L’une des grandes questions juridiques porte sur la responsabilité civile en cas de litige : est-ce l’humain en charge de l’algorithme défaillant ou bien le robot ? La doctrine juridique la plus récente ne donne pas de piste pour évaluer cette détermination. Et le droit actuel pose que le critère de la responsabilité est la personnalité juridique, ce qui exclut de fait les I.A dans l’indemnisation. Tout reste donc à faire dans cette détermination.

La révolution de l’intelligence artificielle n’en est qu’à ses balbutiements. Un constat qui n’a rien de nouveau, mais qui continue néanmoins de poser des interrogations sur les implications de cette technologie dans notre société : comment construire notre rapport à l’I.A ? Quelle éthique dans son utilisation par-rapport à nous-même, en tant qu’individus, et par-rapport à notre vie privée ? Quel accompagnement dans l’enseignement de l’I.A pour les futurs métiers ?

Simon Brenot
Rédaction du Village de la Justice

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

86 votes

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 156 340 membres, 27886 articles, 127 257 messages sur les forums, 2 750 annonces d'emploi et stage... et 1 600 000 visites du site par mois en moyenne. *


FOCUS SUR...

• [Dossier] Le mécanisme de la concurrence saine au sein des équipes.

• Avocats, être visible sur le web : comment valoriser votre expertise ?




LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs