Depuis son introduction, elle a permis de désengorger les tribunaux et n’a donc eu de cesse d’être encouragée par le législateur. Son but, solder un différend entre les parties en utilisant la voie amiable, permet aux justiciables de recourir à une justice “sur mesure”. Effectivement la médiation leur permet de régler ces différents par le dialogue. L’avantage est certain et les parties ressortant grandies de ce processus.
Le recours à la médiation a été multipliée par dix [2] pendant la crise sanitaire. Elle est devenue un mode amiable de règlement des différends incontournable du 21ème siècle. Il y fort à parier que la médiation sera de plus en plus sollicitée à l’avenir.
Cette justice du XXIème siècle n’a jamais été à l’abri des mutations irrémédiablement entrainées par l’apparition de nouvelles technologies. Ce dispositif qu’est la médiation, n’est pas exclu, comme l’ensemble de notre cadre juridique, des évolutions pouvant résulter de cet air du « tout digital ».
L’intelligence artificielle s’appuyant sur une logique algorithmique, prouve aujourd’hui que les justiciables peuvent parfaitement recourir à une médiation « robotisée ». Il faut cependant porter une attention particulière à l’atteinte éthique que constituerait une telle modernisation de notre justice. En effet, cette alternative digitale à la médiation « physique » conventionnelle, est plus que controversée.
Si l’atout digital au service de la médiation, peut considérablement décupler l’efficience des professionnels tout en apportant des solutions plus rapides et moins coûteuses aux justiciables (I), il convient toutefois de prendre en considération le versant moins souhaitable d’un tel recours. De fait, les atteintes éthiques sont nombreuses, et l’intelligence artificielle ne doit pas être axée sur le seul but d’efficacité et de productivité au détriment de l’essence même de notre justice originelle (II).
I. Les vertus d’une médiation algorithmique.
1. Une médiation algorithmique encadrée.
L’article 4.3 de la loi n°2019-2022 de programmation 2018-2022 et de réforme pour la justice [3] mentionne que le processus ne peut avoir pour seul fondement un traitement algorithmique ou automatisé des données à caractère personnel. Ainsi, la médiation utilisant une intelligence artificielle devra systématiquement être contrôlée par un humain. Cela permet de rassurer certains esprits sur ce nouveau type de médiation. Cependant la loi n’en dit pas plus. Faut-il comprendre cette notion d’interdiction du « tout digital » comme un encadrement humain à la manière d’un « back up » en cas de dysfonctionnement, ou plutôt comme un contrôle constant sur l’ensemble du processus ? L’avenir nous en dira plus quant à cette disposition.
Il est notoire, comme toutes avancées technologiques, que la médiation assistée d’une intelligence artificielle ne sera bénéfique que si elle est utilisée à bon escient. Ainsi, pour éviter d’éventuelles dérives, l’article 4 de la loi du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice a pris soin d’encadrer ces services en les soumettant à l’article L 226-13 du Code pénal [4]. Ces structures digitales sont de ce fait condamnables en cas de manquements concernant leur obligation de non-divulgation des informations à caractère secret qu’ils pourraient traiter dans le cadre de leur mission. De même, cette disposition mentionne aussi, et sans surprise, qu’ils doivent assumer leur fonction avec impartialité, indépendance, compétence et diligence. Des obligations calquées sur celles auxquelles sont d’ores et déjà soumis les professionnels médiateurs ou arbitres. On retrouve ici une similarité de régime entre la médiation dite « classique » et celle tenant à l’intelligence artificielle.
2. Un outil supplémentaire à la disposition des parties.
De prime abord, ce type de médiation peut raisonnablement être considéré comme bénéfique pour les parties, à condition bien entendu qu’elles y aient consenti.
En premier lieu, le justiciable peut en quelques clics enclencher le processus d’une médiation. On retrouve ici la démarche initiale du législateur avec cette loi qui s’inscrit dans un souci de simplification, afin de rendre plus accessible ces modes alternatifs de règlements.
En outre, l’algorithme pourrait, en début de médiation, servir aux parties à sélectionner un médiateur correspondant à la spécificité de leur différend. Ainsi, l’impartialité de ce dernier en serait assurément établie et le principe d’égalité des armes entre les parties serait in fine respecté.
De plus, la médiation via des outils en ligne est particulièrement appréciable en temps de pandémie, elle permet en effet de limiter les expositions aux virus en limitant les contacts.
3. Un outil supplémentaire à la disposition des médiateurs.
La médiation assistée d’une IA, serait ainsi tout autant un soutien pour le justiciable que pour le médiateur. En effet, celle-ci lui permettrait de lui abandonner certaines tâches. Le gain de temps serait certain et diminuerait par conséquent le coût de la médiation comme le démontre les prix pratiqués par ces plateformes [5]. La médiation en ligne pourrait aussi palier un manque éventuel de médiateurs surtout face à une demande croissante de médiation notamment depuis la crise sanitaire. Les justiciables et les médiateurs peuvent ainsi raisonnablement se réjouir d’une telle avancée.
Mais l’intelligence artificielle pourrait aussi aider le médiateur à “lire” les parties à la médiation. En effet le médiateur se doit de posséder un certain nombre de soft skills dont la lecture du langage corporel. Les avancées de l’IA dans ce domaine sont importantes [6]. Deux français ont d’ailleurs présenté cette année une invention dans ce domaine au CES [7] (salon dédié à l’innovation). On peut par exemple imaginer que cette IA renseignerait le médiateur sur le temps de parole de chacune des parties mais aussi sur le sérieux et la sincérité de leur démarche par exemple. Cela pourrait également informer le médiateur, durant le processus, des mots prononcés de manière récurrente par les parties à la médiation, renseignant ainsi sur un malaise, une gêne ou un mécontentement annonçant la nécessité par exemple de faire des apartés. Le médiateur pourrait donc adapter le déroulement de la médiation grâce à ces données fournis par l’intelligence artificielle avec un “feedback” afin de pouvoir connaitre les points faibles et les axes d’amélioration dans le but de parvenir à un accord des parties. Il s’agirait alors d’un avantage non négligeable dans la pratique professionnelle quotidienne du médiateur, et lui permettrait de se perfectionner sans cesse.
4. Un outil permettant de désengorger les tribunaux.
Le médiateur supervise l’intelligence artificielle afin de ne profiter que de ses avantages. C’est donc à l’aune de toute cette plus-value, que ce mode de règlement alternatif des différends en ligne s’est développé rapidement pour les litiges inférieurs à 5000 euros comme en témoigne la multiplication des sites internet utilisant cette méthode [8]. La médiation assistée d’une IA a permis de faire en sorte que certains litiges, considérés comme de faible importance, ne terminent pas devant le juge comme le souhaitait le législateur. Par conséquent, la pression sur les tribunaux est considérablement allégée. Cela permet ainsi aux magistrats, et au parquet d’allouer plus de ressources dans les secteurs où la demande judiciaire est forte.
Mais cette médiation « assistée » ne rend pas impossible le risque d’échec comme dans le cas d’une médiation « classique ». Ces sites internet remettent dans ce cas, des preuves de tentative de médiation afin, lorsque la médiation est préalablement obligatoire, de saisir ensuite une juridiction. C’est encore un atout non négligeable pour les parties.
Quoi qu’il en soit, cette digitalisation de la médiation mérite d’être encadrée afin d’éviter les écueils classiques soulevés par les débats éthiques.
II. L’atteinte portée à notre justice originelle.
1. Un fantasme de la performance limité par des enjeux éthiques.
L’objectif d’efficacité poursuivi par ces plateformes [9] est effectivement limité, et ce, par des enjeux éthiques considérables. La question de l’opacité du processus suscite une réelle interrogation quant à la communication du traitement opéré par le système algorithmique. Comment fonctionne-t-il ? Est-il fondé sur un système de machine-learning [10], avec un apprentissage automatiques grâces à des récurrences ? Est-il réglé de telle sorte à accompagner le médiateur ou à faire son travail ? L’algorithme prend-il réellement tous les intérêts en présence ? Autant de questions que d’absence de réponse faisant peser un certain doute quant à la confiance que l’on peut accorder à de tels systèmes.
De même, la question du danger d’une intelligence trop développée, constitue aussi l’une des craintes de l’émergence des nouvelles technologies au service du droit. Sans trop rentrer dans l’hypothèse d’une science-fiction, la machine qui viendrait à surpasser les capacités dont on l’aura dotée, par exemple en conservant ou en diffusant les informations soumises par les justiciables, pourrait considérablement atteindre les droits et libertés des personnes qui y auront recouru [11].
2. Les effets pervers du processus de médiation en ligne.
Bien qu’on puisse lui attacher certains avantages, le recours à ce processus robotisé pourrait intervenir à contre-courant des effets bénéfiques escomptés. En effet, dans l’hypothèse où cet algorithme serait un médiateur sui generis, à lui tout seul, l’absence de conscience et d’humanité se révélerait extrêmement problématique. Certains aspects de langage sont nécessairement méconnus d’une plateforme robotisée. Il s’agirait par exemple de la persuasion dans les négociations, de l’hésitation, de l’ambivalence, le fait d’être à l’écoute, et même d’être optimiste. Ces émotions et traits humains sont le propre du rôle du médiateur, et enlever ces dernières ne ferait que desservir les justiciables qui y ont recours, et dénaturer la médiation.
De même, les techniques de médiation actuelles comme la négociation raisonnée, ne sauraient être misent en œuvre par un robot. En effet, pendant des années, les praticiens n’ont cessé de vanter les mérites de cette méthode issue de l’ouvrage « Getting to yes ». Élaborée par le professeur Roger Fisher et l’auteur et anthropologue William Ury, cette technique est fondée sur la coopération consistant à traiter de façon séparée les questions à dimensions relationnelles et le problème, en retenant des critères justes et objectifs pour trouver un accord [12]. On peut donc aisément affirmer qu’utiliser une intelligence artificielle viendrait exclure de la pratique cette technique tant aimée par les praticiens. Comment un robot pourrait-il retenir des critères « justes et objectifs » ou encore traiter de façon séparée les questions personnelles du problème ? L’intelligence artificielle pour l’heure n’en est pas capable et en user viendrait réduire le spectre des possibles du médiateur pour résoudre un différend. Cela nuirait nécessairement aux parties qui verraient leurs chances diminuées de régler leur différend de la manière la plus optimale possible.
Enfin, une telle robotisation du processus de médiation contribuerait à dénaturer cette procédure, car les algorithmes sont normalement incapables de complaisance. Le robot étant logiquement dépourvu de toute forme de libre arbitre, il encadrera tout le processus de façon mécanique en fonction des informations soumises. Or, la présence d’un médiateur humain est absolument souhaitable dans la mesure où il pourra adapter l’accord avec les parties aux circonstances de chaque espèce, et au regard des enjeux et intérêts respectifs. À moins d’intégrer une fonction de machine Learning, jugée extrêmement compliqué à mettre en place par les développeurs, on voit mal comment cette fonction serait remplie.
3. Quelle responsabilité pour ces plateformes ?
Bien que le législateur se soit efforcé d’encadrer ces nouveaux dispositifs de médiations en ligne, l’encadrement juridique est plus que succinct s’agissant des éventuelles erreurs, fautes, qui peuvent découler de l’utilisation de tels services. La question de la responsabilité de ces entreprises innovantes reste encore floue. L’article 4 de la loi de programmation du 23 Mars 2019 [13] ne nous apporte pas de précision quant à la responsabilité des sociétés développant ce type d’intelligence artificielle en cas de défectuosité, ou d’erreur de paramétrage. Qui pourra-t-on poursuivre ? Pour l’instant, il s’agirait peut-être de développer une sorte de responsabilité du fait des objets connectés. Les parties souhaitent trouver une porte de sortie via l’assistance d’une plateforme en ligne, mais n’y trouvent aucune assurance d’être indemnisées en cas de défectuosité du logiciel algorithmique, encore faut-il même le prouver. La charge de la preuve étant libre en matière civile, on aura du mal à savoir comment démontrer la défectuosité d’un tel algorithme dont les rouages sont connus par les seuls créateurs.
Néanmoins, un début de réponse est apporté par la création d’un nouvel organisme certificateur accrédité. Dans un souci de sécurité juridique et face aux apparitions croissantes de ces services en ligne, un décret n° 2019-1089 du 25 octobre 2019 [14] instaure un processus de certification des services en ligne par cet organisme certificateur. Un second décret du 23 décembre 2020 [15] est intervenu pour énoncer cette fois, la procédure d’accréditation par le COFRAC de ces mêmes organismes certificateurs. C’est aujourd’hui la marque de garantie CERTILIS [16] qui a l’honneur d’encadrer le développement de ces prestations en ligne de médiation. On imagine que les justiciables pourront placer leur confiance en fonction des plateformes estampillées par le logo CERTILIS, leur accordant ainsi le droit de poursuivre des plateformes qui ont manqué à leurs obligations bien que certifiées par cet organisme.
L’idée d’une certification permettrait ici d’apporter à la fois une sécurité pour le justiciable qui sera rassuré sur la plateforme, et peut-être un début de responsabilité à l’égard de cette dernière. Ainsi, on pourrait imaginer que les utilisateurs ne puissent pas engager la responsabilité de l’entreprise innovante non certifiée. Le bénéfice de la certification réside aussi dans la crédibilité dont profiterait l’entreprise qui réussirait à l’obtenir. En effet, un véritable marché commence à émerger autour de ses plateformes, et c’est à celui qui bénéficiera de la meilleure renommée qui attirera le plus de justiciables sur son site.
Une dernière question est à soulever s’agissant de la responsabilité de cette plateforme. Aujourd’hui plusieurs sites utilisant de l’intelligence artificielle proposent, une fois trouvé, de rédiger l’accord. Or, le médiateur dans la pratique ne le peut pas. En effet, son rôle se borne à aider les parties à trouver elles-mêmes une solution, l’accord étant ensuite rédigé par une tierce personne non-partie à la médiation. Ici, une véritable contradiction apparaît entre la pratique traditionnelle de la médiation et ce qui est proposé par ces sites internet. En conséquence si le site commet une erreur en rédigeant l’accord, une nouvelle fois, qui sera tenue pour responsable ? Aujourd’hui aucune assurance n’accepte d’assurer les médiateurs pour de tels manquements et les parties perdraient du temps à faire les démarches pour être indemnisées, alors qu’elles voulaient en gagner en recourant à la médiation. Il est donc préférable de leur laisser le soin de rédiger elles-mêmes l’accord.
4. La protections des données personnelles : préoccupation du législateur.
Par ailleurs, la protection des données personnelles peut être mise à mal. Le processus algorithmique de médiation devra forcément recueillir des informations sur les justiciables, mais que deviendront ces données [17] ?
Il est absolument nécessaire de les réglementer sous l’égide du RGPD. On comprend ici que tout un pan législatif est à conceptualiser par le législateur. Bien sûr, le travail a certes déjà débuté avec la loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022, néanmoins il s’avère pour l’instant insuffisant face à cet enjeu de la protection de la vie privée.
Les GAFAM ne sont donc pas les seuls à être soumis à un tel débat s’agissant du respect de la sphère privée. Les starts up et les legals-tech n’y échappent pas non plus. Quelle que soit l’échelle de ces entreprises, internationalisées ou non, la protection des données personnelles est, et doit demeurer la préoccupation du législateur s’agissant de recueil d’information par les formes d’intelligences artificielles. En particulier lorsqu’il s’agit de médiation, là où les enjeux économiques et financiers sont parfois considérables. Ainsi, cette protection est susceptible de ne pas être respectée si la plateforme n’est pas certifiée. La commission nationale de l’informatique et des libertés s’est emparée du problème, et estime devoir tracer « des lignes rouges aux futurs usages de l’intelligence artificielle » [18].
En effet « Les nouvelles technologies changent les modes de création du droit. Elles renouvellent aussi les modes d’exécution du droit. Et cela tant dans l’espace des normativités publiques que dans celui des normativités privées » affirmait justement le docteur en droit Boris Barraud de l’université d’Aix- Marseille [19].
Discussion en cours :
Les auteurs mélangent allègrement toutes les formes de médiation sans les distinguer. Il existe un médiateur des entreprises créé par Bercy (cf la statistique de X10 pendant le COVID), des médiateurs de la consommation (agréés ou pas par la CECMC) dont la saisine est gratuite pour les consommateurs, des médiateurs individuels, avocats par exemple, et qui se rémunèrent auprès des parties etc... Autant de processus très différents, qui n’intègrent pour certains aucun échange en face à face et même téléphonique avec le requérant.
Les généralités évoqués ne sont donc pas pertinentes