IA et arbitrage : efficacité accrue, confiance fragilisée ?

Par Michael Lardy, Médiateur.

666 lectures 1re Parution: 5  /5

Explorer : # intelligence artificielle # arbitrage # responsabilité juridictionnelle # régulation juridique

L’intelligence artificielle s’impose progressivement dans la pratique de l’arbitrage international. Recherche juridique, analyse documentaire, rédaction assistée des sentences : les promesses d’efficacité sont considérables. Mais cette évolution technologique soulève une question centrale : jusqu’où l’arbitrage peut-il intégrer l’IA sans fragiliser la légitimité de la décision arbitrale et la responsabilité personnelle de l’arbitre ? Cet article propose une analyse nuancée des opportunités, des risques et des lignes de fracture juridiques que révèle l’entrée des systèmes d’IA dans le raisonnement arbitral.

-

Introduction.

L’arbitrage international traverse une phase de mutation profonde. L’essor rapide de systèmes d’intelligence artificielle avancés – en particulier des grands modèles linguistiques et des applications juridiques spécialisées qui en dérivent – a fait émerger des outils capables d’assister de manière substantielle, voire d’assumer de façon autonome, certaines fonctions centrales du règlement des différends. Là où l’arbitrage s’est historiquement distingué par sa souplesse procédurale, son efficacité et la liberté reconnue aux parties, ces innovations technologiques interrogent désormais la nature même du processus décisionnel et son ancrage humain.

Cette évolution est traversée par une tension manifeste. D’un côté, diverses études empiriques attestent d’un niveau de confiance croissant des utilisateurs à l’égard des systèmes d’IA. De l’autre, la recherche consacrée à l’intelligence artificielle juridique met en évidence des taux d’erreur encore significatifs, y compris dans les applications les plus avancées. Pour l’arbitrage, cette divergence n’est pas anodine : une adoption insuffisamment réfléchie de contenus générés par l’IA comporte le risque d’éroder la fiabilité des procédures et, à terme, la confiance dans leur légitimité.

I. Éléments de contexte historique.

L’arbitrage s’est toujours montré particulièrement réceptif aux évolutions économiques et technologiques. Si les cadres institutionnels se sont largement stabilisés à partir de la Convention de New York de 1958, la pratique procédurale n’a cessé, quant à elle, d’intégrer de nouveaux outils. Les bases de données électroniques ont d’abord transformé la recherche juridique, avant que l’e-discovery, la visioconférence et, plus récemment, les premières plateformes de règlement en ligne des litiges ne modifient en profondeur l’organisation des procédures. Chacune de ces innovations poursuivait un objectif commun : accroître l’efficacité et élargir l’accès à l’arbitrage.

L’arrivée de systèmes d’intelligence artificielle performants marque toutefois une rupture qualitative. Contrairement aux précédentes étapes de numérisation, ces technologies ne se limitent plus à l’automatisation de tâches administratives. Elles sont désormais en mesure de produire de manière autonome des analyses, des argumentations et des projets de motivation. Cette capacité soulève des interrogations fondamentales quant à leur compatibilité avec les principes structurants de l’arbitrage, au premier rang desquels figurent l’autonomie des parties, l’équité procédurale et le principe selon lequel le pouvoir décisionnel doit demeurer entre les mains du tribunal arbitral.

II. Fondements technologiques.

Le débat actuel sur l’intégration de l’intelligence artificielle dans l’arbitrage est indissociable des caractéristiques techniques des systèmes utilisés. Les grands modèles linguistiques occupent une place centrale dans cette discussion. Leur aptitude à produire des textes complexes, à organiser des raisonnements juridiques et à extraire des informations à partir de volumes considérables de données en fait des outils particulièrement attractifs pour la pratique arbitrale.

Une évolution déterminante réside dans l’association de ces modèles avec des systèmes dits de retrieval-augmented generation (RAG). En reliant la génération de texte à des bases de données externes, ces architectures visent à renforcer l’ancrage des réponses de l’IA dans des sources juridiques existantes. Les résultats empiriques montrent toutefois que, malgré ces améliorations, les marges d’erreur persistent et ne peuvent être ignorées.

La question de l’explicabilité revêt, dans ce contexte, une importance particulière. Alors que les systèmes experts des décennies précédentes reposaient sur des règles explicites et des arbres décisionnels compréhensibles, les modèles actuels s’appuient sur des réseaux neuronaux d’une complexité telle que même leurs concepteurs peinent à retracer précisément les mécanismes internes. Pour l’arbitrage, cette opacité pose un défi direct : l’exigence de motivation des décisions ne peut être satisfaite que si les résultats fournis par l’IA font l’objet d’une vérification systématique et d’une documentation permettant d’en apprécier la plausibilité.

Parallèlement, on observe l’émergence de projets visant à automatiser partiellement, voire intégralement, certaines procédures arbitrales. Le système Arbitrus.ai illustre cette tendance. Conçu comme une solution intégrée couvrant l’ensemble du processus, il centralise écritures, preuves et arguments dans une base de données unique, confie l’élaboration d’une décision préliminaire à un modèle d’IA et utilise un modèle linguistique pour en formuler la motivation. Bien que le résultat final soit encore soumis à un contrôle humain, ce type de projet démontre le degré de maturité atteint par les technologies nécessaires à un arbitrage largement automatisé.

Enfin, les profils d’erreur propres à ces systèmes appellent une attention particulière. Outre les phénomènes dits d’« hallucination », qui se traduisent par l’invention de sources juridiques inexistantes, les biais constituent un risque structurel. Ils apparaissent notamment lorsque les données d’entraînement privilégient certains ordres juridiques ou schémas argumentatifs. Dans un contexte d’arbitrage international et interculturel, une telle surreprésentation peut affecter la perception de légitimité, par exemple lorsque des cadres interprétatifs occidentaux dominent implicitement l’analyse.

Pris dans leur ensemble, ces développements technologiques ouvrent des perspectives considérables pour l’arbitrage, tout en rendant indispensable une utilisation mesurée, consciente des limites structurelles des systèmes d’IA et fondée sur un contrôle rigoureux.

III. Les outils d’IA actuellement utilisés en arbitrage.

La pratique de l’arbitrage international est de plus en plus façonnée par des applications d’intelligence artificielle hautement spécialisées. Ces outils ne se limitent plus à des usages ponctuels, mais peuvent accompagner l’ensemble du déroulement d’une procédure arbitrale, depuis la phase préparatoire jusqu’au suivi post-sentence.

1. Recherche juridique et analyse de la jurisprudence.

Plusieurs plateformes dominent aujourd’hui le marché de la recherche juridique assistée par l’IA.

  • Harvey AI s’est imposé comme un acteur de premier plan, notamment auprès des grands cabinets internationaux. Sa valeur ajoutée réside dans la capacité à mener des recherches complexes et à les articuler avec des bases de données établies, telles que LexisNexis et les outils de validation de jurisprudence qui y sont intégrés.
  • Thomson Reuters CoCounsel Legal adopte une approche comparable, en développant de manière autonome des stratégies de recherche à plusieurs niveaux, adaptées à des problématiques juridiques complexes.
    Dans le domaine plus spécifique de l’arbitrage international, Jus-AI, développé par Jus Mundi, occupe une place particulière. Fondé sur l’exploitation de dizaines de milliers de documents issus de la pratique arbitrale internationale, il permet de synthétiser des sentences volumineuses et de faciliter l’analyse comparative des décisions.
    Aux États-Unis, les solutions Lexis+ AI et Westlaw AI-Assisted Research dominent largement le marché. Basées sur des architectures RAG, elles autorisent des requêtes en langage naturel et produisent des réponses directement reliées à des corpus étendus de jurisprudence, de législation et de données économiques.

2. Analyse documentaire et e-discovery.

L’IA joue également un rôle central dans le traitement des documents et la gestion de l’e-discovery.

  • Luminance, qui repose sur une approche dite de mixture of experts et sur des modèles multilingues, est largement utilisée pour l’analyse contractuelle, les phases de négociation et les audits postérieurs à l’exécution.
  • RelativityOne, de son côté, intègre des mécanismes d’apprentissage automatique continu combinés à des modèles linguistiques avancés. Cette approche permet de réduire de manière significative le temps consacré à l’examen de vastes ensembles documentaires.
  • Kira Systems, aujourd’hui intégré au groupe Litera, est particulièrement répandu dans la pratique des fusions-acquisitions. Il est capable d’identifier et d’extraire plus de 1 400 types de clauses relevant de nombreux domaines juridiques, et trouve également des applications dans les arbitrages complexes impliquant une documentation contractuelle dense.

3. Sélection des arbitres et gestion des conflits d’intérêts.

L’IA intervient aussi dans des domaines plus sensibles de la procédure arbitrale. La plateforme Arbitrator Intelligence propose des profils d’arbitres fondés sur l’analyse de données empiriques, telles que la durée des procédures, les pratiques décisionnelles ou encore le comportement procédural observé dans des affaires antérieures.

Le Conflict Checker de Jus Mundi vise quant à lui à identifier de manière systématique les conflits d’intérêts potentiels impliquant arbitres, conseils ou experts. D’autres outils, tels qu’ArbiLex, LexMachina ou Solomonic, s’inscrivent dans une logique prédictive. Ils cherchent à anticiper l’issue de litiges sur la base de données statistiques et servent principalement d’instruments d’aide à la décision stratégique, notamment pour évaluer l’opportunité d’un règlement amiable ou la poursuite d’une procédure contentieuse.

4. Traduction et transcription.

Enfin, les technologies de traduction et de transcription assistées par l’IA occupent une place croissante dans les arbitrages internationaux. DeepL s’est imposé comme un outil de traduction neuronale fiable pour l’élaboration de premières versions de documents juridiques complexes dans un grand nombre de langues. À ces systèmes s’ajoutent des solutions de transcription automatique, utilisées pour le traitement des audiences et leur indexation, facilitant ainsi l’exploitation ultérieure des échanges oraux.

IV. Champs d’application dans le déroulement des procédures arbitrales.

L’examen des outils disponibles montre clairement que l’intelligence artificielle peut intervenir à toutes les étapes d’une procédure arbitrale. On peut distinguer, à cet égard, quatre phases principales : la phase préparatoire, la conduite de la procédure, la prise de décision et la période postérieure au prononcé de la sentence.

1. Phase préparatoire.

Avant même l’ouverture formelle d’une procédure arbitrale, les systèmes d’IA offrent de nouvelles possibilités. L’analyse de données permet notamment d’évaluer les profils des arbitres à partir de décisions antérieures, de publications ou de réseaux professionnels. Si ces outils facilitent la sélection par les parties, ils comportent également le risque de reproduire des biais difficilement perceptibles.

Les instruments d’analyse prédictive sont également utilisés pour estimer les chances de succès de certaines prétentions. Ils peuvent fournir des indications stratégiques utiles, mais ne sauraient être confondus avec des instruments de décision définitive.

2. Conduite de la procédure.

Au cours de la procédure proprement dite, l’IA est principalement mobilisée pour optimiser l’organisation et la gestion du travail. Les plateformes de gestion documentaire et d’e-discovery, telles que RelativityOne, permettent de structurer efficacement des volumes considérables de données et d’identifier plus rapidement les éléments probants.

Les outils de traduction et de transcription fondés sur des modèles linguistiques facilitent la communication dans les procédures multilingues, en réduisant les délais et les coûts associés aux prestations linguistiques traditionnelles.
Par ailleurs, certains systèmes assistent la gestion des audiences, en organisant le déroulement des échanges, en générant des comptes rendus et en assurant une cohérence formelle des documents procéduraux.

3. Prise de décision.

La phase de rédaction des sentences constitue un domaine particulièrement sensible. L’IA peut être utilisée pour élaborer des structures de décision, organiser les arguments ou proposer des formulations types. Des contrôles de cohérence automatisés, fondés sur la comparaison avec des bases de données de sentences antérieures, peuvent également contribuer à identifier des incohérences ou des divergences non intentionnelles.

Ces usages se heurtent toutefois à une limite fondamentale : le receptum arbitri impose aux arbitres de statuer de manière indépendante. La reprise non critique de contenus générés par l’IA, comme l’a illustré l’affaire LaPaglia c. Valve, soulève des interrogations majeures quant à la légitimité de la décision rendue.

4. Après la sentence.

L’influence de l’IA ne s’arrête pas au prononcé de la sentence arbitrale. Des outils spécialisés permettent d’anonymiser les décisions, de les intégrer dans des bases de données et d’en améliorer l’accessibilité, contribuant ainsi à la transparence de la pratique arbitrale.

En matière d’exécution, les systèmes fondés sur l’IA sont utilisés pour analyser les risques au niveau national, notamment par la comparaison de jurisprudences et de durées moyennes de procédures. L’ensemble de ces éléments montre que l’intelligence artificielle est en mesure d’affecter l’ensemble du cycle arbitral. L’enjeu principal ne réside pas tant dans la faisabilité technique que dans la préservation des limites inhérentes à la responsabilité juridictionnelle et dans la maîtrise des risques liés à une utilisation insuffisamment réfléchie.

V. Perspectives et opportunités.

Le recours à des systèmes d’intelligence artificielle avancés en arbitrage ouvre un ensemble de perspectives qui concernent avant tout l’efficacité des procédures, la qualité des décisions et l’accessibilité de ce mode de règlement des différends. Même si ces potentialités ne sont pas exemptes de risques, elles expliquent en grande partie l’attrait croissant de ces technologies dans la concurrence internationale entre mécanismes de résolution des litiges.

L’un des arguments les plus fréquemment avancés en faveur de l’IA réside dans sa capacité à raccourcir sensiblement la durée des procédures. Les applications dédiées à la gestion documentaire et à l’e-discovery permettent d’examiner en un temps réduit des volumes considérables de documents et d’en extraire les éléments pertinents. Cette accélération se traduit non seulement par un gain de temps, mais également par une diminution significative des coûts supportés par les parties.
En s’appuyant sur des bases de données étendues, les systèmes d’IA sont en mesure d’intégrer de manière systématique les sentences antérieures, les précédents et les schémas d’argumentation juridique dominants. Cette capacité favorise une plus grande cohérence dans la motivation des sentences arbitrales et peut contribuer à en renforcer la qualité. Les contrôles de cohérence automatisés constituent, à cet égard, un apport notable, en particulier dans les procédures complexes ou impliquant plusieurs parties.

La diminution des coûts et des charges administratives pourrait également élargir l’accès à l’arbitrage pour les petites et moyennes entreprises. Jusqu’à présent, ce mode de règlement des différends est resté largement l’apanage des grandes entreprises, en raison des frais élevés liés aux honoraires des conseils, des arbitres et à la conduite des procédures. Les solutions fondées sur l’IA ont le potentiel de contribuer à une démocratisation progressive de l’arbitrage. Pris dans leur ensemble, ces éléments montrent que l’intelligence artificielle peut rendre l’arbitrage à la fois plus rapide, plus cohérent et plus accessible. Ces opportunités ne peuvent toutefois être appréciées indépendamment des risques inhérents à l’utilisation de systèmes dont la fiabilité reste imparfaite.

VI. Risques et limites.

Si les bénéfices potentiels de l’IA en arbitrage sont indéniables, les dangers liés à une utilisation non critique sont tout aussi substantiels. Ils concernent avant tout la fiabilité des systèmes et le risque que les arbitres ou les parties accordent une confiance excessive à des résultats dont la qualité n’a pas été vérifiée avec la rigueur nécessaire.

1. Fiabilité et erreurs systémiques.

La fiabilité limitée des applications d’IA demeure un problème central. L’idée selon laquelle les systèmes juridiques actuels seraient exempts d’« hallucinations » relève d’une illusion. Des études empiriques menées notamment par les universités de Stanford et de Yale ont mis en évidence que même les produits juridiques fondés sur l’IA les plus répandus produisent encore un nombre significatif de résultats erronés. Dans une proportion non négligeable de tests, des citations inexactes ou des références inexistantes ont été générées, affectant directement la solidité des raisonnements juridiques.

Ces erreurs ne constituent pas de simples dysfonctionnements techniques marginaux. Elles touchent au cœur même de ce qui fonde une procédure juridictionnelle : la fiabilité des bases sur lesquelles repose la décision. Lorsque des éléments centraux de l’argumentation ou l’invocation de précédents sont inexacts, c’est la légitimité de l’ensemble de la sentence arbitrale qui s’en trouve fragilisée.

2. Confiance subjective et déficit de contrôle.

Un autre aspect particulièrement préoccupant réside dans le décalage entre la perception des utilisateurs et la réalité technique. Les enquêtes récentes montrent un niveau de confiance élevé dans les systèmes d’IA. Une large majorité des utilisateurs déclarent se sentir compris par ces outils. Dans le même temps, seule une minorité procède à une vérification systématique de l’exactitude des résultats fournis. Ce déséquilibre entre confiance et contrôle crée un risque considérable. Dans un mécanisme de règlement des différends fondé sur l’équité procédurale et la confiance des parties, une telle asymétrie peut avoir des conséquences lourdes.

3. L’exemple de l’affaire LaPaglia c. Valve.

L’affaire LaPaglia c. Valve illustre de manière particulièrement éclairante ces dérives potentielles. Dans cette procédure portée devant une juridiction fédérale américaine, une sentence arbitrale a été contestée au motif que l’arbitre aurait délégué, au moins en partie, sa fonction juridictionnelle à un système d’IA. Le demandeur a fait valoir que la sentence contenait des formulations caractéristiques d’une production automatisée, telles que des répétitions inhabituelles, des affirmations factuellement inexactes et une absence de fondement clair dans le dossier.

À ces éléments s’ajoutait une rapidité procédurale atypique, la décision ayant été rendue dans un délai particulièrement court, peu avant un déplacement privé de l’arbitre. La combinaison de ces facteurs a nourri le soupçon d’un recours excessif à l’IA, sans contrôle humain suffisant. Bien que l’affaire ne soit pas encore définitivement tranchée, elle met en lumière une limite fondamentale : la responsabilité personnelle du décideur ne peut être transférée à un système technique.

4. Biais, confidentialité et protection des données.

Au-delà des hallucinations, des problèmes structurels subsistent. Les biais issus des données d’entraînement peuvent conduire à une surreprésentation de certains ordres juridiques, styles argumentatifs ou perspectives culturelles. Dans un contexte d’arbitrage international, un tel déséquilibre risque d’affecter l’équité perçue de la procédure.

Les questions de confidentialité et de protection des données soulèvent également des préoccupations majeures. L’introduction de documents sensibles dans des systèmes externes, dont les modalités de traitement ne sont pas toujours transparentes, peut entrer en tension avec les exigences strictes de confidentialité propres à l’arbitrage.

En définitive, les risques liés à l’IA en arbitrage tiennent moins à l’imperfection technique des systèmes qu’à la propension humaine à accepter leurs résultats sans examen critique. Les vulnérabilités empiriquement établies, le déséquilibre entre confiance et contrôle, ainsi que des affaires emblématiques comme LaPaglia c. Valve montrent que l’arbitrage est confronté à un double défi : exploiter le potentiel de l’IA sans compromettre les fondements de sa légitimité, à savoir la responsabilité individuelle, la transparence et l’équité.

VII. Réactions normatives et cadres de régulation.

Les risques associés à l’intégration de l’intelligence artificielle dans les procédures arbitrales ont d’ores et déjà suscité des premières réponses sur le plan réglementaire et institutionnel. Il convient toutefois de relever que les règlements d’arbitrage traditionnels ne comportent, à ce stade, aucune disposition explicite encadrant l’usage de l’IA. La régulation s’est donc développée principalement à travers des instruments de soft law émanant d’organismes spécialisés, ainsi que par l’application indirecte de cadres juridiques généraux.

Dans ce contexte, le règlement européen sur l’intelligence artificielle (AI Act), adopté en 2024, occupe une place centrale. Il qualifie l’utilisation de l’IA dans les contextes juridictionnels – catégorie dans laquelle s’inscrit également l’arbitrage – d’application à haut risque. Cette qualification emporte des exigences particulièrement strictes : les systèmes concernés doivent être transparents, explicables et vérifiables, et une supervision humaine effective doit être assurée en permanence. Pour la pratique arbitrale, cela implique que les arbitres ne sauraient transférer leur responsabilité à des dispositifs techniques. Ils demeurent tenus de contrôler, valider et, le cas échéant, corriger les contenus générés par l’IA.

Parallèlement, plusieurs initiatives institutionnelles ont vu le jour. Les Guidelines on the Use of Artificial Intelligence in Arbitration, publiées en 2024 par le Silicon Valley Arbitration and Mediation Center (SVAMC), ainsi que les lignes directrices adoptées en 2025 par le Chartered Institute of Arbitrators (CIArb), constituent des références importantes. Bien qu’elles ne revêtent pas de caractère contraignant, ces lignes directrices exercent une influence normative significative. Elles consacrent notamment des principes tels que l’obligation d’informer les parties de l’utilisation de l’IA au cours de la procédure et l’interdiction de déléguer des fonctions décisionnelles essentielles à des systèmes automatisés.

Les grandes institutions arbitrales internationales commencent également à se saisir de la question. Si des organismes tels que la CCI, la LCIA ou la DIS n’ont pas encore intégré de règles spécifiques dans leurs règlements, les débats internes et les publications pratiques témoignent d’une réflexion croissante sur l’opportunité d’encadrer l’usage de l’IA, soit par des dispositions procédurales, soit par des recommandations complémentaires. Cette prudence s’explique en partie par la crainte qu’un encadrement trop rigide n’entrave l’innovation. Néanmoins, la dynamique actuelle révèle une pression croissante en faveur de normes plus structurées.

Dans l’ensemble, la régulation de l’IA en arbitrage se développe sur plusieurs niveaux. Le cadre général posé par l’AI Act s’applique aux procédures arbitrales en tant qu’activités à haut risque. Les instruments de soft law fournissent des orientations pratiques, tandis que les institutions arbitrales s’efforcent progressivement de définir leur position. L’enjeu consiste à trouver un équilibre entre ouverture technologique et sécurité juridique. Seules des normes minimales clairement définies permettront de contenir les risques d’un usage non maîtrisé et de préserver la confiance dans l’intégrité de l’arbitrage.

VIII. Trajectoires d’évolution possibles.

L’avenir de l’intelligence artificielle en arbitrage ne saurait être envisagé comme une progression linéaire. Plusieurs scénarios se dessinent, dont la concrétisation dépendra à la fois du cadre réglementaire, du degré de maturité technologique et de l’acceptation par les praticiens.

Un premier scénario repose sur une coopération étroite entre l’humain et la machine. Dans cette configuration, l’arbitre conserve pleinement son rôle de décideur, tandis que l’IA intervient comme outil d’assistance. Les applications relatives à la gestion documentaire, à la traduction ou à la structuration des écritures sont déjà largement intégrées à la pratique et pourraient devenir des standards procéduraux. La décision finale resterait toutefois exclusivement entre les mains du tribunal arbitral. Ce modèle correspond étroitement à l’esprit des lignes directrices actuelles de soft law, qui excluent toute délégation des fonctions juridictionnelles essentielles.
Un second scénario, de nature hybride, envisage une implication plus poussée des systèmes d’IA. Ceux-ci pourraient non seulement accomplir des tâches préparatoires, mais également formuler de manière autonome des propositions d’analyse juridique.

Le tribunal examinerait ensuite ces propositions, les ajusterait et les adopterait le cas échéant. Un tel modèle suppose toutefois un niveau élevé de transparence, d’information des parties et de traçabilité des contributions de l’IA. À défaut, la frontière entre assistance et décision risquerait de devenir floue.
Un troisième scénario, plus radical, serait celui d’une automatisation partielle ou totale des procédures arbitrales. Des projets tels qu’Arbitrus.ai démontrent déjà la faisabilité technique de systèmes largement automatisés. Même si un contrôle humain final demeure actuellement requis, ces initiatives montrent que l’automatisation intégrale n’est plus une simple hypothèse théorique. Sur le plan juridique, de telles évolutions soulèvent toutefois des interrogations majeures : une procédure de ce type serait-elle compatible avec le receptum arbitri ? Des sentences générées par une machine, puis simplement validées par un humain, pourraient-elles être reconnues et exécutées au titre de la Convention de New York ?

Enfin, un scénario de crise de légitimité ne peut être exclu. Si l’arbitrage s’appuie de manière irréfléchie sur l’IA sans mettre en place des mécanismes de contrôle adéquats, il risque de perdre sa crédibilité. Des affaires comme LaPaglia c. Valve montrent déjà que le soupçon d’une délégation excessive à des systèmes automatisés peut suffire à fragiliser la confiance dans l’ensemble de la procédure. Si la confiance subjective dans l’IA continue de croître sans que la qualité objective des résultats soit garantie, l’arbitrage pourrait se trouver confronté à un véritable piège de légitimité.

En définitive, trois axes principaux se dégagent : une coexistence prudente entre l’humain et la machine, un modèle hybride fondé sur la transparence, et la perspective d’une automatisation étendue. Chacun de ces scénarios requiert l’adoption de normes claires afin de garantir l’intégrité du processus arbitral. À défaut, la faisabilité technologique risque de prendre le pas sur la légitimité juridique.

IX. Conclusions.

Il ne fait guère de doute que les systèmes d’intelligence artificielle avancés transformeront durablement la pratique de l’arbitrage. Alors que les innovations technologiques antérieures visaient principalement à rationaliser les aspects administratifs, l’IA exerce une influence plus profonde, touchant directement au raisonnement juridique et à la prise de décision.

Dans ce contexte, une approche graduée apparaît nécessaire. Il convient, en premier lieu, d’intégrer des obligations de transparence dans les termes de référence ou les ordonnances de procédure, afin que les parties et le tribunal précisent si, et dans quelle mesure, des systèmes d’IA sont utilisés.
En second lieu, le principe de non-délégation doit être strictement respecté : la fonction juridictionnelle ne peut être externalisée, même lorsque l’IA intervient pour proposer des projets ou effectuer des contrôles de cohérence.

En outre, des vérifications de plausibilité rigoureuses sont indispensables. Tout contenu issu de l’IA doit être contrôlé quant à son exactitude, étayé par des sources fiables et corrigé en cas de doute.
Enfin, les institutions arbitrales sont appelées à développer des cadres de gouvernance définissant des normes minimales, à l’image des initiatives déjà engagées par le SVAMC et le CIArb sous forme de lignes directrices non contraignantes.

À plus long terme, le recours exclusif au soft law pourrait toutefois s’avérer insuffisant. La qualification de l’IA comme application à haut risque par l’AI Act européen témoigne de la sensibilité particulière de son utilisation dans les contextes juridictionnels. Une codification plus contraignante pourrait dès lors devenir nécessaire afin d’assurer des standards minimaux harmonisés à l’échelle internationale et de préserver la reconnaissance et l’exécution des sentences arbitrales assistées par l’IA.

L’arbitrage se trouve ainsi à un moment charnière. Il peut exploiter le potentiel considérable de l’intelligence artificielle pour gagner en efficacité, en accessibilité et en cohérence. Mais sans réflexion critique, sans règles claires et sans respect constant de la responsabilité juridictionnelle, il risque de perdre ce qui constitue sa ressource la plus précieuse : la confiance des parties dans l’intégrité du processus arbitral.

Bibliographie.

Aceris Law
Arbitrators and AI, disponible en ligne sur le site d’Aceris Law
Aceris Law
When Arbitrators Use AI : LaPaglia v. Valve and the Boundaries of Adjudication, disponible en ligne sur le site d’Aceris Law, consulté le 30 septembre 2025
Chartered Institute of Arbitrators (CIArb)
Guideline on the Use of Artificial Intelligence in Arbitration, 2025.
Ernst & Young GmbH & Co. KG (EY)
EY AI Sentiment Index 2025. Résultats d’une enquête mondiale menée auprès de plus de 15 000 personnes, printemps 2025
Gandall, Kieffaber, McLaren
We Built Judge.AI. And You Should Buy It, Harvard Journal of Law & Public Policy, vol. 48 (2025), p. 1–88
Magesh, Surani, Dahl, Suzgun, Manning, Ho
Hallucination-Free ? Assessing the Reliability of Leading AI Legal Research Tools, Journal of Empirical Legal Studies (2025), p. 1–27, DOI : 10.1111/jels.12413.
Scherer, Maxi
Artificial Intelligence and Legal Decision-Making : The Wide Open ? Study on the Example of International Arbitration, Queen Mary University of London, School of Law, Legal Studies Research Paper n° 318/2019
Scherer, Maxi
International Arbitration 3.0 – How Artificial Intelligence Will Change Dispute Resolution, In Klausegger/Klein/Kremslehner/Petsche/Pitkowitz/Weiser/Zeiler (dir.), Austrian Yearbook on International Arbitration 2019, Vienne, 2019, p. 503 s.
Scherer, Maxi
We Need to Talk About … Regulating AI in International Arbitration, HSF-SMU Asian Arbitration Lecture, Singapour, 6 novembre 2024, diapositive 14
Silicon Valley Arbitration & Mediation Center (SVAMC)
Guidelines on the Use of Artificial Intelligence in Arbitration, Palo Alto, 2024.
Stefer, Fricke
From Algorithms to Awards, Arbitration International (2025), p. 1 s., spéc. p. 49.
Zheng
The Application of Artificial Intelligence in International Commercial Arbitration : Technological Advancements and Legal Challenges, International Journal of Law, Ethics and Social Sciences 2025/1, p. 1 s.

Michael Lardy
Mediator / Médiateur Franco-Allemand

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

4 votes

L'auteur déclare ne pas avoir utilisé l'IA générative pour la rédaction de cet article.

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

A lire aussi :

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 157 500 membres, 29679 articles, 127 366 messages sur les forums, 2 120 annonces d'emploi et stage... et 1 400 000 visites du site par mois en moyenne. *


FOCUS SUR...

• Sondage Express du Village de la Justice : VOUS et l’IA...

• Les sites d'annonces d'emploi incontournables pour les juristes.





LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs