Introduction.
L’intelligence artificielle se définit comme étant « la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la créativité et la planification » [1]. Larousse offre une définition similaire, décrivant l’IA comme un ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine [2].
Certes, l’IA n’a connu un véritable boom qu’avec l’apparition de ChatGPT en 2022, grâce à l’augmentation de la puissance de calcul des ordinateurs et à l’explosion des données. Cependant, sa naissance officielle remonte aux années cinquante, avec le développement des premiers programmes capables de résoudre des problèmes logiques et de jouer aux échecs. Son renforcement s’est manifesté de manière éclatante en 1997, lorsque le champion du monde d’échecs Garry Kasparov fut vaincu par l’ordinateur IBM Deep Blue.
Depuis ce moment, marqué par le dépassement manifeste de l’humain par la machine dans un domaine intellectuel prestigieux, le développement de l’IA ne cesse de nourrir des interrogations sur l’avenir, ses capacités, ses limites et ses dangers.
Ces préoccupations se sont accentuées avec l’avènement de l’IA générative, une branche de l’intelligence artificielle capable de créer du contenu original (texte, images, sons, vidéos, code, etc.) à partir de simples instructions fournies par un utilisateur, grâce à des techniques d’apprentissage et d’entraînement de modèles sur des volumes astronomiques de données. Son intrusion dans de nombreux domaines, qui étaient jusqu’à très récemment l’apanage de l’Homme, notamment la magistrature, suscite de vives interrogations.
La personnalité du magistrat, sa sagesse, sa conduite exemplaire, son sens aigu de l’équité ainsi que la confiance qu’il inspire par l’étendue de ses connaissances constituent des critères essentiels à sa nomination. Ces qualités demeurent des obligations permanentes qui s’imposent à lui tout au long de l’exercice de ses fonctions, telles qu’instaurées par le Code de déontologie des magistrats [3].
De même, l’interprétation des règles juridiques, l’appréciation des faits, le pouvoir discrétionnaire et la responsabilité des magistrats constituent les fondements d’un système judiciaire véritablement juste. L’application de la loi ne se limite pas à une égalité formelle, mais vise une justice adaptée aux réalités sociales de chaque individu. Ainsi, la peine peut être modulée en fonction de la personnalité du criminel (conditions atténuantes et aggravantes) [4], l’indemnisation déterminée selon la gravité du préjudice [5], et le montant de la pension alimentaire fixé en tenant compte des conditions sociales, économiques et financières des parents ainsi que de leur niveau de vie [6]. Ce pouvoir discrétionnaire, inhérent à la fonction des magistrats, représente le socle de la justice judiciaire et puise sa légitimité dans la loi elle-même.
Dès lors, il apparaît difficile d’imaginer un système judiciaire entièrement déshumanisé, où les circonstances atténuantes ou aggravantes seraient ignorées, et où le pouvoir discrétionnaire du juge serait effacé. Une telle perspective représenterait un risque indéniable, tant pour la protection des droits fondamentaux des justiciables que pour le respect des principes directeurs de la magistrature.
Cela dit, nul ne peut nier la transformation profonde du paysage judiciaire et l’irruption massive des technologies, puisque la machine commence à se substituer au juge en assumant partiellement son rôle. Le recours à l’intelligence artificielle est désormais monnaie courante dans de nombreux systèmes judiciaires à travers le monde [7], y compris au Maroc. Cette intrusion technologique se manifeste sous diverses formes : algorithmes d’aide à la décision, outils de synthèse des faits ou encore interfaces destinées à orienter les citoyens dans leurs démarches judiciaires.
De ce fait, la question centrale qui se pose est la suivante : dans quelle mesure l’intelligence artificielle peut-elle constituer une opportunité pour le système judiciaire en termes d’efficacité, d’accessibilité et d’équité, et quels sont, en contrepartie, les risques et défis qu’elle soulève, susceptibles de compromettre le respect des droits fondamentaux des justiciables ?
Pour répondre à cette question, nous examinerons dans un premier temps les opportunités qu’offre l’intelligence artificielle au système judiciaire (A), puis nous analyserons, dans un second temps, les risques qu’elle présente pour les droits fondamentaux des justiciables ainsi que l’impact sur le rôle et la responsabilité du juge dans la protection de ces droits (B).
A- Les opportunités offertes par l’intelligence artificielle pour un système judiciaire plus efficace, accessible et équitable.
Les tribunaux sont aujourd’hui encombrés de dossiers dans lesquels le demandeur ou son avocat, lorsque la loi l’exige, dépose sa requête sur support papier et réplique de la même manière, tandis que l’adversaire répond et rétorque selon le même procédé.
Ce demandeur, généralement dépourvu de connaissances juridiques et ne disposant d’aucun moyen lui permettant d’évaluer, avant d’entamer la procédure, les chances de succès de sa cause, n’hésite pas à intenter une action et à recourir à tous les moyens, légaux ou non, pour parvenir à ses fins. Le juge, placé au cœur de ce processus, se voit assigner une mission complexe : lire et résumer les faits, analyser l’ensemble des documents et preuves présentés par les parties, qualifier juridiquement les faits, démêler le vrai du faux, consulter la jurisprudence pertinente, prendre en considération les précédents et, in fine, rendre son jugement. Tous ces efforts déployés par les parties, leurs avocats et, finalement, le juge représentent un temps considérable qui aurait pu être évité si le citoyen avait eu à sa disposition un outil d’intelligence artificielle lui permettant de prédire et de connaître en amont l’issue probable de l’action en justice qu’il envisageait d’engager [8].
La visibilité sur l’issue d’une action en justice que procure un outil d’intelligence artificielle permet au justiciable potentiel, dont la cause est perdue ou dont la probabilité de succès est faible, de renoncer à saisir le tribunal et de rechercher des solutions alternatives à son problème. Le résultat est double : d’une part, une diminution du nombre de dossiers non fondés devant les juridictions ; d’autre part, une disponibilité accrue du juge, qui peut consacrer davantage de temps aux affaires sérieuses, celles dont les demandeurs présentent une forte probabilité de succès. Par conséquent, un jugement favorable rendu dans un délai raisonnable contribue à mettre fin à une injustice longtemps subie.
Ainsi, le retrait de certains justiciables potentiels, dont les litiges devraient être résolus en dehors des tribunaux, libère de l’espace pour les affaires qui nécessitent véritablement l’intervention des juges, seuls compétents pour y apporter une solution. Ce mécanisme renforce l’accessibilité à la justice en permettant à la fois un fonctionnement plus fluide des tribunaux, débarrassés d’un encombrement excessif, et une valorisation des autres modes de résolution des conflits.
Si ce même dossier, au lieu d’être fourni sur support papier, était présenté sous format électronique, le juge n’aurait plus à en effectuer lui-même le résumé. Il pourrait s’appuyer sur un outil d’intelligence artificielle capable de synthétiser les éléments essentiels, de proposer les articles applicables au litige, d’identifier les affaires similaires et les décisions rendues dans celles-ci, de mettre en évidence la jurisprudence pertinente, et même de générer un projet de jugement. Le rôle du juge consisterait alors à vérifier, adapter et ajuster ce projet le cas échéant, afin de garantir sa conformité juridique et son adéquation aux spécificités de l’affaire.
Par conséquent, le juge gagnerait un temps considérable, pouvant traiter le double voire le triple des dossiers qu’il examine habituellement. De plus, le délai de mise en délibéré ou d’examen des affaires serait sensiblement raccourci, puisque ces outils d’intelligence artificielle lui facilitent la tâche. En outre, la confiance des citoyens dans la justice s’en trouverait renforcée, non seulement grâce à l’amélioration de son efficacité, mais également par la consécration de la sécurité judiciaire [9]. En effet, lorsqu’il consulte un outil d’IA, le juge accède aux décisions rendues dans des litiges similaires par d’autres juridictions ou par lui-même, ainsi qu’à la jurisprudence « constante » et « superconstante » [10] en la matière.
Cette confiance serait également renforcée par l’apport d’autres outils technologiques dédiés à la gestion administrative des dossiers judiciaires. En effet, certains dispositifs permettent d’affecter automatiquement les affaires similaires et répétitives à la même juridiction grâce à l’analyse de leur contenu. De même, les outils de traduction offrent au juge, lors de l’audience, la possibilité de recevoir les moyens de défense des parties ainsi que les témoignages dans sa propre langue, avec neutralité et fiabilité.
Quant au greffier, son rôle se limite à vérifier la transcription produite par l’outil de saisie automatique et à signer le procès-verbal électroniquement, afin que celui-ci puisse être exploité par le juge lors de la rédaction de son jugement.
Un outil d’intelligence artificielle pourrait également assister le juge dans sa prise de décision en attirant son attention sur les déclarations contradictoires d’un témoin. En effet, il serait capable d’analyser l’ensemble des propos tenus par ce dernier au cours des différentes étapes du procès et de les comparer avec les témoignages des autres parties impliquées dans l’affaire.
Enfin, une fois que le juge a rédigé son jugement, il pourrait le soumettre à un outil d’intelligence artificielle chargé de corriger les erreurs et les fautes d’orthographe. Ce dispositif garantirait un jugement concis, clair, bien argumenté, tranchant et convaincant, inspirant la confiance et contribuant à l’instauration d’une véritable sécurité judiciaire.
Cela dit, cette sécurité judiciaire ne peut être garantie que si le juge recourt à des outils d’intelligence artificielle éthiques, neutres, fiables et transparents, capables de fournir une explicabilité quant à leurs résultats. Ces outils ne doivent pas avoir pour vocation de se substituer au rôle du juge, mais plutôt de l’assister dans la prise de décisions, tout en préservant son pouvoir d’appréciation, d’interprétation et, surtout, sa responsabilité quant au jugement rendu.
B- Les risques et défis de l’IA : entre menaces pour les droits fondamentaux et déshumanisation de la justice.
Il n’est pas anodin que l’AI Act [11] classe les systèmes d’intelligence artificielle utilisés dans l’application de la loi, la répression et l’administration de la justice dans la catégorie des systèmes à haut risque. En effet, ces outils sont soumis à des exigences strictes et à un encadrement juridique rigoureux, bien plus contraignant que celui applicable aux systèmes considérés comme présentant un risque faible ou modéré. Cette classification se justifie par les conséquences particulièrement graves que l’usage de l’IA dans le domaine judiciaire peut avoir sur les droits fondamentaux des justiciables.
L’AI Act impose ainsi des obligations renforcées en matière de transparence, de fiabilité et d’explicabilité des résultats produits par ces systèmes. Les concepteurs et les utilisateurs doivent garantir que les algorithmes ne reproduisent pas de biais discriminatoires, qu’ils respectent la confidentialité des données sensibles et qu’ils permettent au juge de conserver son pouvoir d’appréciation et sa responsabilité dans la décision rendue. L’objectif est double : d’une part, prévenir les atteintes aux droits fondamentaux (égalité devant la loi, droit à un procès équitable, protection des données personnelles) ; d’autre part, instaurer une confiance durable dans l’usage de l’IA [12] au sein de la justice.
De ce fait, les outils d’intelligence artificielle utilisés dans le domaine judiciaire doivent être conçus pour assister les juges dans leur prise de décision, et non pour les remplacer. Les juges doivent en effet préserver leur indépendance, leur intégrité et, en dernier ressort, leur responsabilité quant aux décisions rendues [13]. Il est donc indispensable qu’une supervision humaine soit garantie à toutes les étapes du fonctionnement du système d’IA.
Ainsi, les outils mis à la disposition des juges doivent répondre à cette exigence en offrant une explicabilité claire et transparente de leurs résultats [14]. Les juges doivent pouvoir examiner le raisonnement suivi par la machine, le corriger ou même l’inverser si nécessaire. Car, en définitive, le dernier mot appartient aux juges, et non à l’IA.
L’explicabilité des résultats, qui constitue un élément essentiel de la transparence algorithmique, permet au juge de contrôler la qualité et la neutralité des données utilisées pour entraîner le modèle d’IA. Si des biais algorithmiques sont détectés, le juge doit immédiatement cesser d’utiliser l’outil concerné et signaler toutes les vulnérabilités ainsi que les risques potentiels du modèle à l’organe régissant le pouvoir judiciaire du pays [15].
Par ailleurs, les outils d’IA généralistes ne doivent pas être employés par les juges dans l’exercice de leurs fonctions. En effet, les données judiciaires contiennent, dans leur majorité, des informations à caractère personnel et peuvent inclure des données relevant de la catégorie des données sensibles. Elles nécessitent donc une protection renforcée, l’application de mesures strictes de confidentialité ainsi qu’un contrôle rigoureux des accès. De plus, les systèmes d’IA non spécialisés présentent souvent des informations inexactes, incomplètes ou obsolètes, car ils sont entraînés jusqu’à une date donnée et ne tiennent pas compte des évolutions législatives ou jurisprudentielles récentes.
Par conséquent, les outils d’intelligence artificielle utilisés dans le domaine judiciaire doivent être sécurisés et souverains. Autrement dit, ils doivent être développés et conçus au Maroc par des spécialistes marocains, sur la base de technologies open source, et leurs données doivent être hébergées sur le territoire national, soumises exclusivement aux lois marocaines. Cette exigence vise à éviter toute dépendance à des législations étrangères, telles que le Cloud Act [16], qui s’applique de manière extraterritoriale, autorise les autorités américaines à accéder aux données personnelles de tout citoyen, quelle que soit sa nationalité, dès lors que ces données sont hébergées par une entreprise enregistrée aux États-Unis, et ce indépendamment de la localisation géographique de son centre de données.
Qui plus est, même les outils d’IA spécifiquement dédiés au domaine judiciaire doivent être rigoureusement testés avant leur déploiement à grande échelle. Ils doivent être soumis à des audits réguliers et à des évaluations d’impact après leur généralisation [17], afin de garantir leur alignement avec les objectifs fondamentaux de la magistrature, notamment la protection des droits, l’indépendance judiciaire, ainsi que leur conformité aux principes d’équité, de transparence, d’explicabilité, de sécurité et de performance.
Les rapports issus des tests et des audits doivent être rendus publics afin d’informer et de sensibiliser non seulement les juges, mais également les citoyens, sur l’efficacité et les risques liés au déploiement des systèmes d’IA. Cette transparence est essentielle pour garantir une utilisation vigilante et précautionneuse de ces technologies.
Cependant, tous ces efforts demeurent insuffisants s’ils ne s’accompagnent pas de la mise en place de lignes directrices claires pour l’utilisation des outils d’IA dans le système judiciaire. Ces lignes ont pour objectif d’orienter et de guider l’adoption et le déploiement de l’intelligence artificielle, afin d’assurer une utilisation éthique et respectueuse des droits humains, tout en évitant une dépendance excessive à l’IA dans les décisions majeures. L’IA doit être utilisée uniquement comme complément d’analyse, et non comme substitut au jugement humain.
En outre, une formation à l’utilisation de ces systèmes doit être envisagée afin de diffuser les meilleures pratiques, développer les compétences, sensibiliser les acteurs et renforcer leur vigilance face aux risques potentiels.
Dans le même esprit, le programme de formation de l’Institut judiciaire devrait être révisé afin d’intégrer des modules consacrés aux fondamentaux de l’intelligence artificielle, à ses applications dans le domaine de la justice, ainsi qu’à son impact sur l’indépendance judiciaire et sur l’administration équitable de la justice.
Conclusion.
L’intégration des outils d’intelligence artificielle dans le système judiciaire peut contribuer de manière significative à l’amélioration de l’efficacité et de la qualité de la justice, ainsi qu’au respect des délais raisonnables. Elle peut également soutenir les procédures préalables au procès, telles que la numérisation des archives des tribunaux ou la traduction automatique lors des audiences, ainsi que les procédures postérieures au jugement, comme l’anonymisation des décisions.
Cependant, une utilisation non encadrée et une méconnaissance des risques associés à ces outils pourraient mettre en péril l’ensemble du système judiciaire. Elles risqueraient d’entraver le droit à un procès équitable, de compromettre les principes fondamentaux de la justice, tels que l’égalité, l’intégrité, l’indépendance, le respect de la vie privée et la non-discrimination et, in fine, d’affaiblir la confiance des citoyens dans l’institution judiciaire.
Les outils d’intelligence artificielle ne doivent en aucun cas se substituer à l’interprétation juridique qualifiée, car les résultats qu’ils produisent manquent souvent de fondement logique ou contextuel pour résoudre une problématique juridique. L’IA doit être envisagée comme un appui au jugement humain, et non comme un remplacement de celui-ci.
C’est dans cette perspective que les Nations Unies, dans leur résolution [18] du 21 mars 2024, ont souligné la nécessité de respecter, protéger et promouvoir les droits humains et les libertés fondamentales tout au long du cycle d’utilisation des systèmes d’intelligence artificielle.
En réponse à cette résolution, plusieurs pays [19], tels que le Brésil, le Canada ou encore l’Australie ont adopté des principes directeurs encadrant l’utilisation des outils d’intelligence artificielle dans le système judiciaire, afin d’en promouvoir un usage éthique et responsable.
Néanmoins, une question demeure : l’adoption de telles directives est-elle suffisante pour atténuer les risques et tirer pleinement profit des bénéfices de l’IA, ou faut-il aller plus loin en mettant en place une loi spécifique régissant ces usages ?
Une telle loi pourrait adopter une approche fondée sur le risque, en classant les systèmes d’IA selon leur impact potentiel sur les droits humains et en leur imposant des exigences et contraintes différenciées, proportionnées à leur niveau de risque.


