Introduction.
Le pouvoir judiciaire utilise de plus en plus des outils technologiques, tels que l’intelligence artificielle (IA), afin d’optimiser le traitement des affaires, l’efficacité et la célérité de la justice. Des cas célèbres tels que celui d’un avocat à New York [1], ou celui d’un juge brésilien [2] ayant cité des précédents erronés issus d’hallucinations générées par ChatGPT, illustrent les défis posés par une utilisation inadéquate de l’IA par les professionnels du droit. Ces incidents mettent en lumière les risques liés à la fiabilité des outils d’IA et soulignent l’importance de maintenir une vigilance accrue et de respecter les normes établies pour protéger les droits et garantir l’intégrité du processus judiciaire.
À ce jour, diverses organisations internationales et les États ont entrepris des efforts significatifs pour établir des lignes directrices encadrant l’utilisation de l’IA par les juges, afin d’encourager une utilisation responsable et éthique de ces technologies dans le domaine judiciaire. Des initiatives telles que celles de l’UNESCO [3], qui promeuvent des principes éthiques pour l’IA, cherchent à guider les professionnels du droit dans l’intégration de ces outils, en évitant les dérives potentielles. Ces efforts internationaux s’inscrivent dans une large réflexion sur l’impact des nouvelles technologies dans les systèmes judiciaires à travers le monde.
C’est dans ce contexte que la Colombie, avec son cadre constitutionnel de 1991, s’est trouvée au cœur des débats sur l’usage de l’IA par les juges. En effet, pour la première fois, une Cour Constitutionnelle [4] établit un précédent judiciaire déterminant sur la manière dont un juge devrait utiliser les systèmes génératifs d’IA, lorsqu’il choisit d’y recourir. Cette décision fixe des directives claires et encadre l’emploi de ces technologies dans le processus de décision judiciaire.
Depuis l’adoption de la Constitution de 1991, la Colombie évolue sous l’égide de ce texte, qui constitue la norme suprême de son projet de société et s’impose au quotidien dans les affaires juridiques. C’est dans cette dynamique que les colombiens attendaient une décision comme l’arrêt T-323 Blanca c. EPS du 2 août 2024 de la Cour constitutionnelle, afin de fixer des directives sur l’utilisation de l’intelligence artificielle dans la prise de décisions judiciaires.
Dans cette affaire, la Cour Constitutionnelle a examiné l’utilisation de l’intelligence artificielle par un juge d’appel dans le cadre d’une décision de « tutela » [5] visant à garantir le droit fondamental à la santé d’un garçon autiste.
De fait, dans la décision d’appel du 30 janvier 2023, le juge avait indiqué avoir interrogé ChatGPT 3.5, sur des questions portant sur le droit à la santé, l’exonération des frais médicaux, ainsi que sur la jurisprudence de la Cour Constitutionnelle dans des affaires similaires, et avait retranscrit ses questions ainsi que les réponses de ChatGPT.
La Cour constitutionnelle a donc été saisie en avril 2023 afin d’examiner principalement la question du respect au droit fondamental à un procès équitable, notamment en ce qui concerne la garantie à un juge naturel ainsi que la motivation des décisions judiciaires. Il s’agissait de savoir si l’utilisation de l’IA avait conduit au remplacement du raisonnement humain dans l’interprétation des faits, l’évaluation des preuves et la motivation de la décision de justice.
Afin de répondre à ces questions, la Cour Constitutionnelle colombienne a effectué une analyse approfondie et rigoureuse sur la question de l’utilisation de l’IA dans le système judiciaire. À cet effet, elle a examiné de nombreux instruments de « soft law » internationaux, tels que les recommandations de l’UNESCO [6] et de l’OCDE [7] sur l’éthique de l’IA, afin de déterminer les meilleures pratiques ; la Cour a également analysé les réglementations émergentes telles que le Règlement Européen sur l’IA [8], ainsi que les instruments juridiques régionaux et nationaux. En outre, la Cour a mené de nombreuses consultations d’entités judiciaires, académiques et technologiques, incluant des experts d’OpenAI.
Cette approche multidisciplinaire lui a permis de dégager un schéma d’utilisations proscrites ou acceptables de l’IA, et d’émettre un certain nombre de recommandations.
Dans un premier temps, nous examinerons la manière dont la Cour constitutionnelle colombienne aborde les défis soulevés par l’intelligence artificielle, en distinguant les usages considérés comme conformes au cadre juridique ou proscrits (I). Ensuite, nous étudierons l’affaire Blanca c. EPS, et la manière dont la Cour encadre l’utilisation de l’IA tout en maintenant les garanties fondamentales (II). Nous conclurons sur l’approche avant-gardiste adoptée par la juridiction colombienne face aux évolutions technologiques actuelles.
I) Les limites de l’utilisation de l’IA par les juges : une régulation nécessaire pour préserver l’indépendance judiciaire.
Pour la Cour constitutionnelle colombienne, l’utilisation de l’intelligence artificielle dans le processus décisionnel judiciaire est soumise à des restrictions strictes, afin de préserver le principe fondamental du juge naturel, selon lequel le raisonnement judiciaire doit demeurer une prérogative humaine.
L’arrêt T-323 Blanca c. EPS met en garde contre les risques de biais algorithmiques susceptibles de menacer l’autonomie et l’indépendance du pouvoir judiciaire. En effet, l’utilisation de l’IA pourrait compromettre l’impartialité et l’indépendance des juges, car elle est influencée par les données qui l’alimentent, qui pourraient être biaisées ou incomplètes, et remettre en cause les droits protégés par la Constitution colombienne et la jurisprudence, qui garantissent que les juges exercent leurs fonctions en toute indépendance et sans ingérence extérieure.
À cet égard, la Cour a clairement délimité les usages interdits de l’IA par le juge.
Parmi ces interdictions sont mentionnées : (a) la création autonome de contenu textuel dans les décisions judiciaires, ce qui reviendrait à déléguer la rédaction des jugements à une machine ; (b) l’interprétation des faits, des preuves ou des textes juridiques par des systèmes d’IA, qui risquerait de contourner l’analyse critique et nuancée du juge ; et (c) la prise de décisions sur le fond des affaires judiciaires, ce qui menacerait la garantie à un procès équitable et l’indépendance du pouvoir judiciaire.
Ces limitations visent à garantir que l’IA demeure un outil d’assistance, et non un substitut à l’autorité du juge.
La Cour a approfondi son analyse en soulignant les précautions indispensables à l’usage de l’intelligence artificielle, réaffirmant que toute utilisation de cette technologie doit impérativement respecter les droits fondamentaux. En cela, la Cour rejoint les recommandations du Manuel de formation mondial : "l’IA et l’État de droit pour le pouvoir judiciaire" de l’UNESCO, qui insiste sur l’importance du contrôle humain dans l’utilisation de l’IA. En effet, le manuel introduit le concept de « l’humain dans la boucle », qui désigne l’implication nécessaire des juges dans des rôles de supervision, leur permettant de reprendre le contrôle lorsque les modèles d’IA se trouvent confrontés à des situations inattendues ou indésirables.
Les juges doivent vérifier la fiabilité des données et des sources utilisées par l’IA et s’assurer que ces informations sont pertinentes et exactes dans les affaires soumises à leur examen. L’utilisation de l’IA pour traiter des informations sensibles doit également être strictement encadrée afin d’éviter toute violation de la confidentialité ou de la vie privée. Néanmoins, la Cour constitutionnelle encourage l’intégration raisonnée et mesurée des technologies disruptives dans le système judiciaire colombien. À cet égard, la Cour recommande notamment le développement d’une plateforme numérique d’IA spécifique à la justice colombienne, visant à améliorer l’efficacité du travail des juges, à faciliter l’accès à l’information, à garantir la transparence, et la protection des données personnelles, tout en prévenant contre les hallucinations et les biais algorithmiques.
La Cour a insisté également sur la nécessité d’un encadrement strict de l’utilisation de l’IA dans le système judiciaire, afin d’éviter toute substitution au jugement humain et d’assurer le respect des principes de transparence, de responsabilité et de confidentialité. Il est essentiel, selon la Cour, que l’IA soit utilisée de manière éthique et appropriée, sans compromettre l’intégrité des décisions judiciaires, et de souligner que ChatGPT 3.5, en tant que modèle non spécialisé pour la justice colombienne, présente des risques importants, et que son usage doit être limité et strictement supervisé pour éviter des décisions qui violeraient les principes fondamentaux.
L’arrêt T-323 Blanca c. EPS ouvre le débat sur l’avenir du droit à l’ère numérique, soulignant l’importance d’aligner les innovations technologiques avec les principes constitutionnels. Si l’IA offre des outils potentiellement puissants pour renforcer l’efficacité et la précision dans l’administration de la justice, elle présente également des défis majeurs qui doivent être abordés avec précaution. Une intégration équilibrée de la technologie dans la pratique juridique est essentielle pour respecter les normes internationales.
II) L’Arrêt T-323 Blanca c EPS : une utilisation raisonnée de l’IA dans le processus judiciaire.
L’utilisation de l’IA pour remplacer le raisonnement judiciaire humain constituerait une violation du principe du juge naturel.
Toutefois, la Cour reconnaît que l’amélioration de l’efficacité des services judiciaires peut justifier l’emploi de l’IA pour : (a) des tâches administratives ou de gestion documentaire, (b) la correction et la synthèse de textes, à condition qu’elles soient toujours sous supervision humaine.
Dans le cas d’espèce, la Cour constitutionnelle souligne que le juge d’appel a exposé plusieurs arguments pour expliquer la manière dont il a utilisé ChatGPT 3.5 dans le cadre de l’affaire soumise à son examen, en insistant sur le caractère auxiliaire et non décisionnel dont il avait fait usage de l’IA.
En effet, le juge d’appel a d’abord souligné avoir strictement suivi et respecté les méthodes classiques de prise de décision propres à l’administration de la justice. Il a précisé que la décision finale avait été prise sur la base d’une analyse indépendante, en utilisant les textes pertinents du Code de procédure ainsi que les considérations juridiques et jurisprudentielles appropriées. En d’autres termes, le processus décisionnel reposait entièrement sur les normes traditionnelles de la justice, garantissant ainsi la primauté de l’interprétation humaine des faits et des preuves.
Ensuite, le juge a clarifié que ChatGPT 3.5, avait été utilisé uniquement après la prise de décision. Il a insisté sur le fait que l’IA n’avait servi qu’à optimiser le temps de rédaction du jugement, à titre d’outil de travail supplémentaire. Cette utilisation visait à faciliter et accélérer la rédaction du jugement sans influencer ni altérer le contenu substantiel de la décision prise. La base factuelle et juridique de la décision restait entièrement fondée sur l’évaluation et le raisonnement du juge. Le juge a justifié son recours à l’IA comme étant une mesure d’efficacité administrative qui respecte pleinement les principes fondamentaux de la justice. En faisant appel à ChatGPT 3.5 uniquement après l’élaboration de sa propre décision sur des bases traditionnelles, et d’en conclure, qu’il n’avait pas délégué son autorité décisionnelle à l’IA.
Dans le cadre de l’utilisation de l’intelligence artificielle dans le système judiciaire, selon la Cour, plusieurs critères et précautions doivent être observés pour garantir le respect des principes fondamentaux de la Justice.
Tout d’abord, la transparence est essentielle, les juges utilisant l’IA doivent informer clairement les parties concernées de son usage, en expliquant les raisons qui motivent son utilisation, les limites de ses capacités, ainsi que les données employées et leur influence potentielle sur la décision judiciaire.
La responsabilité est également primordiale, les juges doivent être formés adéquatement à l’utilisation de l’IA et en comprendre les impacts. Ils doivent évaluer l’exactitude, la pertinence et la nécessité des informations fournies par les systèmes d’IA, tout en garantissant que leur utilisation respecte les lois en vigueur et qu’elle est appropriée pour les tâches spécifiques envisagées.
La confidentialité des données est une autre préoccupation majeure. Les juges doivent veiller à protéger les données personnelles et sensibles impliquées dans les procédures judiciaires, évitant leur divulgation ou une utilisation abusive par des systèmes d’IA. De plus, l’IA ne doit en aucun cas substituer le jugement humain. Les décisions judiciaires doivent toujours être prises par des juges humains, l’IA n’étant utilisée que comme un outil de support, et non comme un substitut à la rationalité humaine.
La précaution et la vérification sont cruciales dans l’intégration de l’IA au sein du système judiciaire. Les juges doivent examiner rigoureusement les sources et la fiabilité des informations générées par l’IA, tout en prenant en compte les risques potentiels tels que les biais et les erreurs. En outre, l’égalité et l’équité doivent être maintenues : l’IA ne doit pas introduire de discrimination et doit toujours soutenir l’effectivité du respect des droits humains.
Pour garantir une utilisation conforme aux normes juridiques et éthiques, le contrôle humain demeure indispensable. Les décisions impliquant l’IA doivent être systématiquement soumises à un examen humain. À cette fin, des standards de comportement éthique doivent être établis pour guider l’utilisation de l’IA par les juges et autres membres de l’appareil judiciaire.
Enfin, un suivi et une adaptation continus sont nécessaires. L’utilisation de l’IA doit être régulièrement réévaluée en fonction des avancées technologiques et des besoins juridiques émergents, avec des mécanismes de contrôle et d’ajustement réguliers pour garantir son alignement avec les objectifs de justice et d’équité.
Pour terminer, après avoir souligné que ChatGPT 3.5, en tant que modèle génératif non spécialisé, présente des limitations significatives pour une utilisation dans le système judiciaire, la Cour, a conclu que dans le cas d’espèce, il n’y avait pas eu de violation du droit au procès équitable dans l’utilisation de ChatGPT 3.5, car l’IA n’avait pas remplacé la fonction juridictionnelle du juge. Le juge a utilisé ChatGPT 3.5 comme un outil d’assistance après avoir déjà pris sa décision en utilisant des méthodes juridiques traditionnelles. L’utilisation de l’IA n’avait pas remplacé le raisonnement logique et humain du juge, qui est essentiel pour interpréter les faits, évaluer les preuves et motiver les décisions judiciaires. L’IA a été utilisée de manière complémentaire, et non pour remplacer la prise de décision humaine.
En cela, la Cour constitutionnelle adopte une approche audacieuse en affichant une certaine flexibilité face à l’utilisation des technologies émergentes, telles que ChatGPT 3.5, tout en établissant des limites rigoureuses pour garantir la protection des droits fondamentaux. Elle prend toutefois soin de ne pas encourager des régulations prématurées qui pourraient freiner l’innovation. À cet égard, la Cour constitutionnelle souligne l’influence réglementaire exercée par l’Union européenne sur d’autres juridictions, y compris la Colombie, en mettant en avant l’importance du Règlement Européen sur l’Intelligence Artificielle. Cependant, elle reconnaît également la nécessité d’éviter une importation systématique de régulations étrangères, qui pourraient s’avérer inadaptées, inefficaces, voire contre-productives, eu égard aux particularités sociales, économiques, politiques et culturelles propres à chaque pays.
Pour assurer que l’IA renforce, plutôt que ne compromette, la justice et les droits fondamentaux, une collaboration continue et une veille attentive des innovations sont essentielles.
Conclusion.
L’arrêt T-323 Blanca c. EPS de la Cour constitutionnelle colombienne marque une avancée significative dans l’encadrement de l’utilisation de l’intelligence artificielle au sein du système judiciaire. En élargissant le droit fondamental au juge naturel, tel qu’établi par l’article 29 de la Constitution de 1991, la Cour réaffirme l’importance de l’intervention humaine dans les décisions de fond, garantissant ainsi que l’IA ne remplace pas le raisonnement judiciaire humain. Par ailleurs, les recommandations de la Cour visant à la création de directives spécifiques par le Conseil Supérieur de la Magistrature témoignent d’une volonté claire d’innover sur l’usage de l’IA tout en préservant la transparence, la responsabilité, la confidentialité et, surtout, l’autonomie judiciaire.
L’accent mis sur la formation des juges et des autres acteurs judiciaires est une reconnaissance du fait que la maîtrise des outils technologiques, de leurs avantages, mais aussi de leurs risques, est cruciale pour une adoption mesurée de l’IA. La recommandation de développer une IA dédiée, sous contrôle strict du système judiciaire colombien, vise à minimiser les erreurs, les biais et les atteintes aux droits fondamentaux tout en renforçant l’efficacité des processus judiciaires.
En somme, ouvre la voie à une approche équilibrée et rigoureuse de l’intégration des technologies disruptives dans la justice. Cette jurisprudence pionnière pourrait avoir des répercussions bien au-delà des frontières de la Colombie, en influençant d’autres juridictions à adopter des cadres réglementaires harmonisés à l’échelle internationale, tout en veillant à ce que les principes d’équité, de transparence et de responsabilité demeurent au cœur de l’administration de la justice à l’ère du numérique.
Discussion en cours :
El proceso de transformación de una sociedad viene acompañado de una adaptación y una responsabilidad de asumirla, más aún cuando se trata de la evolución acelerada que ha tenido la tecnología en un sentido muy amplio.
La inteligencia artificial llegó a pasos agigantados, para emprender una lucha de marketing, para establecer una poderosa herramienta de ocio, facilismo, y de neutralización del pensamiento, este último emperezándolo, permitiendo una involución voluntaria de los seres humanos.
La sentencia T323 es un inicio importante, un precedente práctico que requiere amplitud en su definición, desde el proceso de protección de datos, anonimización también está el trabajo intelectual, que merece su protección de derechos de autor. La justicia en Colombia, debe crear su propio universo jurídico para que, a través de herramientas como la inteligencia artificial con algoritmos propios puedan realizar un procesamiento eficiente, efectivo y ayuden en las decisiones de los jueces, como un sustanciador judicial.