L’intelligence artificielle et le discernement moral dans les institutions religieuses : enjeux juridiques et éthiques.

Par Zakaria Garno, Professeur.

722 lectures 1re Parution: 5  /5

Explorer : # intelligence artificielle # éthique # religion # protection des données

Ce que vous allez lire ici :

L'intelligence artificielle transforme les pratiques religieuses en déléguant des fonctions éthiques et spirituelles à des systèmes algorithmiques. Cela soulève des enjeux juridiques et éthiques majeurs, affectant la liberté de conscience et le discernement moral, nécessitant un cadre de régulation pour protéger la dignité humaine et la diversité spirituelle.
Description rédigée par l'IA du Village

L’essor de l’intelligence artificielle dans les institutions religieuses reconfigure les modalités du discernement moral et interroge les fondements juridiques de la liberté de conscience. En analysant les usages émergents de l’IA dans les pratiques pastorales, liturgiques et doctrinales, cette étude met en lumière les tensions entre autonomie des cultes, encadrement algorithmique et protection du for intérieur. À partir d’une approche interdisciplinaire croisant droit des religions, droit des technologies et éthique computationnelle, elle propose des pistes normatives pour encadrer les systèmes d’IA religieuse, en garantissant la dignité humaine, la supervision humaine qualifiée et l’indisponibilité du for intérieur à l’automatisation.

-

Introduction.

Dans les sociétés contemporaines, l’intelligence artificielle (IA) s’impose comme une technologie de rupture, reconfigurant les modes de décision en justice, santé, éducation, économie - et désormais religion. Elle opère un glissement de l’autorité interprétative vers des systèmes computationnels, y compris dans les espaces symboliques les plus sensibles. Les travaux du Delphi experiment en offrent une illustration, l’IA peut reproduire des jugements moraux humains avec une précision notable, mais demeure traversée de biais [1].

Parallèlement, l’essor de dispositifs algorithmiques au sein d’institutions religieuses - chabots pastoraux, outils de recommandation éthique, générateurs de sermons - signale une délégation croissante de fonctions doctrinales à des systèmes souvent déployés sans médiation humaine qualifiée, comme l’a montré Papakostas [2].

D’où une question centrale : peut-on confier à une machine l’évaluation d’un dilemme éthique, le conseil spirituel d’un fidèle ou l’interprétation normative d’un texte sacré ?
Ces interrogations rejoignent celles de Hutchinson, qui alerte sur le risque d’homogénéisation normative induit par des agents IA dépourvus de conscience éthique [3]. Que devient la médiation spirituelle lorsque la parole religieuse émane d’un système probabiliste, sans intériorité ni responsabilité ?

Les risques identifiés sont majeurs. Sur le plan doctrinal et moral, Hutchinson alerte sur une homogénéisation normative induite par des agents dépourvus de conscience éthique ; plus largement, comme l’a rappelé un article du New Yorker, même entraînées à « simuler » l’éthique humaine, les IA peinent à saisir l’épaisseur contextuelle et affective du jugement moral [4].

S’ajoute un déplacement qualitatif, au-delà de la simple numérisation des pratiques (offices en ligne, applications de prière, accès aux textes), l’IA en vient à orienter l’interprétation du sacré et, parfois, à en prescrire les normes.

Ce mouvement entre en tension avec des garanties fondamentales. D’un côté, l’autonomie des cultes protégée par l’article 9 de la CEDH peut-elle s’étendre jusqu’à déléguer le discernement moral à des entités non-humaines ? De l’autre, le traitement de données religieuses par des systèmes automatisés interroge le RGPD (consentement explicite, confidentialité du for intérieur, limitation des finalités).
Sur le plan normatif, le Règlement (UE) 2024/1689 (AI Act) qualifie de « haut risque » - voire proscrit en cas de manipulation cognitive - les systèmes guidant la conscience, orientant les comportements ou émettant des prescriptions morales ; l’AI Code of Practice (juil. 2025) renforce, quant à lui, les exigences de supervision humaine, de transparence et de traçabilité [5].

Cette contribution défend la nécessité de sanctuariser un noyau de discernement moral indisponible à l’automatisation, afin de préserver la liberté de conscience et la dignité de la relation spirituelle. Adoptant une approche interdisciplinaire (droit des religions, droit des technologies, éthique des algorithmes), elle cartographie les usages émergents et évalue les cadres existants - notamment européens - pour proposer des voies d’encadrement adaptées à ce domaine hautement sensible.

I. Émergence de l’intelligence artificielle religieuse : entre innovation technologique et enjeux spirituels.

A. État des lieux des usages religieux de l’intelligence artificielle.

L’intégration de l’IA dans les pratiques religieuses illustre la transformation numérique des sphères symboliques. Au-delà d’une simple modernisation instrumentale, elle reconfigure la médiation spirituelle, l’autorité doctrinale et le rapport au sacré. Inscrite dans la digitalisation des institutions cultuelles (textes numérisés, rituels en ligne, applications de prière), l’IA marque une inflexion décisive, de support, elle devient agent interprétatif, prescriptif et normatif.

Des expérimentations empiriques confirment cette mutation, l’application "Bible.Cha"t, basée sur des modèles GPT, répond à des requêtes spirituelles en langage naturel par des versets bibliques contextualisés [6]. De manière analogue, les projets QuranGPT ou Ask the Quran ambitionnent de fournir des avis fondés sur les sources scripturaires islamiques, portant sur des questions de morale, de jurisprudence (fiqh) ou de vie quotidienne [7].

Bien que présentées comme pédagogiques ou exploratoires, ces plateformes entretiennent parfois l’illusion d’une autorité doctrinale automatisée, soulevant des questions de légitimité, de supervision humaine et de pluralisme herméneutique.

Au-delà des interfaces conversationnelles, certains dispositifs matérialisent désormais la présence de l’IA dans les espaces cultuels, à la Grande Mosquée de La Mecque, des robots autonomes distribuent le Coran, fournissent des informations religieuses multilingues et projettent des messages spirituels sur écrans mobiles [8].

Dotées de reconnaissance faciale, de synthèse vocale et de navigation intelligente, ces machines s’intègrent à l’environnement rituel sans remplacer les fonctions cultuelles essentielles comme l’adhan. Leur présence modifie toutefois la spatialité sacrée, introduisant une médiation technologique programmée sous apparence de neutralité.

L’expérimentation atteint un point critique dans le champ liturgique, en juin 2023 à Fürth, un office protestant conçu par ChatGPT - textes générés, voix d’avatars et scénographie automatisée -, bien que supervisé par un théologien, a suscité de vives controverses sur la validité symbolique de la liturgie et le rôle de la médiation humaine [9]. Présentés comme ludiques ou expérimentaux, ces usages soulèvent pourtant des enjeux théologiques, éthiques et juridiques majeurs.

Sur le plan doctrinal, la crédibilité des contenus générés par IA reste incertaine, fondés sur des modèles probabilistes sans compréhension sémantique ni ancrage théologique, ils exposent à approximations, incohérences et lectures hétérodoxes, alors que la parole religieuse, performative et sacramentelle, dépasse la simple cohérence syntaxique.

Sur le plan éthique, l’usage de corpus biaisés ou de sélections statistiques risque de renforcer certaines lectures dogmatiques, menaçant la diversité herméneutique et instaurant une normativité implicite.

Une étude de Joyzy Pius Egunjobi montre que, sans encadrement strict, certains agents dévotionnels adoptent des postures prosélytes, excluantes ou moralisantes, notamment sur les rôles de genre, la sexualité ou la parentalité [10]. Ces dérives, loin d’être anecdotiques, illustrent les risques d’une automatisation non régulée du magistère religieux.
L’enjeu dépasse la performance technique, l’IA ne se contente plus de diffuser du religieux, elle produit des normes et formule des énoncés moraux en contexte de vulnérabilité existentielle, pénétrant un espace réservé à la conscience humaine, à la relation intersubjective et à l’autorité spirituelle incarnée.

Cette évolution traduit une délégation partielle du discernement moral à la machine, instaurant une hybridation inédite entre rationalité instrumentale et subjectivité croyante, qui appelle une analyse à l’aune de l’anthropologie du jugement éthique, des traditions théologiques et des cadres juridiques de la liberté religieuse.

B. Une hybridation complexe entre machines et subjectivité religieuse.

L’un des principaux enjeux de l’intégration de l’IA dans les sphères religieuses est l’hybridation entre rationalité computationnelle et subjectivité spirituelle.

Alors que les technologies numériques ont surtout transformé les modes de transmission (offices médiatisés, textes numérisés, interfaces interactives), l’IA marque une inflexion décisive, elle n’archive plus seulement le sacré, mais prétend l’interpréter, le formuler et le prescrire, soulevant des questions anthropologiques, éthiques et théologiques.

Dans la plupart des traditions - notamment les monothéismes abrahamiques -, le discernement moral n’est pas un raisonnement logique, mais un processus subjectif et dialogique, enraciné dans la conscience personnelle, les textes fondateurs, l’histoire communautaire et l’accompagnement spirituel.

Comme le rappelle Jean Ladrière, il constitue une « mise en vérité de soi », où liberté morale et fidélité à une tradition incarnée se conjuguent [11]. Le jugement éthique est indissociable de sa dimension relationnelle et symbolique.

Or, sa délégation à des systèmes algorithmiques soulève deux difficultés majeures :
Désincarnation de la relation spirituelle : le conseil moral ou pastoral exige écoute, empathie et accueil de la singularité ; aucune IA, aussi performante soit-elle, ne peut reproduire cette interaction incarnée, risquant de réduire une relation d’alliance à une relation fonctionnelle et d’appauvrir l’acte religieux.

Réductionnisme du sacré : l’automatisation des réponses religieuses tend à ramener l’expérience spirituelle à un modèle algorithmique, transformant dilemmes existentiels en requêtes linguistiques et textes sacrés en bases de données, au risque de techniciser le divin et de vider le langage liturgique de sa portée symbolique.

Face à ces dérives, plusieurs réactions institutionnelles ont émergé : en janvier 2025, le Dicastère pour la Doctrine de la Foi et le Dicastère pour la Culture et l’Éducation ont publié Antiqua et nova. Sur la dignité humaine à l’ère de l’intelligence artificielle, rappelant que l’IA ne peut se substituer à la conscience humaine en matière de foi et de morale, et mettant en garde contre une « technolâtrie » érigeant les dispositifs computationnels en autorités doctrinales décontextualisées [12].

Dans le même esprit, le Rome Call for AI Ethics, relancé à Hiroshima en juillet 2024 par une coalition interreligieuse (Vatican, Grand Rabbinat d’Israël, Conseil islamique d’Abu Dhabi, World Buddhist Association), promeut les principes de dignité humaine, transparence et responsabilité dans le développement de l’IA. Bien que relevant de la soft law éthique, ce texte préconise d’éviter toute délégation de l’autorité morale à des agents artificiels, surtout en cas de vulnérabilité spirituelle ou existentielle [13].

Certaines autorités nationales adoptent aussi une posture de précaution : en Égypte, le cheikh Abduh Al-Azhari (Université d’Al-Azhar) a mis en garde contre les plateformes d’IA délivrant des fatwas ou des conseils religieux, rappelant que cet acte exige à la fois une compétence doctrinale et une compréhension contextualisée du vécu socioculturel et spirituel du croyant.

Selon lui, leur automatisation compromet la qualité, l’intentionnalité et la légitimité de l’acte religieux [14].

Ces prises de position convergent vers une même alerte, sans balises ni supervision humaine qualifiée, l’IA religieuse risque de standardiser la vie spirituelle, substituant la singularité par la standardisation, la sagesse par l’inférence et la miséricorde par la performance technique.

Il devient donc urgent d’élaborer un cadre de régulation dépassant la simple conformité technique, pour intégrer la dimension existentielle du discernement moral, son ancrage dans la liberté de conscience et son irréductibilité à des scripts prédictifs.
La suite de cette étude analysera les tensions juridiques et normatives soulevées par ces usages à la lumière de l’AI Act, du RGPD, de la CEDH et des principes fondamentaux de la liberté religieuse.

II. Tensions juridiques autour de l’automatisation du discernement moral.

A. Liberté religieuse, autonomie institutionnelle et responsabilité.

L’essor de l’intelligence artificielle (IA) dans des fonctions éthiques ou spirituelles soulève des tensions inédites en droit des religions, touchant à la liberté religieuse, l’autonomie des cultes et la responsabilité institutionnelle.

En investissant des domaines jusqu’alors réservés à l’autorité humaine - prédication, accompagnement pastoral, conseils moraux -, l’IA crée des incertitudes normatives quant aux titulaires, garants et limites du pouvoir religieux dans un environnement algorithmisé.

Sur le plan des droits fondamentaux, l’article 9 de la CEDH consacre la liberté de pensée, de conscience et de religion, incluant le droit de manifester sa religion individuellement ou collectivement, par le culte, l’enseignement, les pratiques et les rites [15] Dans l’arrêt Kokkinakis c. Grèce (1993), la Cour européenne a rappelé que cette liberté représente l’un des fondements essentiels d’une société démocratique pluraliste, insistant sur la protection des expressions individuelles et collectives de la foi contre toute forme d’ingérence injustifiée [16].

Or, l’introduction de dispositifs algorithmiques dans la formation doctrinale, la guidance spirituelle ou le conseil moral peut affecter, de manière latente, mais structurante, deux dimensions essentielles de cette liberté :

L’autonomie institutionnelle des cultes : reconnue par la jurisprudence européenne (notamment Fernández Martínez c. Espagne et Sindicatul Păstorul cel Bun c. Roumanie), elle garantit aux communautés religieuses un droit à l’auto-organisation selon leurs normes internes : nomination des ministres du culte, définition des contenus doctrinaux et modalités d’enseignement religieux [17].
L’usage de systèmes d’IA à prétention spirituelle, sans supervision théologique qualifiée, peut constituer une externalisation non maîtrisée de la fonction doctrinale, voire une hétéronomie technologique remettant en cause le principe d’autonomie canonique.

Liberté de conscience des fidèles : perçue comme source de conseil moral ou spirituel, l’IA peut influencer la conscience individuelle sans garantir consentement éclairé, transparence décisionnelle ni responsabilité relationnelle.

Son apparente neutralité masque la complexité des logiques computationnelles (notamment dans les systèmes opaques ou “boîtes noires”), créant un risque d’influence non consentie, contraire à la dignité du sujet moral.

À ces enjeux s’ajoute la question de la responsabilité juridique en cas de préjudice causé par une IA religieuse (conseils erronés, culpabilisation, isolement, atteintes psychologiques). Aucun régime spécifique n’existe à ce jour, il faut mobiliser, dans une logique de responsabilité partagée ou cumulative, différents fondements juridiques [18].

Trois régimes de responsabilité peuvent être mobilisés :

  • Le concepteur de l’algorithme, comme fabricant d’un produit potentiellement défectueux, sur le fondement des articles 1245 et s. du Code civil (responsabilité du fait des produits défectueux).
  • L’institution religieuse qui héberge, recommande ou utilise le dispositif, en cas de défaut de surveillance, de négligence pastorale ou de manquement à son devoir de prudence envers des fidèles vulnérables.
  • Le prestataire technique tiers, dans le cadre d’un contrat de services, dont la responsabilité (de moyens ou de résultat) peut être limitée par des clauses contractuelles.

Face à cette complexité, une partie de la doctrine préconise un régime hybride, combinant fondements contractuels, délictuels et éthiques, et intégrant des exigences issues de la soft law. Inspiré des secteurs à forte intensité humaine (santé, éducation, justice), ce modèle reposerait sur trois principes :

  • Traçabilité des décisions algorithmiques, y compris dans leur dimension religieuse ou symbolique.
  • Responsabilité partagée entre producteurs, hébergeurs et médiateurs humains.
  • Reconnaissance d’un seuil de non-délégation, excluant toute automatisation des fonctions impliquant un contact direct avec la conscience ou le for intérieur.

Ce dernier principe suggère l’existence d’un noyau intangible de l’expérience religieuse, juridiquement protégé contre toute désintermédiation algorithmique, et trace les jalons d’une régulation du discernement moral dans un État de droit pluraliste.

B. Données sensibles, vie privée et secret spirituel.

L’intégration de l’intelligence artificielle (IA) dans les sphères religieuses soulève des enjeux d’une extrême sensibilité, tant juridiques qu’anthropologiques. Au-delà de la gouvernance technique des algorithmes, c’est l’essence même de la relation spirituelle - incarnée, intime et subjective - qui se voit exposée à des traitements automatisés de données, souvent intrusifs.

En droit positif, ces données relèvent de la catégorie spéciale visée à l’article 9 du RGPD. Elles englobent :

  • les convictions religieuses ou philosophiques déclarées
  • les pratiques cultuelles ou rituelles (prières, offices, interactions avec des agents spirituels numériques)
  • les éléments liés au for intérieur (confession, accompagnement moral, questionnements éthiques).

Le traitement de ces données est en principe interdit, en raison du risque élevé pour les droits fondamentaux. Des exceptions strictes existent, le consentement explicite de la personne, ou un traitement interne par une organisation religieuse pour ses seuls membres, dans le respect de son autonomie organisationnelle [19].

Dans le cas des IA religieuses, l’articulation entre interdiction de principe et exceptions limitées du RGPD devient particulièrement délicate. Des outils tels que chatbots spirituels, générateurs de sermons personnalisés ou agents théologiques collectent et interprètent des données à forte teneur identitaire et existentielle, ce qui impose trois exigences majeures :

  • une base légale robuste, fondée sur un consentement libre, éclairé et explicite, pour une finalité déterminée, respectant les principes de nécessité et de proportionnalité.
  • des garanties techniques et organisationnelles renforcées, cloisonnement des flux, chiffrement, contrôle d’accès, journalisation, auditabilité.
  • une transparence algorithmique accrue, information préalable sur la logique du traitement, explicabilité des raisonnements et effectivité des droits d’opposition, d’effacement et de rectification.

Au-delà de ces exigences, se pose la question du secret spirituel, entendu comme zone d’inviolabilité du for intérieur. Dans plusieurs traditions, ce secret est assimilé à un devoir absolu de discrétion, comparable au secret professionnel.

Ainsi, en droit canonique catholique, le sigillum confessionis interdit, sous peine d’excommunication, toute révélation du contenu d’une confession sacramentelle [20].

De même, dans l’islam soufi, le mourchid - guide spirituel chargé de la transmission initiatique - est tenu à une discrétion rituelle dans l’accompagnement du disciple.

Dans le judaïsme rabbinique, le rav exerce un rôle de guide fondé sur une relation de confiance privée, intransmissible à une machine.

Cette dynamique relationnelle, ancrée dans une intimité intersubjective, est par nature irréductible aux technologies algorithmiques, qui ne peuvent ni la reproduire ni la garantir.

Cet impératif d’intangibilité est conforté par la jurisprudence de la Cour européenne des droits de l’homme, notamment dans l’arrêt Église métropolitaine de Bessarabie et autres c. Moldova (2001), où la Cour rappelle que la reconnaissance légale d’une communauté religieuse est une condition nécessaire à l’exercice effectif de la liberté de religion [21]. Elle impose à l’État un devoir de neutralité, interdisant toute ingérence dans la légitimité doctrinale et, a fortiori, toute saisie technologique des expressions cultuelles ou des interactions relevant du for intérieur.

Cette logique exclut l’usage d’outils de surveillance, d’enregistrement ou de traitement automatisé dans les espaces sacrés, sous peine de porter atteinte à un noyau d’autonomie spirituelle échappant à toute régulation algorithmique [22].

À cette analyse juridique s’ajoute une réflexion philosophique (Ricoeur, Levinas, Taylor), qui rappellent la non-réductibilité de l’expérience intérieure aux catégories computationnelles.

Le moment spirituel n’est pas un signal, mais une parole transcendante, un appel éthique, une présence.

Dissoudre la conscience croyante dans une architecture informationnelle en trahirait l’essence dialogique et relationnelle ; dès lors, l’intrusion de l’IA dans le conseil spirituel ou la direction de conscience revient à instrumentaliser l’instrumentable.
Dès lors, la reconnaissance d’un principe d’indisponibilité algorithmique [23] du for intérieur s’impose. Il ne s’agit pas seulement d’interdire certains traitements, mais de garantir des zones d’extraterritorialité numérique, fondées sur la dignité humaine, la liberté de conscience et le respect des traditions religieuses dans leur dimension la plus intime.

Ces zones relèvent moins d’un refus technologique que d’un principe éthique structurant, certaines dimensions de l’humain - confession, repentir, guidance spirituelle - doivent par principe échapper à toute automatisation, quelle que soit la performance technique des dispositifs.

III. Vers un encadrement juridique et éthique renforcé.

A. Cadre normatif existant : pertinence et limites.

La régulation de l’IA à des fins religieuses s’inscrit en Europe dans un cadre encore lacunaire mais en consolidation. L’adoption du Règlement (UE) 2024/1689 - AI Act marque un jalon majeur, posant un droit de l’IA fondé sur la gestion graduée des risques, inspiré d’une logique de précaution renforcée dans les domaines à forte implication sociétale.

Ce texte établit une typologie à quatre niveaux de risque - inacceptable, élevé, limité, minimal - fondée non sur la nature technique, mais sur les finalités et impacts sur les droits fondamentaux, permettant une interprétation extensive au-delà des seules applications industrielles.

Bien qu’il ne vise pas explicitement les usages religieux, plusieurs dispositions peuvent les inclure : l’article 5, §1, a) et b) interdit la mise sur le marché de systèmes subliminaux, manipulateurs ou exploitant des vulnérabilités spécifiques (âge, handicap, précarité), lorsqu’ils altèrent la capacité de jugement ou de décision autonome et causent un préjudice avéré ou prévisible [24].

Dans une perspective religieuse, cette disposition pourrait viser les agents conversationnels se présentant comme détenteurs d’un savoir scripturaire et délivrant conseils éthiques, sermons personnalisés ou interprétations doctrinales sans contrôle humain qualifié, notamment auprès de publics en situation de fragilité existentielle (deuil, détresse psychique, dépendance spirituelle).

L’annexe III, combinée à l’article 6, §2, classe comme « à haut risque » :

  • (pt. 3) les systèmes utilisés dans l’éducation ou la formation, orientant les apprentissages ou évaluant les comportements.
  • (pt. 5) les systèmes déployés pour gérer le comportement ou l’accès de personnes vulnérables à des services essentiels, via des mécanismes de personnalisation ou de recommandation.

Bien que pensés pour des contextes laïques, ces critères sont transposables aux sphères religieuses lorsque l’IA devient vectrice de guidance morale, outil de régulation comportementale ou d’accès différencié aux ressources spirituelles.

L’absence de mention explicite du fait religieux constitue moins une exclusion qu’un angle mort à combler par interprétation téléologique.

Par ailleurs, le Code européen de bonne conduite sur l’IA (juillet 2025) exige transparence, traçabilité, explicabilité et évaluation d’impact sur les droits fondamentaux, notamment dans les secteurs à forte dimension identitaire, culturelle ou spirituelle [25]. Bien que non contraignant, ce texte structure la convergence des pratiques et contribue à un droit souple à portée normative.

À l’échelle internationale, le Rome Call for AI Ethics, élaboré par l’Académie pontificale pour la vie avec Microsoft, IBM et des instances interconfessionnelles, constitue un socle éthique commun.

Sa réactualisation à Hiroshima (juillet 2024) lors d’« AI Ethics for Peace » a intégré les traditions musulmane, juive, bouddhiste et hindoue.

Il énonce six principes - transparence, inclusion, responsabilité, impartialité, fiabilité, sécurité - et affirme que l’IA ne doit ni exercer d’autorité morale autonome ni se substituer à la conscience humaine dans les contextes éthiques ou religieux [26]. Cette convergence entre régulation juridique et éthique interreligieuse révèle une prise de conscience partagée, la guidance morale relève non d’un calcul, mais d’un discernement fondé sur la liberté, la tradition et la responsabilité.

Cependant, le cadre juridique reste inadapté aux spécificités de la médiation religieuse :

  • le AI Act, bien qu’exigeant un contrôle humain effectif, ne précise ni les compétences requises ni les limites de délégation du jugement moral.
  • le droit européen ne reconnaît aucun statut spécifique aux interactions spirituelles automatisées, ni de régime d’évaluation d’impact dédié à la guidance religieuse [27].

Les autorités religieuses manquent souvent des ressources et compétences techniques pour auditer, certifier ou superviser ces systèmes, créant un déséquilibre structurel dans leur gouvernance.

Ces limites appellent une évolution du cadre juridique fondée sur une co-régulation interinstitutionnelle associant autorités religieuses, régulateurs publics et instances éthiques, afin de reconnaître une zone à risque éthique élevé, à la croisée du droit des cultes, de la protection des données sensibles et de la non-instrumentalisation du sujet croyant.

B. Recommandations pour un encadrement spécifique.

Face à l’insuffisance du cadre juridique et à l’absence de doctrine consolidée sur les usages religieux de l’IA, il devient nécessaire de définir des principes directeurs et mécanismes régulateurs adaptés.

Ces mesures doivent articuler droits fondamentaux (liberté de conscience, for intérieur, dignité humaine) et logiques propres aux communautés de foi, dans une perspective de co-régulation éthique, via un encadrement européen, des normes sectorielles ou des chartes religieuses.

1. Transparence et traçabilité.

Dans un domaine aussi sensible que la médiation religieuse, la transparence doit aller au-delà d’une simple mention du recours à l’IA et garantir la liberté d’adhésion, d’interprétation et de contestation.

Tout système d’IA à visée spirituelle devrait :

  • signaler clairement son caractère non humain,
  • divulguer les corpus doctrinaux utilisés (origine, pluralisme, orientation),
  • conserver un registre horodaté des interactions, consultable par des autorités compétentes.

Ce dispositif, inspiré du RGPD (art. 13) et du AI Act, vise une traçabilité interprétative, condition d’une responsabilité religieuse et juridique éclairée.

2. Supervision humaine et responsabilité.

La supervision humaine doit être une médiation interprétative active assurée par une autorité compétente (clerc, théologien, conseiller spirituel), formée aux enjeux éthiques de l’IA. Elle implique :

  • la possibilité de désaveu, correction ou suspension des contenus,
  • une chaîne claire de responsabilité juridique,
  • un recours effectif pour contester les réponses.

Ce modèle prolonge les principes d’Accountability en droit des données et s’inscrit dans les logiques canoniques de garantie doctrinale.

3. Sanctuarisation du discernement moral.

Il convient d’ériger en principe de droit fondamental l’indisponibilité algorithmique du discernement moral, dès lors qu’il touche :

  • la conscience intime (for intérieur),
  • des décisions éthiques existentielles,
  • des actes sacramentels (confession, bénédiction, onction, etc.).

Ce principe pourrait s’appuyer sur :

  • l’art. 9 CEDH (liberté de religion et de conscience),
  • les arts. 1er et 16 du Code civil français (dignité humaine),
  • les textes bioéthiques de l’UNESCO et du Conseil de l’Europe.

Il vise à protéger la subjectivité et la vulnérabilité constitutives de la relation spirituelle, en refusant toute instrumentalisation computationnelle de la conscience

4. Formation croisée des acteurs religieux et concepteurs d’IA.

L’efficacité de tout encadrement suppose une compétence mutuelle des parties prenantes.

Il est recommandé de développer des formations croisées :

  • pour les responsables religieux : architectures de l’IA, biais algorithmiques, droit des données, éthique de la supervision, gouvernance numérique ;
  • pour les développeurs IA : anthropologie religieuse, pluralisme doctrinal, sens du sacré, normes canoniques de non-instrumentalisation.

Ces formations, soutenues par des instituts interreligieux ou universitaires, favoriseraient un codéveloppement des compétences et une conscience partagée des risques.

5. Charte interconfessionnelle de l’IA religieuse.

Il est proposé d’adopter une charte interreligieuse d’encadrement éthique, inspirée du Rome Call for AI Ethics, reposant sur :

  • le respect de la liberté de conscience et du pluralisme théologique,
  • l’interdiction de toute instrumentalisation commerciale ou idéologique des croyances,
  • l’encadrement strict des services prescriptifs (fatwas, prédications, conseils moraux automatisés), soumis à supervision humaine et à un statut informatif non normatif,
  • la définition de standards partagés de sécurité, explicabilité et responsabilité, fondés sur la subsidiarité humaine.

Cette charte, à vocation mondiale, pourrait être portée par une coalition d’autorités religieuses, de juristes du numérique et de bioéthiciens, pour créer un cadre souple mais moralement contraignant

Conclusion.

L’essor de l’intelligence artificielle (IA) dans les institutions religieuses marque un tournant majeur : en investissant la prédication, le conseil éthique ou la liturgie, elle dépasse le rôle d’interface technique pour assumer des fonctions interprétatives et prescriptives jusque-là réservées à l’humain.

Cette évolution soulève de fortes tensions juridiques et éthiques. Elle interroge les principes du droit européen (liberté religieuse, autonomie des cultes, protection des données sensibles, respect du for intérieur) et reconfigure les repères théologiques du discernement moral, de l’autorité scripturaire et de la relation de guidance.

Si l’IA favorise inclusion et innovation rituelle, elle comporte aussi des risques de standardisation normative, de désincarnation du lien spirituel et de réduction anthropologique de l’acte de foi.

Face à ces enjeux, le RGPD, la CEDH et l’AI Act offrent des bases encore incomplètes. D’où la nécessité d’une régulation hybride, combinant normes juridiques contraignantes, principes éthiques transconfessionnels et co-régulation avec les communautés religieuses.

Cela suppose de sanctuariser le for intérieur, de garantir une supervision humaine qualifiée et d’élaborer une charte interconfessionnelle de l’IA religieuse pour préserver la dignité humaine et la pluralité spirituelle.

En définitive, penser l’IA religieuse requiert plus qu’un cadre technique, c’est une vigilance anthropologique. La liberté morale, la foi et la parole spirituelle ne relèvent pas d’un calcul mais d’une expérience, d’une altérité et d’une vocation.

L’IA peut accompagner, mais jamais se substituer à la conscience humaine ni prétendre à une autorité doctrinale. Ce n’est qu’à cette condition - et via une responsabilité partagée entre régulateurs, concepteurs et communautés de foi - que le numérique pourra devenir un espace de service au sacré, plutôt qu’un facteur d’aliénation de l’esprit.

À l’instar de Hans Jonas (Le Principe responsabilité) [28] et Ivan Illich (La convivialité) [29], il est impératif d’ancrer la régulation de l’IA religieuse dans une vision anthropologique forte, refusant de réduire l’expérience spirituelle à un modèle calculable.

Zakaria Garno
Professeur à l’IESPJ Euromed University of Fès, Maroc

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

6 votes

L'auteur déclare ne pas avoir utilisé l'IA générative pour la rédaction de cet article.

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

Notes de l'article:

[1Jiang et al., Investigating Machine Moral Judgement through the Delphi Experiment, ResearchGate, 2025, https://www.researchgate.net/publication/387976825.

[2T. Papakostas, « Religious AI Systems and Doctrinal Mediation : A Critical Assessment », Religions, vol. 16, n° 5, 2025, p. 235, https://www.mdpi.com/2077-1444/16/5/563.

[3A. Hutchinson, « Could AI Influence Religion and Spawn New Movements ? », Illumination/Medium, 2024, https://medium.com/illumination/could-ai-influence-religion-and-spawn-new-movements-fcd215325acc

[4S. Chatterjee, « How Moral Can AI Really Be ? », The New Yorker, mars 2023, https://www.newyorker.com/science/annals-of-artificial-intelligence/how-moral-can-ai-really-be

[5Commission européenne, AI Code of Practice : Draft Guidance for High-Risk Systems, juillet 2025, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai.

[6Bible.Chat, plateforme conversationnelle biblique fondée sur des modèles de langage type GPT, en ligne : https://bible.chat (consulté le 16 juillet 2025).

[7J. Ahmed, « AI Tools in Islamic Jurisprudence : Emerging Concerns and Doctrinal Boundaries », Journal of Religion & Technology, vol. 12, 2024, p. 121-135.

[8British Muslim Magazine, « Smart Robots to Assist Worshippers in Masjid al-Haram », septembre 2022, en ligne : https://www.britishmuslim-magazine.com
(consulté le 17 juillet 2025).

[9The Journal / Associated Press, « Hundreds attend AI church service in Germany », TheJournal.ie, 10 juin 2023, https://www.thejournal.ie/ai-chruch-germany-6090108-Jun2023 (consulté le 29 juillet 2025).

[10J. P. Egunjobi, « The Misuse of AI-Generated Content in Academic and Religious Settings », International Journal of Research and Scientific Innovation, vol. XII, no XV, mai 2025, p. 871-879, DOI : 10.51244/IJRSI.2025.121500077P.

[11Jean Ladrière, La Foi chrétienne et le destin de la raison, coll. Cogitatio Fidei, n° 238, Paris, Éditions du Cerf, 2004, 367 p.

[12Dicastère pour la Doctrine de la Foi / Dicastère pour la Culture et l’Éducation, Antiqua et Nova : Note sur la relation entre l’intelligence artificielle et l’intelligence humaine, Cité du Vatican, 28 janvier 2025 (cf. publication officielle du Saint-Siège).

[13Rome Call for AI Ethics, AI Ethics for Peace : World Religions commit to the Rome Call, Hiroshima, 9-10 juillet 2024 ; Pontifical Academy for Life, Religions for Peace Japan, Abu Dhabi Forum for Peace, Chief Rabbinate of Israel. L’événement a rassemblé 16 leaders religieux représentant les principales traditions confessionnelles, avec notamment la signature du Rome Call par les religions d’Orient et la présentation de l’« Hiroshima Addendum on Generative AI ».

[14Abduh Al Azhari, « Al Azhar Scholar Warns Against Distorted Online Versions of Quran », International Quran News Agency, 31 décembre 2024 (consulté le 17 juillet 2025).

[15Convention européenne des droits de l’homme, art. 9.

[16CEDH, Kokkinakis c. Grèce, n° 14307/88, arrêt (Chambre) du 25 mai 1993, confirmant que la condamnation d’un individu pour prosélytisme constituait une atteinte à la liberté de manifester sa religion (article 9 CEDH).

[17CEDH, Fernández Martínez c. Espagne, arrêt de la Grande Chambre du 12 juin 2014 (requête n° 56030/07), relatif à l’autonomie des communautés religieuses et la liberté de religion (article 8 CEDH) / CEDH, Sindicatul “Păstorul cel Bun” c. Roumanie, Grande Chambre, arrêt du 9 juillet 2013, requête n° 2330/09.

[18A. Vial, Systèmes d’intelligence artificielle et responsabilité civile. Droit positif et proposition de réforme, thèse de doctorat en droit privé, Université Bourgogne Franche-Comté, soutenue le 12 décembre 2022.

[19Code de droit canonique, can. 983 §1 et can. 1388, 1983.

[20CEDH, Église métropolitaine de Bessarabie et autres c. Moldavie, requête n° 45701/99, arrêt du 13 décembre 2001 : la Cour a conclu à la violation de l’article 9 (liberté de religion) en raison du refus des autorités moldaves de reconnaître officiellement la Métropole de Bessarabie, empêchant ainsi ses membres d’exercer librement leurs cultes et d’obtenir une protection juridique. Elle a également jugé une violation de l’article 13 (droit à un recours effectif), car les requérants ne pouvaient pas contester cette décision devant une autorité nationale compétente.

[21CEDH, Église métropolitaine de Bessarabie et autres c. Moldavie, requête n° 45701/99, arrêt du 13 décembre 2001 : la Cour a considéré que le refus de reconnaissance d’une communauté religieuse représentait une ingérence dans le droit à la liberté de religion (article 9), dès lors que seules les communautés reconnues pouvaient exercer librement leur culte et accéder à une protection juridique effective.

[22Paul Ricoeur, Soi-même comme un autre, Paris, Seuil, 1990 ; Emmanuel Levinas, Totalité et Infini, La Haye, 1961 ; Charles Taylor, Les sources du moi, Paris, Seuil, 1998.

[23Voir notamment Paul Ricoeur, Soi-même comme un autre, Paris, Seuil, 1990 ; Emmanuel Levinas, Totalité et Infini, La Haye, 1961 ; Charles Taylor, Les sources du moi, Paris, Seuil, 1998.

[24Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 sur une approche harmonisée de l’intelligence artificielle (AI Act), art. 5 : interdiction des systèmes d’IA employant des techniques subliminales, manipulatrices ou trompeuses afin d’altérer le comportement et la capacité de décision des personnes de manière à leur causer un préjudice significatif.

[25Commission européenne, « The General Purpose AI Code of Practice », publié le 10 juillet 2025 (chapitres Transparency, Copyright et Safety & Security), consulté via le site « European approach to artificial intelligence - The Code of Practice ».

[26Rome Call for AI Ethics, déclaration interreligieuse lancée par la Pontifical Academy for Life, avec Microsoft et IBM, initialement signée à Rome en février 2020, et relancée lors de l’événement « AI Ethics for Peace : World Religions Commit to the Rome Call », Hiroshima, 9-10 juillet 2024, coorganisé par la Pontifical Academy for Life, Religions for Peace Japan, l’Abu Dhabi Forum for Peace et la Commission interreligieuse du Grand Rabbinat d’Israël, en ligne : https://www.romecall.org/ai-ethics-for-peace-hiroshima-july-10th-2024/.

[27Parlement européen, Artificial Intelligence : Opportunities and Challenges for the EU, PE 654.179, avril 2020, p. 12 ; Commission européenne, Questions and Answers on the AI Act, 21 avril 2021, en ligne : https://ec.europa.eu/commission/presscorner/detail/en/qanda_21_1683.

[28Hans Jonas, Le Principe responsabilité. Une éthique pour la civilisation technologique, trad. Jean Greisch, Paris, Éditions du Cerf, 1990.

[29Ivan Illich, La convivialité, Paris, Éditions du Seuil, 1973.

"Ce que vous allez lire ici". La présentation de cet article et seulement celle-ci a été générée automatiquement par l'intelligence artificielle du Village de la Justice. Elle n'engage pas l'auteur et n'a vocation qu'à présenter les grandes lignes de l'article pour une meilleure appréhension de l'article par les lecteurs. Elle ne dispense pas d'une lecture complète.

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 157 150 membres, 29150 articles, 127 366 messages sur les forums, 2 750 annonces d'emploi et stage... et 1 400 000 visites du site par mois en moyenne. *


FOCUS SUR...

• Parution de la 2nde édition du Guide synthétique des solutions IA pour les avocats.

• Découvrez les Finalistes du Prix de l’Innovation en Management Juridique 2025, et votez pour vos innovations préférées !





LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs