Le droit à l’effacement, énoncé à l’article 17 du RGPD, constitue un instrument capital pour l’autonomie informationnelle des individus dans l’espace numérique. Conçu dans un paradigme de systèmes centralisés et modifiables, ce droit présuppose une architecture technique réversible. L’avènement de technologies fondées sur des logiques de persistance native introduit une tension fondamentale. La blockchain, par son principe d’immuabilité cryptographique garantissant l’intégrité d’un registre distribué, et le deep learning, par son processus d’assimilation statistique des données au sein de modèles paramétriques opaques, sont structurellement conçus pour conserver une trace des informations qu’ils traitent. Cette confrontation entre un impératif juridique de réversibilité et des architectures techniques de persistance pose une question centrale : dans quelle mesure le droit à l’effacement peut-il conserver son effectivité face à ces défis, et quelles transformations cette tension suscite-t-elle dans les cadres techniques et normatifs de la protection des données ?
I. La blockchain : concilier immutabilité technique et exigence réglementaire.
La blockchain, en tant que registre distribué et transparent, fonde sa fiabilité sur une immutabilité garantie par des mécanismes cryptographiques et de consensus. Cette caractéristique constitutive engendre un conflit apparent avec l’exigence de suppression physique préconisée par le RGPD. L’analyse de cette confrontation révèle la nature profonde du défi et les stratégies architecturales développées pour y répondre, stratégies que les autorités de contrôle commencent à encadrer.
A. Un conflit normatif et une question de responsabilité.
L’immuabilité de la blockchain s’oppose frontalement à l’exigence de réversibilité du RGPD. En pratique, la suppression d’une donnée personnelle inscrite dans un bloc validé et répliqué sur un réseau pair-à-pair s’avère techniquement impossible. Une telle opération exigerait d’altérer l’intégrité de la chaîne entière, ce qui détruirait la proposition de valeur et la sécurité du système (Finck, 2019).
Cette rigidité technique engendre un paradoxe juridique majeur pour les protocoles publics. La difficulté s’accroît lors de l’identification du « responsable du traitement », une notion conçue pour des entités centralisées qui s’adapte mal aux Organisations Autonomes Décentralisées (DAO).
Le Comité européen de la protection des données (CEPD, 2025) a levé certaines ambiguïtés dans ses dernières orientations. Le Comité rejette l’idée d’une zone de non-droit numérique : la décentralisation n’exonère pas les acteurs de leurs obligations. Désormais, la responsabilité est évaluée selon le degré de contrôle effectif sur le protocole. Le CEPD précise ainsi que :
- Les développeurs peuvent être qualifiés de responsables conjoints s’ils déterminent les finalités du traitement via le code source.
- Les validateurs et les nœuds assument cette responsabilité lorsqu’ils décident de la validation des blocs contenant des données personnelles.
- Les participants aux DAO partagent cette charge dès lors qu’ils exercent une influence sur les paramètres de gouvernance du réseau.
B. Les stratégies de neutralisation fonctionnelle et leur validation réglementaire.
Face à cette contradiction normative, la pratique a développé des approches architecturales qui privilégient la neutralisation fonctionnelle plutôt que la suppression physique. La méthode la plus répandue évite le stockage de la donnée personnelle en clair sur la chaîne (on-chain).
Dans ce modèle, seule une empreinte cryptographique (hash) ou une référence chiffrée est inscrite sur le registre immuable. La donnée elle-même est hébergée hors chaîne (off-chain), dans un système de stockage classique. L’exercice effectif du droit à l’effacement s’opère alors par la destruction de la donnée off-chain et de la clé de déchiffrement associée. La donnée chiffrée qui persiste sur la blockchain devient un bruit indéchiffrable et irréversiblement anonyme.
Le CEPD (2025) valide explicitement cette approche dans ses lignes directrices. L’autorité européenne considère que l’exigence d’effacement est respectée si la ré-identification de la personne concernée est rendue impossible dans les faits. Des avancées cryptographiques, telles que les preuves à divulgation nulle de connaissance (zk-SNARKs), renforcent cette logique. Ces technologies permettent de vérifier la licéité d’une transaction sans exposer aucune donnée sous-jacente, prévenant ainsi le besoin d’effacement futur.
Toutefois, cette stratégie réintroduit une forme de centralisation et un point de défaillance potentiel (le stockage off-chain) dans un système conçu pour s’en affranchir, ce qui limite son adoption dans les applications les plus strictement décentralisées.
II. Le deep learning : de l’impasse de l’extraction à la prévention de la mémorisation.
Le défi posé par l’apprentissage profond est d’une nature différente. La donnée n’y est pas stockée de manière identifiable mais est assimilée dans un modèle complexe de réseaux de neurones. Son effacement ne relève plus de la suppression d’un enregistrement, mais de l’extraction d’une influence diffuse au sein d’une structure paramétrique opaque. Cette réalité technique remet en cause la faisabilité même du droit à l’effacement dans sa conception traditionnelle.
A. L’impossibilité pratique et le coût prohibitif du ré-entraînement.
Lors de l’entraînement d’un modèle de deep learning, les données servent à ajuster des millions, voire des milliards de paramètres de manière interdépendante. Une fois ce processus achevé, il est impossible d’isoler et de retracer l’influence précise d’une donnée individuelle (Liu et al., 2025). Théoriquement, seul un ré-entraînement intégral du modèle sur un jeu de données expurgé garantit un effacement complet.
Pour les grands modèles de langage (LLM) contemporains, cette opération est économiquement et écologiquement prohibitive, avec des coûts estimés à plusieurs millions de dollars et une empreinte carbone démesurée (Bender et al., 2021). Cette réalité entre en contradiction manifeste avec les principes de proportionnalité et de protection des données dès la conception prévus aux articles 5 et 25 du RGPD.
B. Le désapprentissage algorithmique et les garde-fous préventifs.
En réponse à cette impasse, le « machine unlearning » (désapprentissage machine) tente de développer des algorithmes qui approximent l’effet d’un ré-entraînement complet (Nguyen et al., 2022). Ces techniques visent à neutraliser sélectivement l’influence d’un sous-ensemble de données. Bien que prometteuses, ces techniques en sont aux stades expérimentaux ; leur efficacité absolue et leur robustesse face aux attaques par inférence d’appartenance (visant les données oubliées) n’est pas encore absolue.
En même temps, l’accent est mis sur la prévention. L’apprentissage fédéré, par lequel le modèle apprend de données restant sur les appareils des utilisateurs, évite la centralisation initiale des données brutes. La « differential privacy » (vie privée différentielle), qui ajoute un bruit mathématique contrôlé aux données ou aux résultats des requêtes, limite quant à elle la capacité du modèle à mémoriser des caractéristiques individuelles précises (Abadi et al., 2016). L’analyse d’impact relative à la protection des données (AIPD), rendue nécessaire par l’article 35 du RGPD, doit dorénavant évaluer systématiquement ces risques de mémorisation indue dans les systèmes d’IA.
III. L’évolution normative : du droit à l’effacement vers un encadrement des inférences algorithmiques.
La confrontation avec ces architectures persistantes ne conduit pas seulement à des adaptations techniques incrémentales ; elle catalyse une évolution en profondeur de la philosophie sous-jacente à la protection des données. L’analyse comparative des réponses à la blockchain et au deep learning révèle un déplacement du curseur, d’une logique centrée sur la donnée-source vers une logique centrée sur les effets de son traitement.
A. Des réponses différenciées pour des défis distincts.
La réponse réglementaire et technique à la blockchain privilégie une approche de contournement et de neutralisation fonctionnelle. Puisque la suppression physique est impossible, on rend la donnée inexploitable. Le cadre juridique, via les orientations du CEPD, valide cette approche comme une mise en conformité acceptable, adaptant l’interprétation du RGPD à une contrainte technique immuable.
À l’inverse, la réponse au défi du deep learning s’oriente davantage vers la prévention et le contrôle des effets. L’accent est mis sur des techniques comme la differential privacy pour empêcher la mémorisation excessive en amont, et sur la recherche en désapprentissage pour tenter de corriger a posteriori. Cette distinction reflète la nature différente des obstacles : un obstacle architectural délibéré dans le cas de la blockchain, contre un obstacle épistémologique lié à la complexité des modèles dans le cas du deep learning.
B. La convergence réglementaire vers un encadrement des effets.
Cette évolution trouve son aboutissement conceptuel et législatif dans l’émergence d’un « droit à des inférences raisonnables » (Right to Reasonable Inferences). Ce concept postule que la protection doit porter aussi sur les conclusions, déductions ou prédictions tirées des données par des algorithmes, et non seulement sur les données d’entrée (Wachter & Mittelstadt, 2019). Il ne vise pas une impossibilité technique absolue mais un encadrement normatif strict de la licéité et de la légitimité des inférences produites.
Le Règlement sur l’intelligence artificielle (AI Act, 2024) opérationnalise cette logique de manière contraignante. Il interdit catégoriquement les systèmes d’IA effectuant des inférences à « risque inacceptable », tels que la notation sociale par les États, et encadre strictement les systèmes à « risque élevé », notamment ceux utilisant des données pour inférer des caractéristiques sensibles comme l’orientation sexuelle ou les opinions politiques. L’AI Act marque ainsi un passage explicite d’une protection de la donnée-source à une protection de l’individu contre les effets préjudiciables de son traitement algorithmique. Ce cadre complète et transforme le droit à l’effacement plutôt que de le supplanter.
Conclusion.
L’analyse confirme que l’avènement des architectures techniques persistantes soumet le droit à l’effacement du RGPD à une pression constitutive. La blockchain, par son immuabilité, et le deep learning, par son assimilation statistique, remettent en cause sa faisabilité technique directe dans sa conception originelle. Les réponses émergentes, qu’il s’agisse de la neutralisation fonctionnelle validée par le CEPD ou du désapprentissage algorithmique pour l’IA, visent moins une suppression absolue qu’une mise hors d’usage des données ou de leurs effets.
Cette confrontation engendre une métamorphose nécessaire du cadre de protection. Si le « droit à des inférences raisonnables » demeure une proposition doctrinale (Wachter & Mittelstadt, 2019), l’AI Act en opérationnalise l’esprit de manière contraignante. À travers l’article 5, le règlement interdit les inférences à « risque inacceptable » telles que la notation sociale ou la catégorisation biométrique sensible. Par ailleurs, l’article 86 instaure un droit à l’explication pour les décisions issues de systèmes à haut risque, permettant de ce fait de contester la légitimité des déductions algorithmiques.
Ce cadre opère un déplacement capital : il ne s’agit plus seulement d’effacer le passé informationnel, mais de neutraliser son impact préjudiciable sur le présent et le futur décisionnel de l’individu. Le droit, face à des techniques qui ne peuvent oublier, se concentre dorénavant sur l’encadrement strict de l’usage de cette mémoire. Cette évolution ouvre de nouvelles perspectives pour la recherche, notamment sur la conception de mécanismes de vérification et d’audit indépendants. Ces outils devront contrôler l’efficacité réelle du désapprentissage ou de la neutralisation au sein de systèmes toujours plus complexes et opaques.
Références.
- Abadi, M., Chu, A., Goodfellow, I., McMahan, H. B., Mironov, I., Talwar, K., & Zhang, L. (2016). Deep learning with differential privacy. arXiv (Cornell University) [1].
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots : Can language models be too big ? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623 [2].
- Comité européen de la protection des données (CEPD). (2025, janvier). Effective implementation of data subjects’ rights : Techniques and methods for the right to rectification and the right to erasure in AI systems [3].
- Comité européen de la protection des données (CEPD). (2025, 8 avril). Guidelines 02/2025 on processing of personal data through blockchain technologies [4].
- Finck, M. (2019, juillet). Blockchain and the General Data Protection Regulation : Can distributed ledgers be squared with European data protection law ? Service de recherche du Parlement européen (EPRS), Panel for the Future of Science and Technology (STOA).
- Liu, H., Xiong, P., Zhu, T., & Yu, P. S. (2025). A survey on machine unlearning : Techniques and new emerged privacy risks. Journal of Information Security and Applications, 90, 104010 [5].
- Nguyen, T. T., Huynh, T. T., Nguyen, P. Z., Liew, A. W. C., Yin, H., & Nguyen, Q. V. H. (2022). A survey of machine unlearning. arXiv preprint [6].
- Parlement européen & Conseil de l’Union européenne. (2016, 27 avril). Règlement (UE) 2016/679 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel (RGPD).
- Parlement européen & Conseil de l’Union européenne. (2024, 12 juillet). Règlement (UE) 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle (IA Act).
- Wachter, S., & Mittelstadt, B. (2019). A right to reasonable inferences : Re-thinking data protection law in the age of big data and AI. Columbia Law Review, 119(7), 494–620 [7].


