L’IA au Maroc : comment la loi 09-08 tente de contenir le gouffre des données.

Par Yasser Elkouri, Doctorant.

1522 lectures 1re Parution: 5  /5

Explorer : # protection des données personnelles # intelligence artificielle # Éthique technologique

Ce que vous allez lire ici :

L'intelligence artificielle transforme divers secteurs, mais elle dépend fortement des données personnelles, soulevant des enjeux éthiques et juridiques. Au Maroc, la loi 09-08 protège ces données, mais ne répond plus aux défis posés par l'IA. Une réforme législative est nécessaire pour équilibrer innovation et protection des droits individuels.
Description rédigée par l'IA du Village

L’intelligence artificielle (IA), bien qu’elle offre des opportunités révolutionnaires, repose sur une exploitation massive de données, souvent personnelles. Au Maroc, la loi 09-08, adoptée en 2009, encadre strictement la collecte et le traitement des données personnelles, garantissant des droits fondamentaux aux citoyens. Cependant, l’émergence de l’IA met cette loi à l’épreuve. Entre le consentement éclairé, la finalité du traitement, la transparence des algorithmes et la sécurité des données, les points de friction sont nombreux. Cet article explore ces défis, soulignant la nécessité d’une réforme législative pour concilier innovation technologique et protection des droits individuels, tout en proposant des pistes pour un cadre juridique adapté à l’ère de l’IA.

-

Introduction.

L’intelligence artificielle (IA) est souvent perçue comme une force révolutionnaire, capable de transformer des secteurs entiers, de la santé à l’éducation, en passant par les services financiers et la gouvernance. Pourtant, derrière cette promesse de progrès se cache une réalité moins glamour : l’IA est un gouffre insatiable en données. Pour fonctionner, elle a besoin de milliards d’informations, qu’elle analyse, trie et utilise pour apprendre, prédire et prendre des décisions. Ces données, souvent personnelles, sont le carburant indispensable à son fonctionnement. Mais à quel prix ?

Au Maroc, la loi 09-08, adoptée en 2009, constitue un rempart essentiel contre l’exploitation abusive des données personnelles. Inspirée des standards internationaux de l’époque, notamment la Directive 95/46/CE de l’Union européenne, cette loi encadre strictement la collecte, le traitement et la conservation des données, garantissant aux citoyens des droits fondamentaux tels que le consentement éclairé, la transparence et la sécurité. Cependant, face à l’émergence de l’IA, cette loi montre ses limites. Les systèmes d’IA, par leur nature même, entrent souvent en conflit avec les principes énoncés par la loi 09-08, créant des tensions entre innovation technologique et protection des droits individuels.

Cet article explore les points de friction entre l’IA et la loi 09-08, en mettant en lumière les défis éthiques, juridiques et sociaux qui en découlent. Comment concilier le besoin massif de données de l’IA avec les impératifs de protection des données personnelles ? Quelles réformes sont nécessaires pour adapter le cadre juridique marocain aux spécificités de l’IA ? À travers une analyse approfondie, nous tenterons de répondre à ces questions cruciales, tout en proposant des pistes pour un développement responsable et éthique de l’IA au Maroc.

1. Le fonctionnement de l’IA : un gouffre à données.

L’intelligence artificielle, dans sa forme la plus avancée, repose sur des algorithmes d’apprentissage automatique qui nécessitent des quantités astronomiques de données pour fonctionner efficacement. Ces algorithmes, qu’il s’agisse de réseaux de neurones profonds ou de modèles prédictifs, apprennent à partir de données historiques pour identifier des patterns, prendre des décisions ou générer des prédictions. Par exemple, un système de reconnaissance faciale doit être entraîné sur des millions d’images pour atteindre un niveau de précision acceptable. De même, les assistants virtuels comme Siri ou Alexa s’appuient sur des milliards d’interactions utilisateur pour améliorer leurs réponses.

Les modèles d’IA les plus performants, comme GPT-3 - qui comprend plus de 175 milliards de paramètres - sont entraînés sur des ensembles de données contenant plus de 570 Go de texte, soit l’équivalent de plusieurs centaines de milliards de mots [1]. Ces données proviennent de sources variées, allant des livres numérisés aux conversations en ligne, en passant par les articles de presse. De son côté, la société Hugging Face, spécialisée dans l’IA, héberge plus de 1,3 million de modèles d’intelligence artificielle et jeux de données sur sa plateforme, avec environ un milliard de requêtes par jour [2].Par ailleurs, une étude de Deloitte réalisée en 2023 révèle que 61 % des personnes travaillant sur ordinateur utilisent des programmes d’IA générative dans leur quotidien professionnel [3].

Cependant, cette dépendance aux données soulève des questions éthiques et juridiques majeures. En effet, une grande partie des données utilisées par l’IA sont des données personnelles, c’est-à-dire des informations qui permettent d’identifier ou de caractériser un individu. Ces données, bien qu’essentielles au fonctionnement de l’IA, sont également protégées par des lois strictes, comme la loi 09-08 au Maroc.

C’est ici que commence la confrontation entre l’IA et le cadre juridique existant.

2. La loi 09-08 : Un rempart contre l’exploitation des données personnelles.

Adoptée en 2009, la loi 09-08 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel représente un pilier essentiel de la protection des droits numériques au Maroc. Inspirée des standards internationaux, notamment la Directive 95/46/CE de l’Union européenne sur la protection des données personnelles, cette loi vise à encadrer la collecte, le traitement et la conservation des données personnelles. Bien que le Règlement Général sur la Protection des Données (RGPD) européen, adopté en 2016, soit aujourd’hui considéré comme une référence mondiale en la matière, la loi 09-08 a été conçue à une époque où la Directive 95/46/CE était encore en vigueur, reflétant ainsi les meilleures pratiques de l’époque en matière de protection des données.

La loi 09-08 repose sur plusieurs principes fondamentaux, qui constituent la base de son cadre juridique. Tout d’abord, le consentement éclairé : les individus doivent être informés de la manière dont leurs données seront utilisées et doivent donner leur accord explicite avant toute collecte. Ensuite, la finalité du traitement : les données personnelles ne peuvent être collectées que pour une finalité déterminée, explicite et légitime. La loi impose également une limitation de la collecte : seules les données nécessaires à la finalité déclarée peuvent être collectées, et elles ne doivent pas être conservées au-delà de la durée nécessaire. Enfin, la loi garantit aux individus des droits d’accès, de rectification et d’opposition, leur permettant de contrôler l’utilisation de leurs données.

La Commission Nationale de Contrôle de la Protection des Données (CNDP), créée en vertu de la loi 09-08, joue un rôle central dans l’application de ces principes. La CNDP a pour mission de veiller au respect de la loi, d’enquêter sur les violations, d’imposer des sanctions et de sensibiliser le public aux enjeux de la protection des données.

Cependant, face à l’émergence de l’IA, cette loi montre ses limites. En effet, les systèmes d’IA, par leur nature même, entrent souvent en conflit avec les principes énoncés par la loi 09-08.

3. Les points de friction entre l’IA et la loi 09-08.

Le consentement éclairé.

L’un des principes fondamentaux de la loi 09-08 est le consentement éclairé. Les individus doivent être informés de la manière dont leurs données seront utilisées et doivent donner leur accord explicite avant toute collecte. Cependant, dans le contexte de l’IA, ce principe est souvent mis à mal. Les systèmes d’IA collectent des données de manière massive et souvent opaque, sans que les individus comprennent pleinement comment ces données seront utilisées. Par exemple, les algorithmes de recommandation sur les plateformes de streaming ou de commerce en ligne analysent les comportements des utilisateurs en temps réel, sans toujours obtenir un consentement clair et explicite. Cette pratique, bien que courante, entre en conflit avec l’esprit de la loi 09-08, qui exige une transparence totale dans la collecte et l’utilisation des données.

La finalité du traitement.

La loi 09-08 stipule que les données personnelles ne peuvent être collectées que pour une finalité déterminée, explicite et légitime. Or, les systèmes d’IA ont tendance à réutiliser les données pour des finalités non prévues initialement. Par exemple, des données collectées pour améliorer un service de navigation peuvent être utilisées pour développer un système de publicité ciblée, ce qui pose un problème de conformité avec la loi. Cette réutilisation des données, bien qu’elle soit souvent justifiée par des impératifs techniques ou économiques, soulève des questions éthiques et juridiques majeures.

La transparence et l’explicabilité.

Les algorithmes d’IA sont souvent des "boîtes noires", c’est-à-dire que leur fonctionnement interne est difficile à comprendre, même pour les experts. Cette opacité entre en conflit avec le droit des individus à comprendre comment leurs données sont utilisées. La loi 09-08 garantit aux individus le droit d’accéder à leurs données et de savoir comment elles sont traitées, mais cette exigence est difficile à respecter dans le contexte de l’IA. En effet, les systèmes d’IA, en particulier ceux basés sur l’apprentissage profond, prennent des décisions complexes qui ne peuvent pas toujours être expliquées de manière simple et compréhensible.

La sécurité des données.

Les systèmes d’IA manipulent de grandes quantités de données sensibles, ce qui accroît les risques de fuites ou de piratage. La loi 09-08 impose des obligations strictes en matière de sécurité des données, mais les entreprises utilisant l’IA doivent souvent faire face à des défis techniques et financiers pour garantir la protection des données. Par exemple, les bases de données utilisées pour entraîner les modèles d’IA sont souvent stockées dans des environnements cloud, ce qui les expose à des risques de cyberattaques. Ces risques, bien qu’ils ne soient pas spécifiques à l’IA, sont exacerbés par la nature même de cette technologie, qui repose sur l’exploitation massive de données.

La responsabilité en cas de dysfonctionnement.

En cas d’erreur ou de préjudice causé par un système d’IA, il est difficile de déterminer qui est responsable : le développeur, l’utilisateur ou l’entreprise qui exploite le système. La loi 09-08 ne prévoit pas de dispositions spécifiques pour régler ce type de litige, ce qui laisse un vide juridique. Par exemple, si un système d’IA utilisé dans le secteur de la santé prend une décision erronée qui entraîne un préjudice pour un patient, il est difficile de déterminer qui doit être tenu responsable. Cette absence de cadre juridique clair pose un problème majeur, tant pour les individus que pour les entreprises.

Conclusion.

L’intelligence artificielle, avec son appétit insatiable pour les données, représente à la fois une promesse de progrès et un défi sans précédent pour la protection des droits individuels. Au Maroc, la loi 09-08, bien que solide dans ses fondements, se trouve aujourd’hui confrontée à une réalité technologique qui dépasse ses cadres initiaux.

Les points de friction entre l’IA et cette loi, qu’il s’agisse du consentement éclairé, de la finalité du traitement, de la transparence des algorithmes ou de la responsabilité en cas de dysfonctionnement - révèlent une tension profonde entre innovation et régulation.

Pour que le Maroc puisse pleinement tirer parti des avantages de l’IA tout en protégeant les droits de ses citoyens, une réforme législative s’impose. Cette réforme devra intégrer des principes éthiques clairs, renforcer la transparence des systèmes d’IA et établir des mécanismes de responsabilité adaptés aux spécificités de cette technologie. Elle devra également s’inscrire dans le cadre de la stratégie Maroc Digital 2030, qui vise à faire du pays un hub numérique régional tout en garantissant une transition technologique inclusive et durable.

En parallèle, une sensibilisation accrue du public et une formation des professionnels aux enjeux de l’IA seront essentielles pour garantir une adoption responsable et éthique de cette technologie. La réussite de cette transformation dépendra de la collaboration entre les acteurs publics, privés et académiques, ainsi que de la capacité du Maroc à adapter son cadre juridique aux défis posés par l’IA.

En somme, l’IA n’est pas seulement une question technologique, mais aussi une question de valeurs. Le Maroc a l’opportunité de devenir un modèle en matière de régulation éthique de l’IA, en montrant que progrès technologique et respect des droits fondamentaux ne sont pas incompatibles, mais bien les deux faces d’une même médaille. Grâce à des initiatives comme Maroc Digital 2030, le pays peut positionner l’IA comme un levier de développement économique et social, tout en protégeant les droits et la dignité de ses citoyens. L’avenir de l’IA au Maroc dépendra de notre capacité à trouver cet équilibre délicat, où innovation rime avec responsabilité.

Yasser Elkouri, doctorant à la Faculté des Sciences Juridiques Economiques et Sociales de Tanger, Université Abdelmalek Essaâdi

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

4 votes

L'auteur déclare ne pas avoir utilisé l'IA générative pour la rédaction de cet article.

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

Notes de l'article:

[1Alex Tamkin et Deep Ganguli, « How Large Language Models Will Transform Science, Society, and IA », Stanford University Human-Centered Artificial Intelligence, 5 février 2023.

[2Contributeurs aux projets Wikimedia, “Hugging face,” Mar. 04, 2025. https://fr.wikipedia.org/wiki/Hugging_Face

[3“Étude sur l’IA : plus de 60% des personnes interrogées utilisent l’IA au travail, et près de la moitié des employés craignent de perdre leur emploi,” Deloitte, Aug. 28, 2023. https://www.deloitte.com/ch/fr/about/press-room/ai-study-almost-half-of-all-employees-are-worried-about-losing-their-jobs.html

"Ce que vous allez lire ici". La présentation de cet article et seulement celle-ci a été générée automatiquement par l'intelligence artificielle du Village de la Justice. Elle n'engage pas l'auteur et n'a vocation qu'à présenter les grandes lignes de l'article pour une meilleure appréhension de l'article par les lecteurs. Elle ne dispense pas d'une lecture complète.

A lire aussi :

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 156 575 membres, 28235 articles, 127 304 messages sur les forums, 2 600 annonces d'emploi et stage... et 1 500 000 visites du site par mois en moyenne. *


FOCUS SUR...

• [Spécial Semaine de la QVCT 2025] Les outils numériques pour le juriste : une charge mentale en plus... ou moins de charge mentale ?

• 1er Guide synthétique des solutions IA pour les avocats.




LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs