À l’ère numérique, la circulation, l’exploitation et la régulation des données jouent un rôle central dans la compétition géopolitique. L’émergence de l’intelligence artificielle, qui exploite ces données, complique ces enjeux, car les informations transcendent les frontières physiques. Leur circulation dans l’espace numérique échappe parfois aux souverainetés traditionnelles, ce qui engendre des rapports de pouvoir entre les acteurs internationaux.
La géopolitique, centrée sur les rivalités de pouvoir dans l’espace géographique, doit s’adapter à une nouvelle réalité où les flux de données et la régulation juridique redéfinissent les frontières. Si la circulation des données semblait initialement abattre les barrières, les régulations nationales et régionales rétablissent des frontières juridiques et stratégiques. La régulation de l’IA devient primordiale pour assurer la souveraineté, la sécurité et l’équilibre des puissances. Les enjeux juridiques liés à l’exploitation des données créent des tensions, chaque État cherchant à établir ses propres règles face à des rivalités internationales.
Dans le contexte actuel de compétition géopolitique, comment la régulation de l’IA peut-elle contribuer à équilibrer les enjeux de souveraineté, de puissance, de sécurité et de compétitivité ? En quoi les systèmes juridiques influencent-ils cette régulation ainsi que la gouvernance des données à l’échelle mondiale ? Quelles stratégies et politiques les grandes puissances, telles que les États-Unis, la Chine et l’Union européenne, adoptent-elles en matière de régulation de l’IA ?
I. Les défis de la régulation dans un espace numérique anarchique.
A. Enjeux de la régulation à l’ère de l’intelligence artificielle.
L’IA soulève des questions majeures concernant la gestion des données. La collecte de données personnelles suscite des préoccupations relatives au consentement, à la vie privée et à la confidentialité. Par ailleurs, le stockage de ces données dans des datacenters ou dans le cloud entraîne des enjeux de souveraineté numérique et de sécurité. Ainsi, les pays cherchent à contrôler les données présentes sur leur territoire, ce qui pose des problèmes juridiques liés à la juridiction et aux flux transfrontaliers de données. La transmission des données expose également à des risques d’espionnage et de surveillance de masse. De plus, le traitement et l’exploitation des données suscitent des interrogations sur leur impact environnemental et sur les implications pour la manipulation de l’opinion publique.
Les défis juridiques associés à ces questions sont : la protection des données personnelles, la transparence, le biais algorithmique, la propriété intellectuelle, la responsabilité des acteurs, l’interopérabilité des systèmes, la lutte contre la désinformation et les monopoles. Dans ce contexte, la régulation de l’IA est devenue un champ de bataille géopolitique. Les États qui maîtrisent l’IA disposent d’un avantage stratégique considérable. L’influence normative est ainsi une clé pour les États, qui cherchent à établir des cadres juridiques non seulement pour protéger les droits, mais aussi pour exporter leur vision technologique à l’échelle mondiale. Cependant, cette quête de régulation se heurte à la réalité complexe de l’espace numérique.
B. L’aspect anarchique de l’espace numérique.
L’anarchie du cyberespace est caractérisée par l’absence de gouvernance centralisée, de lois formelles et de contrôle étatique, créant par conséquent un environnement d’expression libre et égalitaire. À ses origines, Internet a été conçu comme un système décentralisé visant à promouvoir le libertarisme numérique (cyberlibertarianisme). Influencés par des mouvements tels que les cypherpunks, les partisans de cette liberté individuelle s’opposent à la censure gouvernementale et soutiennent l’utilisation de la cryptographie pour assurer la sécurité et l’anonymat des communications. La déclaration d’indépendance du cyberespace par John Perry Barlow en 1996 incarne cette vision, affirmant que le cyberespace doit rester en dehors de tout contrôle institutionnel (Barlow, 1996).
Néanmoins, cette vision optimiste est actuellement mise à l’épreuve par des menaces croissantes. Les cyberattaques compromettent la sécurité du cyberespace. Cette situation a poussé les États à adopter des stratégies offensives, y compris des actes de sabotage, d’espionnage et de subversion. En même temps, la cybercriminalité, avec une augmentation des piratages et des vols de données, intensifie les préoccupations sécuritaires. La nature internationale et anonyme des cyberattaques complique aussi l’application du droit et la responsabilité des différents acteurs du cyberespace. En réponse, les gouvernements renforcent leur contrôle, combinant censure et surveillance, ce qui suscite des débats sur la légitimité de leur intervention dans cet espace censé être libre.
La centralisation des données par les géants du numérique, comme les GAFAM, soulève aussi des questions sur les libertés individuelles et la souveraineté numérique, notamment l’influence des algorithmes et l’exploitation des données au-delà des frontières. Face à cette concentration, les gouvernements ont introduit des régulations telles que le RGPD, le DSA et le DMA pour protéger les données personnelles et encadrer les marchés numériques. Certains États, comme la Chine et la Russie, territorialisent les données et adoptent des approches nationales de l’Internet. Ces tendances établissent de nouvelles frontières physiques, juridiques et stratégiques dans le cyberespace (Cattaruzza, 2019, p. 68).
Face à cette évolution des menaces et à la montée des contrôles étatiques, l’établissement de cadres juridiques flexibles et efficaces apparaît comme incontournable. La lutte pour la souveraineté numérique s’avère inévitable, tout en préservant la liberté et l’ouverture du cyberespace, dans le respect de l’autonomie des utilisateurs et l’intégration de mesures de sécurité appropriées. En outre, les systèmes juridiques des différents pays abordent ces enjeux de régulation de manière variée.
II. Les systèmes juridiques et leur influence sur la régulation de l’IA.
A. Le système romano-civiliste.
Le système romano-civiliste, ou droit continental, repose sur une codification rigoureuse qui favorise la protection des droits individuels et s’avère pertinent dans la régulation de l’intelligence artificielle. Ce système est caractérisé par une approche scientifique et déductive, où le droit est formalisé par des codes et des lois écrites, contribuant à des réglementations claires et prévisibles comme le RGPD et l’AI Act.
L’importance de la codification dans le droit romano-civiliste garantit l’accessibilité, la cohérence et l’abstraction des lois, éléments essentiels pour encadrer l’usage de l’IA. Cette approche met également l’accent sur la protection des droits fondamentaux, entraînant des interdictions strictes pour certaines utilisations, comme la notation sociale. En matière de responsabilité civile, elle privilégie pour le moment l’adaptation des règles existantes (gardien, dommage, faute) plutôt que la création d’un régime spécifique pour l’IA. Cela soulève néanmoins des questions sur la suffisance de ces règles actuelles face aux défis posés par ces technologies.
L’approche déductive permet d’appliquer des principes généraux à des situations concrètes, avec le législateur comme acteur central dans l’établissement des normes. Cependant, la rapidité de l’évolution technologique pose un défi au processus législatif, qui peine à suivre le rythme, alors que l’opacité des algorithmes complexifie l’application des concepts juridiques traditionnels, notamment en matière de responsabilité.
Les juges et les universitaires jouent aussi un rôle majeur dans la régulation de l’IA. Les magistrats, issus d’un processus de sélection exigeant, appliquent les lois sans avoir de pouvoir normatif direct pour les modifier. De leur côté, les universitaires enrichissent la théorie et vulgarisent le droit, ce qui aide à rendre le cadre juridique plus systématique et adaptable face aux défis technologiques. Cependant, dans le système romano-civiliste, la séparation claire des professions juridiques limite l’influence des avocats. Leur rôle se concentre principalement sur la défense des droits, car les questions de changement social relèvent davantage du domaine politique et législatif, les empêchant de jouer un rôle actif dans l’évolution du cadre légal. Les pays de tradition romano-civiliste cherchent également à affirmer leur souveraineté juridique face à l’influence des géants technologiques, souvent issus de juridictions de common law.
B. Le système de common law.
À l’opposé, le système de common law, caractérisé par une approche fondée sur la jurisprudence et la règle du précédent, offre une régulation relativement flexible de l’IA. Même si la loi joue un rôle important, la régulation de l’IA évolue principalement par le biais de décisions judiciaires, chaque cas ayant le potentiel de créer un précédent. Par exemple, aux États-Unis, en matière de droit d’auteur, des affaires telles que Thaler v. Perlmutter ont établi que les œuvres générées uniquement par l’IA ne sont pas protégeables, ce qui souligne l’exigence de paternité humaine. De plus, des décisions récentes en Californie, concernant Meta et Anthropic, ont globalement reconnu l’entraînement des modèles d’IA sur des œuvres protégées comme relevant du « fair use ». Concernant les preuves judiciaires, un juge de l’État de Washington a rejeté l’utilisation de preuves vidéo améliorées par l’IA, en raison de l’opacité de la technologie et du manque de précédent.
Dans le cadre des systèmes de common law, l’interprétation des lois par les juges joue un rôle central, le juge anglais s’intéressant à la particularité de chaque situation. En effet, il se concentre sur les détails afin de rechercher la spécificité de chaque cas, plutôt que de chercher à établir des généralisations. Toutefois, la régulation ne se limite pas à la jurisprudence. Au Royaume-Uni, une approche « pro-innovation » est adoptée, favorisant des cadres réglementaires sectoriels plutôt qu’une législation unique. De même, aux États-Unis, où il n’existe pas de législation fédérale exhaustive sur l’IA, une mosaïque de cadres réglementaires émerge au niveau des États, accompagnée d’initiatives exécutives. Ainsi, même si la jurisprudence est essentielle, elle est complétée par des efforts réglementaires et législatifs.
La loi, bien qu’occupant le sommet de la hiérarchie des normes, n’est pas la principale source de droit dans les traditions de common law. Elle est souvent considérée comme une confirmation des solutions de la jurisprudence. Cette dernière, en tant que source naturelle du droit, revêt donc une importance majeure, les lois ayant un caractère exceptionnel et servant principalement à renforcer les règles établies par la jurisprudence. En conséquence, la loi anglaise est très précise, précisant exactement la matière qu’elle veut régir et laissant à la jurisprudence le soin de traiter ce qui sort de son champ d’application.
Les juges et les avocats sont des acteurs essentiels dans la régulation de l’IA. Les juges, pouvant être nommés ou même élus, apportent une certaine légitimité démocratique et respectent la règle du précédent, ce qui renforce la jurisprudence. Les avocats, plus nombreux que dans les traditions romano-civilistes jouent un rôle prépondérant. Leur forte présence résulte d’une moindre intervention de l’État, entraînant une demande accrue de conseils juridiques. Aux États-Unis, les avocats s’impliquent également dans des actions de lobbying pour influencer la législation sur l’IA, ce qui renforce leur rôle dans la production de droit et la régulation des normes.
Les systèmes juridiques influencent la régulation de l’IA en créant des cadres réglementaires spécifiques. Cela est particulièrement visible aux États-Unis, en Chine, en Europe et même en Afrique.
III. La régulation des données et de l’intelligence artificielle par régions.
A. États-Unis : superpuissance numérique face à la régulation fluctuante.
Les États-Unis se positionnent en tant que superpuissance numérique, notamment grâce à des géants tels que les GAFAM, qui exercent une influence mondiale sur les données, les plateformes et les infrastructures numériques. Parallèlement, des institutions clés comme l’ICANN, responsable de l’attribution des noms de domaine et des adresses IP, ont longtemps été sous influence américaine. Cette prééminence a été remise en question, notamment après les révélations d’Edward Snowden et l’ICANN a évolué vers une gouvernance multipartite. Cependant, elle est encore perçue par certains comme un instrument stratégique de la domination américaine dans le cyberespace.
Malgré l’importance de la jurisprudence dans la régulation aux États-Unis, des cadres législatifs se mettent progressivement en place et régissent plusieurs aspects. Le paysage réglementaire en matière d’IA et de données est hétérogène, avec des lois adoptées au niveau des États qui varient considérablement. Par exemple, le Colorado a promulgué le Colorado AI Act en mai 2024, marquant une avancée législative notable. D’autres États développent également leurs propres initiatives. Cependant, bien que des propositions aient été explorées au Congrès, aucun cadre juridique harmonisé sur l’IA n’a encore été adopté au niveau fédéral.
Sur le plan sécuritaire, plusieurs lois structurent cette puissance numérique américaine. L’USA Patriot Act, adopté après le 11 septembre 2001, permet une surveillance massive des communications électroniques pour lutter contre le terrorisme (USA Patriot Act, 2001). En particulier, la Section 215 du Foreign Intelligence Surveillance Act (FISA) autorise la collecte d’informations sans autorisation judiciaire (Bureau of Justice Assistance, 2025). La révélation du programme PRISM par Edward Snowden en 2013 a montré comment la NSA exploitait ces dispositifs pour surveiller massivement la population partout à travers le monde, en collaborant avec des géants technologiques comme Google, Facebook et Microsoft.
En 2018, le Cloud Act a élargi la portée des demandes de données, permettant aux autorités américaines d’accéder aux données stockées à l’étranger, à condition de conclure des accords bilatéraux avec d’autres États (Eurojust, 2022). Cette législation renforce la capacité du gouvernement à obtenir des données dans un contexte international, ce qui soulève des préoccupations concernant la souveraineté des États sur leurs données.
La régulation économique repose sur le Sherman Antitrust Act de 1890, qui sert de base pour lutter contre les pratiques monopolistiques des géants de l’IA. Les actions de la FTC (Federal Trade Commission) visent à sanctionner les abus de pouvoir des GAFAM. Par exemple, Google a été condamné à une amende de 500 millions de dollars en 2011 pour publicité illégale et à 170 millions de dollars en 2019 pour violation de la vie privée des enfants. Facebook a été sanctionné à hauteur de 5 milliards de dollars en 2019 pour violations de la vie privée, alors qu’Amazon a dû payer 61,7 millions de dollars en 2021 pour pratiques trompeuses liées aux pourboires (Koné, décembre 2024).
Les enquêtes et procès en cours visent à démanteler ou restreindre l’emprise des GAFAM. Bien que la législation américaine offre des outils puissants pour surveiller et réguler ces géants, leur influence économique et technologique demeure. La régulation cherche à équilibrer innovation, sécurité et concurrence. La classe politique craint surtout qu’un démantèlement des géants américains du numérique ne favorise les BATX chinois, ce qui représente un enjeu géopolitique central.
B. Chine : grande puissance numérique et régulation au service de la contrôlocratie.
La Chine constitue un modèle différent de régulation des données et de l’IA, où l’État joue un rôle central. La puissance numérique du pays repose sur une synergie entre l’État, les BATX et le patriotisme numérique. Le pays dispose d’une richesse considérable en données essentielles pour l’entraînement de l’IA, ainsi que d’une forte volonté politique de la part du Parti communiste pour promouvoir cette technologie. Kai-Fu Lee souligne que la Chine, en raison de sa richesse en données, peut être considérée comme le nouvel équivalent de l’Arabie saoudite pour le pétrole (Kai-Fu Lee, 2018).
La réglementation des données en Chine se caractérise par des politiques de cybersurveillance strictes. Adoptée en 2017, la loi sur la cybersécurité impose aux entreprises de stocker les données des utilisateurs chinois sur le territoire national (Loi sur la cybersécurité chinoise, 2017). Les grandes entreprises technologiques collaborent étroitement avec l’État, fournissant des technologies qui facilitent la surveillance de masse. Les données collectées renforcent non seulement les capacités de reconnaissance faciale et d’analyse des comportements, mais alimentent aussi le système de crédit social. Ce dernier, initié en 2014, évalue en temps réel le comportement des citoyens et influence leur accès aux services quotidiens en fonction de leur conformité (Thibout, 2018).
Le cadre juridique chinois repose sur un système à plusieurs niveaux, centré sur le contrôle étatique et l’adhésion aux « valeurs socialistes fondamentales ». La Personal Information Protection Law (PIPL), entrée en vigueur le 1er novembre 2021, vise à renforcer la protection des données personnelles, s’inspirant du RGPD européen. Cette loi centralise des dispositions auparavant éparpillées et impose des exigences strictes sur le traitement des données, y compris le consentement, la sécurité et le transfert transfrontalier. La PIPL introduit aussi des obligations spécifiques pour certaines industries, ainsi que des régulations sur la reconnaissance faciale et l’audit des données. Les responsables du traitement doivent réaliser des évaluations d’impact et respecter les droits des individus, tels que le droit d’accès et d’effacement. Des sanctions sévères, incluant des amendes importantes, peuvent être appliquées en cas de violation (Beibei, 2024).
Par ailleurs, la réglementation provisoire sur la gestion de l’intelligence artificielle générative en Chine, adoptée en mai 2023 et entrée en vigueur le 15 août 2023, vise à encadrer la création et la consommation de contenus générés par l’IA. Elle définit des termes clés comme « technologie d’IA générative » et « utilisateur de services d’IA générative ». Ce cadre réglementaire met l’accent sur la protection des valeurs socialistes fondamentales et l’interdiction des contenus nuisibles. En outre, il aborde des questions majeures telles que la propriété intellectuelle, notamment les droits d’auteur sur les œuvres générées par l’IA, ainsi que l’annotation des données, essentielle pour garantir la qualité des modèles d’IA (Réglementation provisoire sur la gestion de l’intelligence artificielle générative, 2023). En poursuivant des objectifs économiques, environnementaux, sociaux et sécuritaires, cette réglementation cherche à équilibrer l’innovation dans le domaine de l’IA générative avec la protection des droits et intérêts des individus et de la sécurité nationale.
Les ambitions de la Chine, consolidées par des investissements massifs, visent à faire du pays un leader mondial en IA d’ici 2030. Le cadre juridique rigoureux place la Chine en position de concurrencer les États-Unis. Ainsi, dans la course à l’IA, la Chine parvient à concilier innovation grâce à l’accès à de grandes quantités de données et à une régulation stricte de l’Internet, pour empêcher la fuite des données à l’étranger, à l’image du Grand Firewall. Ce système de censure et de surveillance contrôle l’accès à Internet, bloque de nombreux sites étrangers et limite la circulation d’informations sensibles, renforçant par conséquent le contrôle du gouvernement sur les données locales et soutenant sa stratégie d’innovation en IA.
C. Union européenne : le droit au cœur de la souveraineté numérique.
Si les États-Unis et la Chine sont des puissances numériques, l’Union européenne se positionne pour le moment comme un leader dans la régulation des données et de l’intelligence artificielle pour assurer sa souveraineté numérique. Dans ce contexte, l’UE a adopté plusieurs cadres juridiques, dont le RGPD, entré en vigueur en 2018. Le RGPD régit le traitement des données personnelles, y compris celles utilisées par les systèmes d’IA, en garantissant les droits des individus. Il impose des principes fondamentaux tels que le consentement explicite, la minimisation des données, la limitation de la finalité, ainsi que la précision et l’intégrité des données. De plus, il renforce les droits des individus, comme le droit d’accès, de rectification et d’effacement des données. Il encadre aussi les transferts internationaux de données et les responsabilités des responsables de traitement (Règlement (UE) 2016/679, 2016).
L’Artificial Intelligence Act (AI Act), entré en vigueur en 2024, complète le RGPD en classifiant les systèmes d’IA selon leur niveau de risque (inacceptable, élevé, limité et minimal) et en interdisant les applications jugées inacceptables, comme le scoring social par les gouvernements, ainsi qu’en imposant des obligations strictes pour celles à risque élevé. Ce règlement a pour objectif de protéger les droits fondamentaux et la sécurité tout en favorisant l’innovation.
Simultanément, l’UE a instauré le Digital Services Act (DSA) et le Digital Markets Act (DMA). Le DSA, en vigueur depuis 2022, impose aux grandes plateformes numériques des obligations rigoureuses pour la gestion des contenus. Il interdit la diffusion de contenus illicites et renforce la transparence et la sécurité pour les utilisateurs, qui doivent disposer de procédures pour signaler les contenus problématiques. Le DMA, quant à lui, vise à empêcher les abus de position dominante des grandes plateformes et impose des règles de transparence et d’interopérabilité. Ces deux règlements sont conçus pour être complémentaires : le DSA régule le contenu, alors que le DMA garantit une concurrence équitable.
Les sanctions pour non-conformité peuvent atteindre 7% du chiffre d’affaires mondial pour l’AI Act. Pour le DMA, elles peuvent aller jusqu’à 10%, voire 20% en cas de récidive. Le DSA prévoit des amendes pouvant atteindre 6% du chiffre d’affaires mondial. Cela démontre la détermination de l’UE à réguler ces secteurs de manière efficace et s’est traduit par de nombreuses sanctions à l’encontre des GAFAM. Cependant, l’UE fait face à des défis internes, notamment un retard par rapport aux États-Unis et à la Chine dans les infrastructures stratégiques telles que les datacenters et les supercalculateurs. À l’échelle internationale, l’UE cherche à renforcer sa position par des réglementations strictes. Elle souhaite réduire sa dépendance vis-à-vis des technologies américaines et intensifie le contrôle des géants du numérique par le biais de sanctions et d’obligations de transparence.
D. Afrique : défis d’inclusion et de souveraineté numérique face à la fragmentation des règles.
L’Afrique fait face à des défis majeurs en matière d’inclusion et de souveraineté numérique, malgré des avancées dans l’accès aux technologies dans plusieurs pays. Près de 14 % de la population n’a pas de couverture mobile. Par ailleurs, faute de datacenters suffisants, les données des Africains demeurent stockées en dehors du continent. Les règles et les stratégies demeurent aussi fragmentées, alors que la plupart des pays pris individuellement ont du mal à assurer leur transition numérique. Plusieurs pays font aussi face à des problèmes qui éclipsent les enjeux numériques, comme la sécurité, la mauvaise gouvernance et l’instabilité politique. Dans ce contexte, l’Union africaine cherche à harmoniser les réglementations et à promouvoir la libre circulation des données, notamment via des instruments tels que la Stratégie de transformation numérique pour l’Afrique 2020-2030 et la Convention de Malabo, qui encadrent la protection des données et le commerce électronique.
Les législations nationales, tout en visant la souveraineté des données, peuvent engendrer des tensions avec la libre circulation des données. Par exemple, le Nigéria impose des restrictions sur les flux de données pour stimuler son économie numérique, tandis que le Maroc, avec sa Loi n° 09-08, interdit le transfert de données en dehors du pays à moins que le pays destinataire n’offre un niveau de protection adéquat, ce qui complique cette circulation. Actuellement, près de 40 pays africains disposent de lois sur la protection des données, généralement inspirées du RGPD. Au sein des communautés économiques régionales, il existe plusieurs dispositions, comme la CEDEAO avec l’Acte additionnel de 2010, la CEEAC avec sa Loi type de 2013, la CEMAC avec sa direction de 2013 et la CAE avec sa cyberlégislation de 2008. Ces dispositions ont parfois incité les États membres à adopter des lois sur la protection des données (Koné, 28 octobre 2025). Néanmoins, pour que l’Afrique tire pleinement parti de son potentiel numérique, elle doit harmoniser les réglementations au sein du continent et garantir la souveraineté numérique ainsi que la circulation libre des données.
E. Le cadre multilatéral.
Le cadre multilatéral autour de la régulation des données et de l’IA est en pleine structuration, avec des organisations comme l’ONU et le Conseil de l’Europe qui œuvrent à établir des normes internationales. Le Conseil de l’Europe a récemment ouvert à la signature une Convention-cadre sur l’IA, qui aspire à garantir la compatibilité des systèmes d’intelligence artificielle avec les droits humains et l’État de droit. En outre, la Déclaration de Bletchley, signée par plus de 20 pays, dont les États-Unis, la Chine et l’UE, a marqué une reconnaissance collective des défis liés à l’IA et de la nécessité d’un développement sécurisé.
Dans ce contexte, l’UNESCO a fait preuve de proactivité en adoptant, en novembre 2021, la première recommandation mondiale sur l’éthique de l’intelligence artificielle. Cette recommandation énonce des principes clés tels que la transparence, l’équité et le respect des droits humains (UNESCO, 23 novembre 2021). Par ailleurs, le rapport de l’OCDE de 2025, intitulé « Gouverner avec l’intelligence artificielle », explore plusieurs cas d’utilisation de l’IA dans le secteur public. Il examine notamment son application dans des domaines tels que l’application de la loi et la lutte contre la corruption, et met en évidence les bénéfices, les défis et l’importance de principes éthiques pour garantir une utilisation fiable et digne de confiance de l’IA (OCDE, 2025).
Globalement, même s’il n’existe pas encore de cadre multilatéral unique et contraignant régissant l’IA, de nombreuses initiatives cherchent à favoriser la complémentarité. Les efforts conjoints des Nations Unies, de l’OCDE et des grandes puissances montrent la complexité de la gouvernance de l’IA. Ces efforts cherchent à réglementer sans entraver l’innovation. Cependant, les enjeux liés à la sécurité, à la puissance et aux intérêts nationaux rendent une gouvernance mondiale difficile à mettre en œuvre.
IV. L’intelligence artificielle : un champ de bataille juridique et politique.
A. Tensions entre les États-Unis et la Chine.
Les tensions entre les États-Unis et la Chine en matière d’IA et de régulation sont marquées par une rivalité géopolitique intense, souvent désignée comme une « guerre froide de l’IA ». Cette confrontation se manifeste par une compétition acharnée pour la domination technologique, où les deux nations voient l’IA comme un enjeu clé pour leurs puissances économique et militaire. Alors que les États-Unis sont en tête du développement de technologies avancées, comme les puces de pointe et les modèles de langage (ChatGPT, Claude, Gemini, Grok), la Chine ne cesse de progresser de manière considérable.
Pour contrer l’avancement chinois, les États-Unis ont instauré des contrôles d’exportation rigoureux sur les puces d’IA et les équipements de fabrication de semi-conducteurs, limitant par conséquent l’accès de la Chine à des technologies essentielles. En réponse, la Chine s’engage dans une offensive technologique ambitieuse, avec un investissement de 143 milliards de dollars dans son plan Made in China 2025 pour développer son autonomie en matière de semi-conducteurs (Wang, 2024). Malgré cela, elle accuse un retard notable, notamment avec SMIC, son premier fabricant, qui ne maîtrise pas encore la gravure de puces sous les sept nanomètres, alors que TSMC et Samsung produisent déjà des puces en trois nanomètres.
Ce contexte de rivalité géopolitique se traduit par des actions concrètes, comme les accusations d’espionnage envers Huawei. Les États-Unis reprochent à l’entreprise d’être utilisée par le gouvernement chinois pour des activités de surveillance, ce qui a conduit à sa mise sur liste noire en 2020. Cela a entraîné la perte d’accès aux technologies américaines pour Huawei, ce qui a impacté considérablement ses opérations globales, en particulier l’absence de services Google sur ses appareils. Le CHIPS Act, adopté en 2022, témoigne également de l’engagement des États-Unis à relocaliser la production de puces, avec un investissement de 52 milliards de dollars, alors que leur part de marché a chuté de 37% en 1990 à seulement 12% en 2022 (Major Prépa, 2025).
Plus récemment, l’affaire TikTok a révélé les préoccupations américaines concernant la sécurité des données. L’administration américaine craint que le gouvernement chinois n’exploite l’application pour collecter des informations sur les utilisateurs ou influencer l’opinion publique. En réponse, un projet de loi voté en avril 2024 exigeait que ByteDance, la société mère de TikTok, vende ses opérations en Amérique du Nord sous peine d’interdiction.
Ces tensions géopolitiques sont exacerbées par des approches réglementaires différentes dans le domaine de l’IA. Les États-Unis et la Chine s’affrontent pour établir les normes mondiales de gouvernance dans ce secteur. L’approche américaine met l’accent sur la domination nationale et favorise une régulation minimale pour stimuler l’innovation dans le secteur privé. En revanche, la Chine, tout en maintenant un contrôle strict et en utilisant l’IA pour la surveillance, promeut une gouvernance ouverte et aspire à créer un ordre international alternatif.
Cette « guerre des normes » montre la volonté des deux puissances d’exporter leur modèle de régulation à l’échelle mondiale et d’imposer leurs règles aux grandes entreprises technologiques. Par exemple, Google a quitté le marché chinois en 2010 à cause de la censure, mais sa victoire avec AlphaGo en 2017 a provoqué une réaction en Chine, qui a lancé des investissements massifs dans l’IA pour rattraper son retard technologique. En revanche, Tesla jouit d’une relation avantageuse avec le gouvernement chinois, ayant pu établir sa Gigafactory à Shanghai sans avoir à créer de coentreprise. Cette situation illustre une coopération ciblée dans des secteurs jugés stratégiques pour la Chine. Toutefois, dans cette guerre des normes, l’Europe se positionne clairement en termes de soft power numérique.
B. Tensions entre les États-Unis et l’Europe : régulation des géants du numérique.
Les relations entre les États-Unis et l’Union européenne sont tendues, notamment en matière de régulation des géants du numérique. L’UE met en place des réglementations comme le DSA et le DMA, tandis que la résistance politique américaine, qui juge ce cadre discriminatoire, s’intensifie. Ces tensions résultent de divergences d’approche réglementaire et d’enjeux de souveraineté économique. L’administration américaine perçoit les initiatives européennes comme des menaces pour l’innovation et la liberté d’expression.
En plus des nombreuses sanctions imposées aux GAFAM, l’UE a récemment infligé une amende de près de 3 milliards d’euros à Google pour abus de position dominante dans la publicité en ligne. En réponse, les multinationales américaines, soutenues par l’administration Trump, intensifient leurs efforts de lobbying pour assouplir les réglementations en vigueur. Leur objectif est de réduire la pression politique et d’améliorer la compétitivité de l’industrie technologique américaine, notamment par des dispositions favorisant l’accès aux nouvelles puces. Parallèlement, des initiatives telles que la proposition de taxer les GAFA à 3% ont été suspendues au profit d’un impôt mondial sur les multinationales.
Dans ce contexte, l’Union européenne, clé de voûte de la régulation de l’intelligence artificielle avec l’AI Act, envisage de reculer sous la pression des États-Unis et des géants américains du numérique. Cette décision, motivée par le besoin de stimuler l’économie numérique européenne, entraîne la suspension de certaines parties de la législation. L’Europe, représentant moins de 7% de la capitalisation numérique mondiale contre 70 % pour les États-Unis, semble reconnaître les entraves créées par une surréglementation ayant produit entre 20 et 25 directives en moins de dix ans (Dalmont, 2025). Cette démarche vise à alléger les contraintes sur les entreprises européennes pour leur permettre de rivaliser avec les acteurs américains et asiatiques, notamment en autorisant la surcapitalisation et les subventions publiques, pratiques interdites jusqu’alors.
En dépit de ces efforts pour simplifier la réglementation, l’Europe reste dépendante des technologies américaines. Le but est donc de favoriser les transferts de compétences et l’innovation, plutôt que de se concentrer sur une réglementation qui peut nuire à la compétitivité et entraîner le rachat des entreprises européennes par des groupes étrangers. L’exemple de Mistral AI, dont la capitalisation est inférieure au chiffre d’affaires d’OpenAI, illustre bien l’ampleur du défi.
C. Souveraineté numérique : tensions entre la territorialisation des données et l’extraterritorialité du droit.
Les défis relatifs à la souveraineté numérique sont centraux dans les tensions juridiques actuelles. Ils s’articulent autour de la territorialisation des données et de l’extraterritorialité du droit. La territorialisation implique que les données concernant les citoyens d’un pays soient collectées, traitées et stockées à l’intérieur de ses frontières. Cette approche vise à garantir un contrôle légal sur les données pour des raisons de sécurité nationale, de protection de la vie privée et de compétitivité économique. Toutefois, localiser physiquement les centres de données ne suffit pas à assurer la souveraineté numérique, car les entreprises opérant ces centres peuvent être soumises à des législations étrangères.
L’extraterritorialité du droit devient alors un enjeu majeur, à l’image des tensions entre le RGPD et le Cloud Act. Adopté en mars 2018, le Cloud Act permet aux autorités américaines d’exiger l’accès à des données détenues par des entreprises soumises à leur juridiction, indépendamment de l’endroit où ces données sont stockées. Ce conflit de juridiction crée une situation où une entreprise américaine pourrait être contrainte, par la loi américaine, de violer le RGPD pour répondre à une demande de données. Le RGPD, quant à lui, vise à protéger les données personnelles des citoyens européens en imposant des règles strictes pour leur collecte, traitement et transfert, limitant les transferts hors de l’UE sans garanties adéquates.
Cette situation pose un problème pour les entreprises européennes utilisant des prestataires de services cloud basés aux États-Unis. En se conformant au Cloud Act et en transmettant des données personnelles d’utilisateurs de l’UE, elles pourraient enfreindre le RGPD, qui interdit de tels transferts sans protections suffisantes. Les conséquences de cette non-conformité entraînent des sanctions financières substantielles prévues par le RGPD.
Ces configurations mettent en lumière les tensions inhérentes entre la volonté des États de maintenir la souveraineté sur les données et l’extraterritorialité des lois des puissances technologiques. La capacité des États-Unis à accéder aux données stockées sur des serveurs situés en Europe ou dans d’autres pays suscite des inquiétudes quant à la souveraineté des données.
D. Tensions entre innovation, régulation, liberté et sécurité.
Le développement de l’IA soulève des tensions entre innovation technologique, régulation indispensable, et impératifs de liberté et de sécurité. Trouver un équilibre délicat est essentiel pour exploiter les avantages de l’IA et limiter les risques associés.
D’une part, une régulation trop stricte, comme celle redoutée par certains concernant l’AI Act européen, pourrait freiner l’innovation, notamment celle des PME. Le secteur de l’IA évolue rapidement, tandis que le cadre juridique reste souvent en retard par rapport à l’innovation technologique, en particulier dans les domaines numériques, qui progressent de manière exponentielle selon les lois de Moore et de Metcalfe. Par ailleurs, les régulations visant à lutter contre les pratiques anticoncurrentielles, telles que le DMA, ne doivent pas conduire à un démantèlement contreproductif des champions nationaux.
D’autre part, l’absence d’un cadre juridique adéquat crée des risques importants, notamment les biais algorithmiques et la discrimination, ainsi que des préoccupations liées à la responsabilité des acteurs concernés. L’utilisation croissante de l’IA pour la surveillance déclenche également des inquiétudes concernant les droits individuels et la vie privée. Par exemple, l’intégration d’outils d’identification biométrique peut conduire à des pratiques de contrôle social préoccupantes, ce qui compromet les libertés fondamentales.
De plus, la régulation des services numériques, avec des dispositions comme le DSA, qui vise à lutter contre les contenus illicites tels que les deepfakes et la désinformation, doit être attentive à ne pas porter atteinte à la liberté d’expression. Ainsi, la régulation des données et de l’IA nécessite une vigilance particulière pour concilier innovation et respect des libertés individuelles.
Conclusion.
La régulation de l’intelligence artificielle constitue un enjeu majeur dans la construction d’un nouvel ordre numérique mondial. D’une part, les États-Unis, la Chine et l’Union européenne développent des approches réglementaires divergentes qui reflètent leurs intérêts stratégiques ainsi que leurs conceptions de la souveraineté et de la puissance numérique. D’autre part, la nature anarchique de l’espace numérique et les défis posés par les technologies émergentes compliquent l’établissement d’un cadre juridique cohérent et harmonisé à l’échelle internationale.
Face à ces tendances contradictoires, il est difficile de déterminer si la régulation de l’IA tend vers un ordre ou un désordre numérique mondial. D’un côté, les efforts de normalisation internationale, tels que les initiatives de l’UNESCO et de l’OCDE, témoignent d’une volonté de gouvernance mondiale. De l’autre, la fragmentation des règles, les rivalités géopolitiques et les dilemmes entre régulation, innovation, libertés et sécurité entravent l’émergence d’un ordre numérique stable et cohérent. L’avenir semble s’orienter vers une forme de « désordre ordonné », où la coexistence de cadres réglementaires hétérogènes et la compétition entre puissances façonneront un paysage juridique complexe et évolutif. Toutefois, quelle sera l’influence des pays du Sud, notamment africains, dans la construction de ce nouvel ordre numérique mondial, alors qu’ils font face à des défis d’inclusion et de souveraineté numérique ?
Bibliographie.
- Barlow, John Perry. « Déclaration d’indépendance du cyberespace ». La Revue des Ressources, 8 février 1996 [1]
- Beibei, Z. (2024, 9 février). « Réglementation des données - Chine ». DS-Avocats-global [2]
- Bureau of Justice Assistance. (2025). The Foreign Intelligence Surveillance Act of 1978 (FISA) [3]
- Cattaruzza, Amaël. Géopolitique des données numériques : Pouvoir et conflits à l’heure du Big Data. Le Cavalier Bleu, 2019.
- Dalmont, C. (2025, 8 novembre). « IA · L’Europe cède à la Big Tech, allège sa réglementation et c’est une bonne nouvelle » [4]
- Eurojust. (2022). The CLOUD Act [5]
- Koné, A. (2024). Géopolitique du cyberespace : Big data et intelligence artificielle comme instruments de puissance. Thèse de doctorat. Zenodo [6]
- Koné, A. (2025, 28 octobre). L’approche panafricaine des données et de l’intelligence artificielle : défis juridiques et stratégiques d’une quête de souveraineté numérique
- Lee Kai-Fu (2018). AI Superpowers : China, Silicon Valley and the New World Order. Houghton Mifflin Harcourt, 2018.
- Loi sur la cybersécurité chinoise. 1er juin 2017.
- Major Prépa. (2025, 19 septembre). « La guerre des puces : géopolitique des microprocesseurs » [7]
- OCDE (2023). Global Trends in Government Innovation 2023, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris [8]
- OCDE. (2025). Gouverner avec l’intelligence artificielle : État des lieux et perspectives pour les fonctions essentielles de l’État. Dans OCDE [9]
- Réglementation provisoire sur la gestion de l’intelligence artificielle générative (Chine). (2023) [10]
- Thibout, Charles. « L’intelligence artificielle, un instrument de puissance pour la Chine ». La Revue des Médias, 18 décembre 2018 [11]
- Union européenne. (2016). Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, abrogeant la directive 95/46/CE.
- USA PATRIOT Act. 26 octobre 2001. Sections 201 vs 202.
- Wang, A. (2024, 28 décembre). « 2025 Made in China » a atteint la plupart de ses objectifs. Conflits Revue de Géopolitique [12]


