L’Union européenne se trouve à un moment clé de son histoire numérique. Confrontée à l’essor des données numériques et de l’intelligence artificielle, elle s’attache à définir sa souveraineté numérique. Cette souveraineté repose sur le stockage des données dans des datacenters nationaux et sur le cadre réglementaire qui les gouverne. La régulation devient un outil essentiel pour protéger la vie privée des citoyens et garantir un cadre éthique pour l’utilisation des technologies émergentes.
Les défis sont nombreux. La collecte, le stockage, l’échange et le traitement à grande échelle des données soulèvent des enjeux majeurs en matière de sécurité, de confidentialité et de souveraineté. Ces données, utilisées par l’IA pour prendre des décisions, suscitent des questions éthiques. Face à ces enjeux, l’UE a choisi une approche axée sur le respect des droits individuels, la protection des données personnelles, ainsi que sur la concurrence, la transparence et la responsabilité des entreprises. Néanmoins, elle doit faire face à la rivalité des États-Unis et de la Chine, qui exploitent le potentiel des données à une échelle qui met à l’épreuve les efforts européens de régulation. Dans ce contexte, l’UE cherche à établir un cadre juridique solide pour affirmer sa souveraineté numérique.
Ainsi, la question se pose : comment l’Union européenne utilise-t-elle le droit pour garantir sa souveraineté numérique face aux défis posés par les données numériques et l’intelligence artificielle ?
I. Les enjeux de la souveraineté numérique en Europe
L’Europe fait face à des défis majeurs en matière de souveraineté numérique, affichant un retard dans le domaine numérique. En 2017, les investissements européens en IA s’élevaient à seulement 4 milliards d’euros, contre 23 milliards en Amérique du Nord et 12 milliards en Asie. Ce manque de financement a conduit à la perte d’entreprises majeures telles que DeepMind et Kuka, rachetées par des géants comme Google et Midea (Boniface, 2021, p. 99-100). En réponse à ces défis, l’UE a mis en place des initiatives telles que le plan d’action pour l’IA et a annoncé un investissement stratégique de 1,3 milliard d’euros pour la période 2025-2027. Cet investissement se concentre sur le développement de l’IA générative, l’acquisition de compétences numériques de pointe et la lutte contre les fausses informations, dans le cadre du programme Europe Numérique qui mobilisera au total 7,5 milliards d’euros entre 2021 et 2027. Cependant, le défi demeure d’accroître ces efforts pour réduire la dépendance vis-à-vis des acteurs non européens, dont plus de 85 % des modèles de base proviennent des États-Unis (Aivancity, 2025).
Pour garantir sa souveraineté numérique, l’Europe doit également renforcer ses infrastructures de stockage et de traitement des données, notamment les datacenters et les supercalculateurs. Actuellement, l’UE ne représente que 4 % de la capacité mondiale de calcul pour l’IA, avec une estimation de 0,25 GW en 2023, par rapport aux 83 GW des États-Unis. Pour atteindre une parité correspondant à son poids économique, l’Europe devra investir entre 600 et 850 milliards d’euros d’ici 2030 (Doan, Levy, & Storchan, 2025). Néanmoins, les coûts d’installation et les procédures administratives complexes, qui peuvent dépasser cinq ans pour mettre en service un datacenter, freinent cette transformation et mettent en lumière la nécessité d’une approche plus proactive.
En outre, la souveraineté numérique européenne est menacée par le contrôle américain sur la majorité des infrastructures de câbles sous-marins, qui transportent la plupart des données mondiales. Près de 70 % de ces infrastructures appartiennent à des sociétés américaines, ce qui limite la capacité de l’UE à sécuriser ses flux de données et à garantir la confidentialité (Denis, 2025). La réglementation européenne, lente et complexe, complique davantage la situation, alors que les tensions géopolitiques et la concurrence pour le contrôle des routes numériques s’exacerbent.
Dans ce contexte, l’Union européenne, à défaut d’être pour le moment un géant technologique, se positionne comme un géant de la régulation. Elle utilise le droit pour exercer une pression sur les géants du numérique attirés par son marché.
II. Transfert transatlantique de données : défis de conformité au RGPD et au Data Privacy Framework.
La gouvernance des transferts de données entre l’Europe et les États-Unis a été marquée par une série d’évolutions réglementaires, souvent en réaction à des préoccupations croissantes concernant la protection des données personnelles. L’accord Safe Harbor, signé en 2000, a initialement offert un cadre permettant aux entreprises américaines certifiées d’importer des données européennes. Cependant, la révélation des pratiques de surveillance des agences américaines, notamment par le programme d’espionnage de la NSA révélé par Snowden, a conduit la Cour de justice de l’Union européenne à invalider cet accord en 2015 (Monteleone & Puccio, 2017). En réponse, le Privacy Shield a été instauré en 2016, mais ce cadre a également été annulé en juillet 2020, en raison des mêmes préoccupations liées à la protection des données des citoyens européens. Cette situation a mis en évidence la nécessité d’un cadre juridique plus robuste, soutenue par des contestations d’acteurs tels que Max Schrems, qui a dénoncé l’inefficacité des protections existantes.
Pour faire face à ces défis, l’Union européenne a établi le Règlement général sur la protection des données (RGPD) en 2018, qui impose des normes rigoureuses pour la collecte, le traitement et le transfert des données personnelles. Ce règlement s’applique non seulement aux entreprises européennes, mais également à celles basées en dehors de l’Europe qui traitent des données de citoyens de l’UE (principe d’extraterritorialité). Le RGPD renforce les droits des individus en matière de protection des données, notamment en établissant le droit à l’information, le droit d’accès, le droit de rectification, le droit à l’effacement (droit à l’oubli) et le droit à la portabilité des données. Il impose également le principe de minimisation des données, qui dispose que seules les données nécessaires à la finalité poursuivie doivent être collectées, ainsi que le principe de limitation de la conservation, qui exige que les données ne soient pas conservées plus longtemps que nécessaire (The European Parliament & The Council of the European Union, 2016). Les responsables du traitement et les sous-traitants doivent en outre établir des mesures de sécurité appropriées pour protéger les données personnelles.
Le RGPD a également institué le Comité européen de protection des données (EDPB), garantissant de ce fait une surveillance uniforme dans l’ensemble des États membres et permettant d’imposer des sanctions pouvant atteindre 4 % du chiffre d’affaires mondial, en cas de non-conformité (The European Parliament & The Council of the European Union, 2016). De plus, la Commission européenne a introduit de nouvelles clauses contractuelles types (CCT) en 2021 pour faciliter les échanges tout en garantissant la protection des données. Cependant, ces protections restent menacées par des législations comme le Cloud Act de 2018, qui permet aux autorités américaines d’accéder aux données, même lorsqu’elles sont stockées à l’étranger.
Pour renforcer le cadre des transferts de données, l’UE a également mis en place, en juin 2023, le Data Privacy Framework (DPF), pour remplacer le Privacy Shield. Ce cadre réglemente le transfert de données personnelles de l’UE vers les États-Unis et vise à garantir une protection adéquate des données, similaire à celle prévue par le RGPD. Le DPF facilite les transferts vers les entreprises américaines certifiées par le département du Commerce des États-Unis. Il introduit des garanties, comme des restrictions sur l’accès des services de renseignement américains et un mécanisme de recours pour les citoyens européens dont les données auraient été traitées de manière illicite (European Data Protection Board, 2023). Toutefois, malgré ces améliorations, le DPF est critiqué. Il pourrait être invalidé à l’avenir à cause de sa dépendance à un ordre exécutif présidentiel et des doutes sur l’indépendance de ses organes de recours (Marin, 20 juillet 2023).
Au-delà des enjeux liés au transfert de données avec les États-Unis, l’UE a adopté le Data Governance Act (DGA) en novembre 2022 pour réglementer la réutilisation des données publiques et favoriser un partage altruiste au sein de l’Union. Ce règlement crée un cadre juridique pour un partage et une réutilisation sécurisés des données, en établissant des règles spécifiques pour leur protection. Il vise à renforcer la confiance dans l’échange de données grâce à des mécanismes tels que les intermédiaires de données, qui assurent la neutralité et la sécurité du partage. Le DGA promeut également le partage volontaire de données à des fins d’intérêt général, sans compensation, dans le but de stimuler l’économie des données en Europe (Commission européenne, 25 janvier 2024).
Ces cadres cherchent à renforcer l’autonomie stratégique de l’UE face aux défis réglementaires et à promouvoir la confiance dans les flux de données à l’échelle internationale. Cependant, le chemin à parcourir reste difficile, surtout pour les petites et moyennes entreprises, qui doivent lutter pour rester conformes aux exigences complexes du RGPD et d’autres régulations.
III. Régulation des services et des marchés numériques : Digital Services Act et Digital Markets Act.
Le besoin de réguler les services et les marchés numériques en Europe s’est traduit par l’adoption du Digital Services Act (DSA) et du Digital Markets Act (DMA). Présentées en décembre 2020 par Thierry Breton et Margrethe Vestager, ces deux propositions législatives visent à encadrer l’activité des grandes plateformes numériques, qui comptent plus de 44 millions d’utilisateurs. Le DSA vise à rendre Internet plus sûr en imposant aux plateformes numériques de lutter contre les contenus illicites, tels que la haine en ligne et le cyberharcèlement, en les retirant rapidement. Ce règlement exige également des obligations de transparence sur le fonctionnement des algorithmes et la gestion de la désinformation. Les grandes entreprises doivent désigner un représentant légal dans l’UE et faciliter le signalement des contenus problématiques. De plus, le DSA renforce les droits des utilisateurs en leur offrant davantage de contrôle sur le contenu qu’ils voient et des recours en cas de retrait abusif de leurs publications. (Parlement européen et Conseil de l’Union européenne, 19 octobre 2022). Par ces mesures, le DSA aspire à restaurer la confiance des utilisateurs dans les plateformes numériques.
Simultanément, le DMA cible spécifiquement les GAFAM et d’autres entreprises dominantes, connues sous le nom de « gatekeepers » (contrôleurs d’accès). L’objectif principal de cette législation est de rétablir la concurrence sur le marché numérique en proscrivant des pratiques monopolistiques telles que l’autoréférencement et l’utilisation des données des vendeurs à des fins concurrentielles. Ce règlement impose des règles strictes aux gatekeepers, définis par un chiffre d’affaires annuel d’au moins 7,5 milliards d’euros en Europe et plus de 45 millions d’utilisateurs actifs par mois. Ces entreprises doivent se conformer à diverses obligations, telles que l’interdiction de favoriser leurs propres services, permettre la désinstallation facile des applications préinstallées, offrir le choix d’un logiciel par défaut différent et garantir l’interopérabilité des services. De plus, elles ne peuvent pas croiser des données personnelles entre différents services sans consentement explicite et doivent permettre aux utilisateurs de se désabonner aussi facilement qu’ils se sont abonnés (The European Parliament and the Council of the European Union, 14 septembre 2022). L’ensemble de ces mesures vise à renforcer le choix des consommateurs et à créer un écosystème numérique plus équitable.
Ces deux réformes représentent un tournant pour la régulation des services numériques en Europe. Le DSA a été officiellement adopté le 19 octobre 2022, avec une mise en œuvre échelonnée, commençant par la publication d’une liste de 17 très grandes plateformes et de 2 grands moteurs de recherche le 25 avril 2023, portée à 22 en décembre 2023. Chaque État membre peut définir des sanctions basées sur le chiffre d’affaires des entreprises, avec un maximum fixé à 6 % en cas de non-conformité. Le DMA, quant à lui, est entré en vigueur le 2 mai 2023. Il impose des amendes pouvant atteindre 10 % du chiffre d’affaires mondial et jusqu’à 20 % en cas de récidive (Lellouche, 2024).
L’application de ces lois a déjà eu des impacts tangibles sur les pratiques des grandes entreprises. Par exemple, Google a modifié ses algorithmes de recherche pour éviter des promotions de services spécifiques, et il ne peut plus favoriser ses propres produits dans les résultats de recherche, comme pour Google Flights. Depuis 2024, des entreprises comme Microsoft et Apple ont dû revoir leurs offres pour respecter les nouvelles réglementations du DMA et du DSA. Apple a adopté le port USB-C pour l’iPhone 15 et a permis l’utilisation de stores d’applications alternatifs sur iOS. Microsoft, quant à lui, a ajusté Windows pour permettre la désinstallation de services tels que Edge et OneDrive.
Les GAFAM ont notamment mis en place des outils pour signaler facilement des contenus illicites, garantissant un retrait rapide par les plateformes. Par ailleurs, le croisement des données entre services sans consentement explicite des utilisateurs est désormais interdit. Les services de messagerie, tels que WhatsApp et Messenger, devront également être interopérables avec d’autres applications concurrentes pour favoriser la communication entre utilisateurs. Ces ajustements révèlent une transformation notable des pratiques des grandes entreprises pour se conformer à ces nouvelles régulations.
IV. Régulation de l’intelligence artificielle : cadre juridique de l’Artificial Intelligence Act.
Le 21 avril 2021, l’Union européenne a proposé l’Artificial Intelligence Act (AI Act) pour réguler l’utilisation de l’intelligence artificielle. Ce cadre réglementaire s’applique aux déployeurs et fournisseurs d’IA, tant en Europe qu’à l’étranger, et définit quatre niveaux de risque : inacceptable, élevé, limité et minimal. Les systèmes à risque inacceptable, tels que la reconnaissance biométrique, l’analyse des émotions et les techniques de manipulation inconsciente, sont interdits. Ceux à risque élevé, comme les applications utilisées dans les infrastructures critiques, l’éducation et la justice, doivent respecter des exigences strictes, telles que des évaluations de risque et une supervision humaine. Les systèmes à risque limité, incluant les chatbots et les deepfakes, doivent garantir une transparence pour que les utilisateurs sachent qu’ils interagissent avec une IA. En revanche, les applications à risque minimal, comme les jeux vidéo et les filtres anti-spam, ne sont pas spécifiquement réglementées. En cas de non-conformité, des amendes pouvant atteindre 7 % du chiffre d’affaires mondial peuvent s’appliquer (Commission européenne, 26 février 2024).
Un accord politique sur l’AI Act a été atteint le 9 décembre 2023 et confirmé par les 27 États membres de l’UE le 2 février 2024. Cette législation, mise en lumière par l’émergence de ChatGPT, vise à garantir la sécurité des systèmes d’IA, protéger les droits fondamentaux et promouvoir une IA digne de confiance, centrée sur l’humain. En février 2024, l’Office européen de l’IA a été créé pour superviser l’application de cette loi. Cet office a pour mission d’assurer la conformité aux principes éthiques tout en stimulant l’innovation et l’investissement dans le domaine de l’IA dans l’UE.
V. Enjeux et évolutions du régime fiscal au sein de l’Union européenne.
Pour garantir sa souveraineté numérique, l’UE impose aussi d’énormes sanctions et amendes aux grandes entreprises technologiques qui profitent de son marché numérique sans se conformer à ses règles. La Commission européenne peut utiliser l’article 116 du Traité sur le Fonctionnement de l’Union Européenne (TFUE) pour traiter les distorsions de concurrence sur le marché unique et sanctionner les pratiques fiscales conflictuelles entre États membres (TFUE, 2012). Dans le même ordre d’idées, l’initiative de la taxe GAFA, fixée à 3 % du chiffre d’affaires pour les entreprises réalisant plus de 750 millions d’euros de revenus, visait à contrer l’évasion fiscale des géants du numérique, avec des recettes annuelles estimées à 5 milliards d’euros (Daniel & Lequeux, 18 janvier 2022). Toutefois, le consensus des 27 États membres n’a pas été atteint, certains pays craignant des représailles américaines, alors que d’autres préconisaient une solution mondiale via l’OCDE.
Face aux oppositions, y compris du gouvernement américain, l’UE a suspendu le projet de taxe GAFA en juillet 2021. Pour favoriser un impôt mondial sur les multinationales, l’OCDE a proposé une réforme fiscale qui, approuvée en octobre 2021, établit un taux d’imposition minimum de 15 % pour les multinationales à partir de 2023. Cette réforme vise à remplacer les taxes numériques en vigueur dans certains États membres et devrait générer des recettes fiscales mondiales de 150 milliards de dollars par an.
L’impôt mondial est effectivement entré en vigueur dans l’Union européenne le 1ᵉʳ janvier 2024, imposant un taux minimum de 15 % sur les bénéfices des multinationales, quel que soit le lieu où elles déclarent leurs profits. Cette réforme, approuvée par 140 pays, a pour but d’éliminer les pratiques d’optimisation fiscale, afin de permettre aux pays d’origine des multinationales de compenser la différence lorsque celles-ci paient moins de 15 % dans d’autres pays. Même si les États-Unis et la Chine sont signataires de l’accord, ils ne l’ont pas encore ratifié, tandis que les pays de l’UE ont suivi les lignes directrices établies (Lequeux, 2024).
L’optimisation fiscale demeure un défi majeur pour l’UE. Elle sape à la fois ses recettes fiscales et l’équité de son marché intérieur. Les multinationales, par l’utilisation de structures complexes, exploitent les disparités fiscales entre les États membres pour réduire leur charge d’imposition. Pour résoudre ce problème, l’Union ambitionne de renforcer la transparence fiscale et de promouvoir des normes communes afin de limiter les pratiques d’optimisation fiscale préjudiciable.
VI. Les mesures de sanctions des autorités européennes à l’encontre des géants du numérique.
Dans ses différentes actions pour appliquer ses diverses législations, en particulier le RGPD, le DSA et le DMA, l’UE a imposé de nombreuses sanctions aux GAFAM pour promouvoir la protection des données personnelles, la transparence et la concurrence. Parmi les amendes notables, Google a été sanctionné à plusieurs reprises. Il a reçu une amende de 2,42 milliards d’euros en 2017 pour abus de position dominante lié à Google Shopping (AFP, Tv5Monde, 24 décembre 2021). En juin 2018, Google a été condamné à une amende record de 4,34 milliards d’euros pour pratiques anticoncurrentielles avec Android (Turcan, 18 juillet 2018). L’année suivante, une amende de 1,49 milliard d’euros a été infligée à Google pour abus de position dans la publicité numérique via AdSense (AFP, 20 mars 2019). En 2019, l’entreprise a également réglé un litige fiscal de près d’un milliard d’euros en France (Parisien, 22 avril 2020). En 2021, elle a été condamnée à une amende de 500 millions d’euros pour non-respect des droits voisins du droit d’auteur concernant le contenu des éditeurs de presse (Ubertalli, 13 juillet 2021). En outre, une sanction de 325 millions d’euros a été infligée en septembre 2023 par la CNIL pour violations des règles sur les données personnelles. En 2025, Google a de nouveau été sanctionné de 2,95 milliards d’euros pour abus de position dominante dans la publicité en ligne, malgré les menaces de Donald Trump contre cette décision (Le Monde Avec AFP, 2025).
Apple a également été dans le viseur de l’UE. En 2016, la Commission européenne a exigé le remboursement de 13 milliards d’euros d’impôts non payés en Irlande en raison d’accords fiscaux contestables (European Commission, 30 août 2016). Cependant, cette décision a été annulée en 2020 par la Cour de justice de l’UE, qui a estimé que la Commission n’avait pas prouvé la nature sélective des avantages fiscaux. En 2020, une enquête a été ouverte sur l’éventuelle violation des règles de concurrence par l’App Store.
Facebook, quant à lui, a fait face à diverses sanctions. En 2017, une amende de 110 millions d’euros a été infligée pour avoir fourni des informations trompeuses lors de l’acquisition de WhatsApp (European Commission, 18 mai 2017). En 2018, le Royaume-Uni a également sanctionné l’entreprise de 500 000 euros pour violations de la protection des données en lien avec le scandale de Cambridge Analytica (Waterson, 15 octobre 2018). En 2019, une décision allemande a empêché Facebook de fusionner les données de différentes plateformes sans le consentement des utilisateurs.
Pour Amazon, l’UE a imposé une sanction en 2017 pour des pratiques fiscales illégales liées à un régime fiscal avantageux au Luxembourg, considéré comme une aide d’État illégale (European Commission, 7 octobre 2017). En 2018, des pratiques anticoncurrentielles concernant les vendeurs tiers ont été mises en exergue, entraînant des modifications des clauses contractuelles d’Amazon (Höppner, 1 décembre 2020).
Enfin, Microsoft a été sanctionné pour abus de position dominante avec une amende de 497 millions d’euros en 2004 (European Commission, 17 juillet 2012). Cette sanction a été suivie d’une amende de 561 millions d’euros en 2013 pour non-respect des engagements relatifs au choix de navigateur.
Ces sanctions illustrent l’engagement de l’UE à réguler les géants du numérique et renforcer sa souveraineté numérique. Les réglementations européennes envers les GAFAM soulèvent néanmoins des questions centrales tant sur le plan juridique que politique.
Les enjeux juridiques ne se limitent pas à l’application des amendes. Les GAFAM chercheront à contourner ces réglementations par des stratégies de lobbying politique, exerçant une influence sur les décideurs à l’échelle régionale et nationale. Cela mettrait à l’épreuve la capacité de l’UE à maintenir son indépendance et son intégrité face à des intérêts commerciaux puissants. Les décisions judiciaires, comme celle de la Cour de justice de l’UE qui a annulé l’amende imposée à Apple, montrent aussi la complexité de l’équilibre entre réglementation et droit des entreprises.
Sur le plan politique, la situation est tout aussi délicate. Les sanctions contre les géants américains consistent non seulement à réduire leur domination sur le marché européen, mais aussi à établir la souveraineté numérique de l’UE. En s’attaquant à ces géants technologiques, l’Europe cherche à protéger ses consommateurs et ses entreprises, ainsi qu’à redéfinir les règles du jeu économique pour renforcer sa position sur la scène mondiale face à des acteurs puissants. Les tensions avec les États-Unis, notamment sur la fiscalité et la régulation des données, pourraient s’intensifier. L’UE doit évoluer dans un paysage international où la coopération est nécessaire, mais où les intérêts nationaux prévalent généralement. De plus, la rapidité des évolutions technologiques exige une agilité législative pour éviter une réglementation excessive qui freinerait l’innovation.
Conclusion.
L’Union européenne se trouve à un carrefour dans le renforcement de sa souveraineté numérique, confrontée aux défis des données numériques et de l’intelligence artificielle. Même si l’UE a pris des mesures considérables pour établir un cadre juridique robuste, elle doit faire face à des réalités préoccupantes, notamment un retard d’investissement par rapport à ses concurrents américains et chinois, ainsi qu’une dépendance persistante à des infrastructures étrangères. La migration des talents vers les États-Unis illustre encore davantage l’urgence de revitaliser l’innovation sur le continent et de préserver des normes de protection des consommateurs à la fois rigoureuses et adaptées aux nouveaux enjeux numériques.
Les initiatives législatives telles que le RGPD, le DSA, le DMA, le Data Governance Act et l’AI Act tracent un chemin vers une régulation harmonisée qui contribue à créer un environnement numérique à la fois sûr et compétitif. Toutefois, l’Europe parviendra-t-elle à allier innovation et régulation pour se positionner en tant que leader dans la course à l’intelligence artificielle ?
Bibliographie
- AFP, Tv5Monde. (2021, 24 décembre). « Union européenne : amende record pour le géant Google ». TV5MONDE [1] ;
- AFP. (2019, 20 mars). « L’UE inflige 1,49 milliard d’euros d’amende à Google pour abus de position dominante ». FashionNetwork.com [2]
- Aivancity. (2025, 20 mai). Souveraineté numérique : l’Europe investit dans l’Intelligence Artificielle générative. Aivancity Blog [3].
- Boniface, P. (2021). Géopolitique de l’intelligence artificielle : Comment la révolution numérique va bouleverser nos sociétés. Eyrolles.
- Commission européenne. (2024, 25 janvier). Data Governance Act explained. Shaping Europe’s Digital Future [4].
- Commission européenne. (2024, 26 février). Loi sur l’IA. Bâtir l’avenir numérique de L’Europe [5].
- Daniel, J., & Lequeux, V. (2022, 18 janvier). « Qu’est-ce que la taxe Gafa ? » Touteleurope.eu [6].
- Denis, P. (2025, 7 mars). Les Gafam, nouveaux maîtres des routes maritimes. WARM [7].
- Doan, R., Levy, A., & Storchan, V. (2025). « Financer les infrastructures pour une IA européenne compétitive ». Groupe d’études géopolitiques.
- European Commission. (2012, 17 juillet). Abus de position dominante : la Commission ouvre une procédure à l’encontre de Microsoft.
- European Commission. (2016, 30 août). State aid : Ireland gave illegal tax benefits to Apple worth up to €13 billions.
- European Commission. (2017, 18 mai). Concentrations : la Commission inflige des amendes à Facebook.
- European Commission. (2017, 7 octobre). « State aid : Commission finds Luxembourg gave illegal tax benefits to Amazon worth around €250 million ».
- European Data Protection Board. (2023, février). « Le comité européen de la protection des données se félicite des améliorations apportées au cadre de protection des données UE-États-Unis, mais des préoccupations subsistent » [8].
- Höppner, T. (2020, 1 décembre). « The EU’s competition investigation into Amazon Marketplace ». Kluwer Competition Law Blog [9].
- Le Monde Avec AFP. (2025, 5 septembre). « L’Union européenne inflige près de 3 milliards d’euros d’amende à Google ». Le Monde.fr [10].
- Lellouche, N. (2024, 23 octobre). « Tout comprendre au DMA, la loi européenne pour réguler Apple, Google et Meta ». Numerama [11].
- Lequeux, V. (2024, 1 février). « Qu’est-ce que l’impôt mondial sur les multinationales ? » Touteleurope.eu [12].
- Lequeux, V. (2024, 19 janvier). « Numérique : que sont le DMA et le DSA ? » Touteleurope.eu [13].
- Monteleone, S., & Puccio, L. (2017). Du « Safe Harbour » au « Privacy Shield ». Avancées et insuffisances des nouvelles règles de transfert des données UE-États-Unis. EPRS Service de recherche du Parlement européen.
- Parisien, Le. (2020, 22 avril). « Google va verser près d’un milliard d’euros pour solder ses contentieux avec l’État français ». Le Parisien [14].
- The European Parliament and the Council of the European Union. (2022, 19 octobre). Digital Services Act. Official Journal of the European Union.
- The European Parliament and the Council of the European Union. (2022, 14 septembre). Digital Markets Act. Official Journal of the European Union.
- Traité sur le fonctionnement de l’Union européenne (Version Consolidée). (2012, 26 octobre). Journal Officiel de l’Union européenne.
- Turcan, M. (2018, 18 juillet). « Google condamné à une amende de 4,34 milliards d’euros : que lui reproche la Commission européenne ? » Numerama [15].
- Ubertalli, O. (2021, 13 juillet). Droits voisins : Google écope d’une amende record de 500 millions d’euros. Le Point [16].
- Waterson, J. (2018, 25 octobre). « UK fines Facebook £500,000 for failing to protect user data ». The Guardian [17].


