L’intelligence artificielle transforme profondément la société. Elle engendre à la fois enthousiasme et inquiétudes. Cette technologie, qui reproduit les capacités humaines d’apprentissage, de perception, de communication, de compréhension et de création, repose sur la convergence de données massives, de puissantes capacités de calcul et d’algorithmes avancés. L’IA se manifeste à travers diverses applications, notamment les systèmes de recommandation (Netflix, Amazon), les jeux vidéo (Deep Blue, AlphaGo), les véhicules autonomes (Tesla, Waymo), les assistants virtuels (Siri, Alexa), le diagnostic médical assisté, la traduction automatique (Google Translate), ainsi que la génération de contenu avec l’IA générative (ChatGPT, Gemini). De plus, elle joue un rôle important dans la logistique, la détection de fraude et les moteurs de recherche. Toutefois, malgré ses progrès, l’IA reste limitée. Même l’IA générative, capable de reproduire plusieurs tâches, est spécialisée dans le traitement du langage naturel. Par ailleurs, l’IA, dans son état actuel, n’éprouve pas d’émotions, de conscience ou d’expérience subjective. Elle peut cependant simuler des comportements ou des réponses émotionnelles, mais cela reste une imitation fondée sur des algorithmes et non une véritable compréhension ou ressenti.
Ainsi, l’IA prend des décisions dans de nombreux domaines. Par conséquent, son éthique devient un enjeu primordial. L’éthique, comprise comme le discours sur le bien et le mal, les valeurs et les principes moraux, s’interroge sur ce qui est acceptable ou non dans le développement et l’utilisation de cette technologie. Cette réflexion soulève la question de la conciliation entre l’innovation technologique et la nécessité d’une régulation adaptée, fondée sur des principes clés tels que la protection des données personnelles, le respect des droits humains, l’équité, la transparence et la responsabilité.
Cependant, la conception et la régulation de l’IA sont influencées par des systèmes de valeurs et des perspectives variées, notamment aux États-Unis (innovation, liberté), en Europe (régulation, vie privée) et en Chine (sécurité, contrôle). Ces divergences constituent un défi majeur pour la gouvernance mondiale de l’IA. Dès lors, comment concilier le développement de l’IA avec les impératifs éthiques, juridiques et sociaux ?
I. L’intelligence artificielle exploite les données.
L’IA est intrinsèquement liée à l’exploitation des données, qu’elles soient personnelles, protégées par le droit d’auteur ou annotées. Cette utilisation massive est à l’origine de questions centrales : comment équilibrer la conception de l’IA avec le respect de la vie privée et des droits individuels ? Comment gérer les enjeux liés à l’utilisation des œuvres protégées ? Quelles sont les conditions de travail des annotateurs de données ? Et enfin, comment maîtriser l’impact environnemental de la puissance de calcul nécessaire à son fonctionnement ?
A. L’exploitation des données personnelles : enjeux de consentement, de vie privée et de sécurité.
L’IA repose principalement sur l’exploitation de données, ce qui engendre des questions éthiques et juridiques centrales, particulièrement en ce qui concerne les données personnelles. L’utilisation de l’IA pour traiter ces données est encadrée par des réglementations comme le Règlement Général sur la Protection des Données (RGPD). Ce dernier impose des principes fondamentaux, notamment le consentement éclairé, le droit à l’oubli, la minimisation des données et la limitation de leur conservation. Les entreprises doivent ainsi garantir la protection des informations personnelles tout en respectant les droits des individus, y compris le droit d’accès, de rectification et d’effacement des données [1].
La sécurité des données constitue un défi majeur à l’ère de l’IA. D’une part, cette technologie est utilisée pour renforcer la cybersécurité, notamment en détectant des menaces et en automatisant la gestion des incidents. D’autre part, elle peut être exploitée par des acteurs malveillants pour mener des attaques sophistiquées, telles que la création de deepfakes, le phishing personnalisé ou l’empoisonnement de données, rendant les cybermenaces plus accessibles et difficiles à repérer. Les vulnérabilités des systèmes d’IA, les fuites de données et leur utilisation à des fins malveillantes soulignent la nécessité d’adopter des mesures de sécurité renforcées. Des solutions comme la vérification de la fiabilité des données d’entraînement, la surveillance des accès, la gestion automatique des incidents et la sensibilisation des utilisateurs sont essentielles.
B. L’utilisation des données protégées : enjeu du droit d’auteur.
Outre les données personnelles, l’IA exploite également des données protégées par le droit d’auteur. Les œuvres originales de l’esprit bénéficient d’une protection, généralement d’une durée de 70 ans. Les législations, notamment le Copyright Act de 1976 aux États-Unis et le principe d’originalité en Europe, exige une intervention humaine consciente et créative pour accorder cette protection. Cela pose des questions complexes concernant les œuvres générées par l’IA. La contribution humaine substantielle est souvent requise pour déterminer la titularité des droits.
L’entraînement des modèles d’IA sur des œuvres protégées suscite des enjeux importants. Dans certains cas, comme le Text and Data Mining (TDM), qui désigne l’analyse de textes et de données à des fins de recherche, l’utilisation de ces œuvres est autorisée. Cette pratique permet aux chercheurs d’extraire des informations et de découvrir de nouvelles connaissances à partir de vastes ensembles de données. De plus, la jurisprudence américaine, en particulier la doctrine de l’usage équitable, autorise l’utilisation d’œuvres protégées dans le cadre de transformations radicales et d’innovations. Cependant, le problème des contenus piratés reste un défi majeur, car il complique la distinction entre l’utilisation légitime et les abus.
L’affaire entre la société Anthropic et trois auteurs, Andrea Bartz, Charles Graeber et Kirk Wallace Johnson, illustre ces enjeux. Le juge William Alsup, du Tribunal fédéral de San Francisco, a rendu une décision sur l’utilisation des œuvres protégées pour entraîner l’IA Claude. Entre 2021 et 2023, Anthropic a téléchargé plus de 7 millions de livres piratés. Le jugement du 19 août 2024 a clarifié que si l’intégration de livres légalement acquis relevait de l’usage équitable, la création d’une bibliothèque interne à partir d’œuvres piratées ne pouvait pas l’être. En conséquence, un procès a été programmé pour décembre 2025 afin de déterminer la responsabilité d’Anthropic sur cette question. Finalement, Anthropic a choisi de régler le litige pour 1,5 milliard de dollars [2].
Cette affaire, qui a profité d’une reconnaissance du fair use (usage équitable), met en lumière la nécessité d’une réévaluation des normes actuelles régissant la propriété intellectuelle à l’ère de l’IA. De plus, la possibilité de reconnaître la personnalité juridique de l’IA pourrait également impacter la manière dont le droit d’auteur est appliqué.
C. L’exploitation des données étiquetées : enjeu des conditions de travail des annotateurs.
L’annotation des données, essentielle pour le développement de l’IA, consiste à attribuer des étiquettes qui servent à l’apprentissage supervisé et à la validation, en ajoutant une couche sémantique aux données comme les images, les vidéos ou les textes. Ce processus peut être réalisé par des humains ou parfois de manière automatisée et inclut des données personnelles, où le respect du RGPD est crucial, notamment pour garantir la minimisation et l’exactitude des informations [3]. La qualité, la traçabilité et la transparence doivent être assurées par des protocoles d’annotation clairs ainsi qu’une supervision par un comité éthique, avec une attention particulière à éviter les stéréotypes et les discriminations. Les informations relatives à l’objectif de l’annotation et aux droits des individus doivent être communiquées de manière transparente, garantissant l’accès, la rectification, l’effacement et la portabilité des données.
L’annotation des données mobilise de nombreux travailleurs. Chaque année, le marché de l’annotation de données en Afrique génère près de 250 millions de dollars américains. Cependant, le soutien aux annotateurs reste insuffisant, ce qui accentue leur vulnérabilité et leur précarité. La rémunération de ce travail demeure cependant dérisoire, variant entre 0,01 et 0,25 USD par tâche, pour des journées pouvant dépasser 20 heures [4]. De nombreux annotateurs rencontrent des problèmes de santé mentale et physique liés à l’absence de soutien face à des contenus difficiles. Les témoignages d’annotateurs kenyans révèlent cette situation préoccupante. Les réglementations actuelles en matière d’IA n’abordent pas toujours le sort de ces travailleurs. L’AI Act, par exemple, néglige les conditions de travail des annotateurs, laissant des lacunes dans la logistique de l’IA. Des normes éthiques et des protections spécifiques doivent être établies pour garantir leur bien-être et leur reconnaissance professionnelle.
D. La nécessité d’énormes puissances de calcul pour exploiter les données : enjeu de l’impact carbone des datacenters.
L’intelligence artificielle nécessite d’importantes capacités de calcul pour exploiter le big data (données massives), ce qui entraîne des conséquences environnementales notables. En 2024, les centres de données, à l’exclusion de ceux dédiés au minage de cryptomonnaies, ont consommé environ 415 TWh d’électricité, soit l’équivalent de la consommation électrique de la France. L’essor des applications d’IA générative a considérablement augmenté la consommation énergétique des datacenters. Bien que des progrès aient été réalisés en matière d’efficacité énergétique, le Power Usage Effectiveness (PUE) est resté stable à environ 1,6. Cette situation suscite de vives inquiétudes quant à l’impact de l’IA sur les marchés européens de l’électricité. Actuellement, les systèmes d’IA représentent près de 20% de la consommation totale d’énergie des datacenters, une proportion qui pourrait grimper à 49% d’ici la fin de l’année (Richard, 2025).
Pour atténuer l’impact environnemental, plusieurs stratégies s’imposent. La conception de modèles plus efficaces et l’adoption d’énergies renouvelables se révèlent essentielles. Le « Climate Neutral Data Centre Pact » fixe un objectif de PUE de 1,3 à 1,4 pour les nouveaux centres d’ici fin 2025 [5]. Toutefois, des entreprises comme Microsoft et Google, tout en reconnaissant l’augmentation des émissions de carbone liées à l’IA, manquent de clarté concernant la distinction entre les différentes charges de travail. Des études, comme celle d’Alex de Vries-Gao, mettent en avant la consommation élevée d’énergie des matériels spécifiques à l’IA, tels que les GPU, dont la durée de vie varie de 1 à 3 ans. Ainsi, une approche responsable de l’IA s’impose pour respecter les engagements environnementaux et garantir une transition énergétique durable.
II. L’intelligence artificielle amplifie le pouvoir numérique et pose des défis démocratiques.
L’IA reconfigure le pouvoir numérique, défini comme la capacité d’un acteur à exercer son influence dans l’espace numérique sans avoir à se déplacer physiquement. L’accroissement du pouvoir de l’élite numérique se manifeste par des enjeux tels que les monopoles, la manipulation de l’opinion publique et le lobbying politique. De plus, l’augmentation du pouvoir individuel s’accompagne de défis comme la désinformation et la diffusion de deepfakes. Ces évolutions soulèvent des défis majeurs pour la démocratie.
A. Le pouvoir numérique de l’élite : enjeux de monopole, de manipulation de l’opinion et de lobbying politique.
Le pouvoir numérique, dans le contexte de l’IA, se manifeste de deux manières distinctes, mais interconnectées. Le pouvoir de l’élite numérique, d’abord, se définit par la capacité de contrôler l’information et les infrastructures technologiques qui la diffusent. Cette concentration de pouvoir est intrinsèquement liée aux monopoles des géants de la technologie (GAFAM, BATX, etc.), qui dominent les marchés et services numériques, notamment grâce à la publicité numérique et au contrôle des plateformes, des données et des datacenters. Cette concentration de pouvoir est préoccupante pour la démocratie, car elle permet à ces entreprises d’influencer les politiques publiques, d’imposer leurs règles, de manipuler l’opinion et de nuire à la concurrence.
La régulation des marchés numériques (DMA) vise à contrer ces pratiques anticoncurrentielles, à garantir l’accès aux données et à promouvoir l’interopérabilité. Son objectif principal est de favoriser un marché numérique plus équitable et de stimuler l’innovation [6]. Cependant, la mise en œuvre de telles régulations se heurte à une résistance importante, notamment à travers le lobbying politique.
L’essor de l’IA a entraîné une intensification du lobbying. Les chiffres sont éloquents. En 2023, les entreprises ont dépensé environ 957 millions de dollars en lobbying sur l’IA, ce qui équivaut à une augmentation de 185% par rapport à 2022 (Field, 2024).
Ce phénomène concerne non seulement les géants de la technologie, mais aussi un large éventail d’acteurs, comme les compagnies d’assurances, les sociétés pharmaceutiques et les sociétés de télécommunications. Cette mobilisation massive vise à influencer les réglementations et à façonner les normes d’IA en faveur de leurs intérêts.
La manipulation de l’opinion publique constitue une autre facette du pouvoir de l’élite numérique. L’affaire Cambridge Analytica a révélé l’ampleur des manipulations possibles via l’utilisation abusive des données personnelles de millions d’utilisateurs de Facebook pour créer des profils psychologiques. Cette stratégie a permis de cibler des messages politiques spécifiques, influençant ainsi les comportements électoraux lors des élections présidentielles américaines de 2016 et du référendum sur le Brexit. Ces pratiques soulignent une menace sérieuse pour la démocratie, car elles exploitent les vulnérabilités des électeurs et compromettent l’intégrité des processus démocratiques. Les plateformes numériques, tout en offrant des espaces de communication, peuvent également servir d’outils de propagande et de désinformation.
B. Le pouvoir numérique de l’individu : enjeux de désinformation et de deepfake.
Le pouvoir numérique de l’individu, quant à lui, réside dans la capacité à exploiter les possibilités offertes par les outils de communication en ligne. L’IA a décuplé ce pouvoir, notamment en facilitant l’accès à l’information et la création de contenus. Cependant, cette démocratisation de l’information s’accompagne de risques majeurs, notamment la désinformation et la diffusion de deepfakes.
La désinformation, amplifiée par l’IA générative, constitue un défi majeur. La création de contenus crédibles, personnalisés et de haute qualité devient de plus en plus accessible, rendant difficile la distinction entre le vrai et le faux. L’usage de deepfakes lors du conflit en Ukraine en 2022, où des vidéos trompeuses ont circulé pour diffuser de fausses informations, ou encore les deepfakes qui inondent actuellement YouTube, illustrent comment ces outils peuvent servir des stratégies de propagande et de désinformation.
La régulation des services numériques, notamment par le biais du DSA, vise à lutter contre ces contenus illicites et à renforcer la transparence et la modération [7]. Cependant, la lutte contre la désinformation est un défi complexe qui nécessite une approche multidimensionnelle. Elle passe par la sensibilisation, l’éducation à la littératie médiatique et la responsabilisation collective. La capacité à développer un esprit critique et à se prémunir contre la manipulation est capitale pour préserver l’intégrité de l’information.
III. L’intelligence artificielle prend des décisions autonomes.
L’autonomie décisionnelle de l’IA soulève d’importantes problématiques liées à la transparence, aux biais algorithmiques et à la responsabilité. L’anthropomorphisation, ou l’attribution de caractéristiques humaines aux machines, est accentuée par des interfaces intuitives et performantes qui ont profité de plusieurs décennies de progrès technologiques. Ces interfaces, en rendant l’interaction homme-machine plus ergonomique et accessible, contribuent à humaniser les systèmes d’IA, en particulier avec les modèles de langage (LLM).
La capacité de ces outils polyvalents à désintermédier l’effort intellectuel permet même à des utilisateurs sans compétences particulières de rédiger, analyser ou créer du contenu artistique, renforçant par conséquent leur attrait. Toutefois, cette facilité d’accès entraîne aussi des risques de confiance excessive et de manipulation, particulièrement avec les IA génératives. Ainsi, la transparence sur la nature artificielle de ces systèmes et l’éducation des utilisateurs sur les biais potentiels sont nécessaires afin de favoriser une utilisation éclairée et responsable de l’IA.
A. La transparence.
La transparence est essentielle pour garantir la confiance et la compréhension des décisions prises par l’intelligence artificielle. Cependant, la nature de « boîte noire » de nombreux modèles d’IA, comme les réseaux neuronaux profonds, complique cette transparence. En effet, le fonctionnement interne de ces systèmes est parfois obscur, ce qui rend difficile la compréhension des mécanismes par lesquels ils prennent des décisions à partir des données traitées. Pour remédier à ces enjeux, des techniques d’explicabilité de l’IA (XAI) sont mises en œuvre, offrant des mécanismes d’ajustement en cas d’erreurs. Ces méthodes garantissent la traçabilité et l’explicabilité des décisions, essentielles pour la conformité à l’AI Act et à d’autres réglementations.
L’IA explicable repose sur la précision, la traçabilité et la compréhension des décisions. Elle s’appuie sur des techniques telles que LIME [8] pour évaluer la précision des prédictions et DeepLIFT pour relier les activations neuronales à leur origine. L’intégration de ces méthodes dans le cycle de vie des modèles est essentielle pour améliorer l’évaluation continue, minimiser les biais, garantir la conformité réglementaire et renforcer la confiance dans des secteurs critiques comme la santé, les services financiers et la justice pénale [9].
Par ailleurs, pour assurer une transparence efficace, il est également important de réaliser des audits internes et externes, ainsi que d’adopter les exigences imposées par l’AI Act, qui requiert une explication du fonctionnement des algorithmes par les fabricants, notamment pour les systèmes à risque élevé et limité [10]. Ces mesurent renforcent la responsabilité des acteurs numériques et permettent aux utilisateurs de mieux contrôler leur expérience.
B. Les biais algorithmiques.
Les biais algorithmiques constituent un enjeu majeur dans le développement de l’intelligence artificielle. Ils résultent principalement de données d’entraînement biaisées et des choix humains effectués lors de la conception des algorithmes. Ces biais peuvent se traduire par des applications préjudiciables, telles qu’une reconnaissance faciale moins précise pour certains groupes, des décisions biaisées dans le recrutement ou des évaluations erronées dans la justice prédictive. Par exemple, un algorithme de reconnaissance faciale, entraîné sur des visages majoritairement blancs, peut avoir des performances inégales chez des personnes d’autres origines. De même, des biais d’autorenforcement peuvent enfermer les utilisateurs dans des bulles de filtre et limiter leur exposition à des points de vue variés.
Pour atténuer les biais algorithmiques, une approche multidimensionnelle est nécessaire. Il s’agit d’assurer la diversité des données d’entraînement pour qu’elles soient représentatives de l’ensemble de la population, de réaliser des audits réguliers des algorithmes et de promouvoir la transparence ainsi que l’explicabilité des processus algorithmiques. En outre, la diversité au sein des équipes de développement peut atténuer les biais cognitifs et promouvoir des conceptions plus inclusives. Un réentraînement régulier des modèles avec des données équilibrées permet aussi de corriger les biais détectés.
Cependant, ces approches visant à corriger les biais présentent des limites, notamment le risque que l’IA se déconnecte de la réalité sociale. Ces biais, souvent enracinés dans des valeurs culturelles incompatibles avec des normes éthiques, soulèvent des dilemmes lorsque des principes moraux entrent en conflit. Par exemple, dans le domaine médical, une IA peut devoir choisir entre sauver un seul patient ou préserver plusieurs vies, engendrant des questions éthiques sur la hiérarchisation des valeurs. De plus, dans le contexte de la surveillance, la protection de la vie privée peut s’opposer à la sécurité publique, créant ainsi une antinomie difficile à résoudre. Par conséquent, les efforts pour réduire les biais de l’IA doivent s’accompagner d’une réflexion critique sur les contextes et les valeurs impliquées, car aucune solution n’est simple ou universelle.
C. La responsabilité.
L’attribution de la responsabilité civile pour les dommages causés par l’IA pose des enjeux juridiques complexes. Un point central est la définition du « gardien », c’est-à-dire la personne qui exerce l’usage, la direction et le contrôle d’une chose. Lorsque l’IA, considérée comme une chose, cause un dommage, la responsabilité peut revenir au concepteur, à l’opérateur ou à l’utilisateur. Par exemple, si un médecin utilise un logiciel défectueux pour poser un diagnostic et que cela entraîne des complications pour un patient, plusieurs parties peuvent être tenues responsables : le concepteur, si un défaut de conception a été identifié, le médecin, s’il n’a pas vérifié les recommandations de l’IA ou s’il les a mal interprétées, et l’établissement médical, s’il a déployé le système sans fournir une formation adéquate à son personnel.
Des cas concrets, tels que ceux des affaires impliquant Tesla et ChatGPT, montrent également les enjeux de responsabilité liés à l’IA. En août 2025, Tesla a été reconnu partiellement responsable d’un accident mortel survenu lorsque le conducteur, après avoir activé le mode Autopilot, a perdu le contrôle du véhicule en cherchant son téléphone. Cette affaire a mis en lumière les responsabilités partagées entre le constructeur et l’utilisateur. Le tribunal a souligné que, malgré les systèmes avancés d’assistance à la conduite intégrés par Tesla, le conducteur avait aussi la responsabilité de veiller à l’utilisation sécurisée de ces fonctionnalités [11].
En même temps, l’affaire ChatGPT a vu les parents d’un adolescent poursuivre OpenAI, affirmant que le système avait encouragé leur fils à se suicider en fournissant des instructions détaillées. Cette affaire a provoqué des préoccupations éthiques sur la responsabilité des développeurs d’IA. En réponse à cette situation, OpenAI a mis en œuvre des mesures pour réduire ces risques, telles que des fonctionnalités de contrôle parental et l’interruption automatique des discussions sur l’automutilation ou le suicide [12].
Ces deux affaires soulignent les enjeux juridiques associés à la responsabilité de l’IA et mettent en évidence l’importance d’un cadre législatif adapté. L’AI Act tente de clarifier les responsabilités des concepteurs, des opérateurs et des utilisateurs dans l’utilisation de l’IA. Bien qu’il promeuve une responsabilité partagée, il doit également aborder les défis spécifiques liés aux systèmes autonomes, qui compliquent la détermination du gardien.
IV. L’Intelligence artificielle et ses applications sensibles.
L’intelligence artificielle, grâce à ses capacités d’automatisation, de prise de décision et de prédiction, s’immisce dans des domaines sensibles, ce qui provoque d’importantes questions éthiques liées à la transparence, aux biais algorithmiques et à la responsabilité. Ces applications requièrent une attention particulière en raison des risques inhérents qu’elles comportent.
A. Systèmes d’armes autonomes : déshumanisation et droit international humanitaire.
L’intégration de l’IA dans les systèmes d’armes, notamment à travers les systèmes d’armes autonomes (SAA), suscite des préoccupations majeures liées à la déshumanisation de la guerre et au respect du droit international humanitaire (DIH).
Ces systèmes, tels que les drones Harop et Harpy, le fusil de sentinelle Super aEgis II, et le missile guidé Brimstone, sont capables de sélectionner et d’engager des cibles sans intervention humaine nécessaire. La principale crainte réside dans la possibilité que des décisions de vie ou de mort soient prises par des machines, sans jugement humain, ce qui pourrait conduire à des erreurs et à des violations du DIH.
Les biais algorithmiques, résultant de la qualité des données d’apprentissage ou de la conception initiale des modèles, peuvent entraîner des erreurs graves, comme le ciblage erroné de civils ou de non-combattants, ce qui met en cause le respect du droit international humanitaire. La responsabilité en cas d’erreur ou de dommage devient également complexe, impliquant les concepteurs, les opérateurs et potentiellement l’État détenteur de l’arme. La question centrale demeure celle de savoir si l’on peut ou doit moralement déléguer la vie ou la mort à une machine.
L’interdiction des armes létales autonomes, comme le préconise le droit international humanitaire, est importante pour prévenir une course à l’armement et les dangers de décisions prises sans contrôle humain.
B. Justice prédictive : biais algorithmiques et discrimination.
L’IA est de plus en plus utilisée dans le domaine de la justice, notamment à travers la justice prédictive. Des plateformes comme « Predictice » et « Case Law Analytics » en France aident à évaluer les chances de succès d’un dossier, tandis que « Mahakim » au Maroc contribue à alléger la charge de travail des magistrats. L’automatisation de tâches telles que la transcription, l’analyse prédictive et la gestion administrative vise à améliorer l’efficacité du système judiciaire, qui est actuellement très lent.
Cependant, l’utilisation de l’IA dans ce contexte engendre des enjeux éthiques importants, notamment les biais algorithmiques et la discrimination. L’outil « Compas », utilisé aux États-Unis pour évaluer le risque de récidive des détenus, a révélé des biais raciaux. Il tend à surévaluer le risque chez les détenus noirs tout en sous-estimant celui des individus blancs, ce qui peut renforcer les discriminations existantes [13]. Ces biais, involontaires mais enracinés dans la conception algorithmique, posent la question de leur impact sur la justice, en particulier lorsque ces scores influencent directement les décisions de détention ou de libération, sans contrôle suffisant ni transparence sur leur mode de fonctionnement. La responsabilité en cas d’erreur, qu’elle incombe aux juges, aux développeurs ou aux institutions, doit être clairement définie.
C. Surveillance et reconnaissance faciale : atteintes aux libertés individuelles.
Les technologies de surveillance et de reconnaissance faciale, basées sur l’intelligence artificielle, soulèvent d’importantes préoccupations pour les libertés individuelles et la vie privée. Utilisées dans des contextes comme le système de crédit social en Chine, qui attribue des scores aux citoyens en fonction de leur comportement, elles illustrent les risques de la surveillance de masse. En parallèle, ces technologies peuvent renforcer la sécurité, par exemple en détectant des menaces ou en surveillant des foules, mais leur utilisation doit être soigneusement régulée pour éviter des abus de pouvoir et garantir le respect des droits civils.
En Chine, le Parti communiste a mis en place une surveillance numérique très stricte, permettant un contrôle accru des activités en ligne des citoyens [14]. Ce dispositif a été renforcé par l’introduction d’un nouveau système d’identité numérique en juillet 2025. Bien que présenté comme une protection contre les fuites de données, il pourrait intensifier la surveillance des opinions des citoyens [15].
Des systèmes similaires émergent dans d’autres pays, rendant importantes des régulations comme l’AI Act, qui cherchent à équilibrer sécurité et protection des libertés fondamentales. Les préoccupations concernant la discrimination due aux biais des algorithmes de reconnaissance faciale, qui analysent des images pour en extraire des caractéristiques avant de les comparer à des bases de données, exigent une réflexion sur la transparence technologique. Même si la surveillance numérique peut renforcer la sécurité publique, elle soulève des interrogations sur ses impacts sur la vie privée et la surveillance de masse. L’usage abusif de ces technologies doit donc être prévenu pour garantir que l’innovation ne compromette pas les droits fondamentaux.
D. Automatisation des emplois : inégalités et reconversion.
L’IA a un impact majeur sur le marché du travail, en particulier par l’automatisation des emplois. Ce phénomène engendre des préoccupations concernant la suppression potentielle de nombreux postes dans les secteurs traditionnels. Shumpeter évoque le concept de « destruction créatrice », selon lequel l’innovation technologique entraîne la disparition de certains emplois tout en en créant d’autres. Toutefois, des mesures doivent être prises pour atténuer les conséquences de cette transition.
L’impact de l’IA sur l’emploi se décline en quatre catégories. Les professions vulnérables, telles que les traders, caissiers, livreurs, agents de réservation, traducteurs, opérateurs de saisie et téléconseillers, sont particulièrement menacées. En revanche, les professions adaptables, incluant journalistes, médecins, comptables, magistrats et enseignants, devront évoluer avec l’intégration des outils d’IA, bien que leur demande puisse diminuer à court terme en raison de l’automatisation. D’autre part, les professions résilientes, telles que les psychologues, chefs cuisiniers et travailleurs sociaux, requièrent des compétences humaines spécifiques qui les préservent davantage de l’automatisation. Enfin, de nouveaux métiers en IA et cybersécurité, comme ingénieurs en IA, éthiciens et scientifiques des données, émergent avec des compétences techniques avancées, même si l’évolution rapide de la puissance des algorithmes peut réduire la demande pour certaines de ces expertises [16].
La désintermédiation des professions intellectuelles et la précarisation de certains secteurs soulignent la nécessité de mesures d’adaptation et de formation. Des politiques publiques de soutien à la reconversion, le développement de secteurs créateurs d’emplois liés à l’IA et la réflexion sur des solutions telles que le revenu universel sont indispensables pour atténuer les conséquences sociales de l’automatisation.
E. Recrutement et gestion des ressources humaines : biais et discrimination.
L’IA est de plus en plus présente dans le recrutement et la gestion des ressources humaines. Elle promet d’améliorer l’efficacité des processus, mais son utilisation soulève des préoccupations éthiques, notamment en matière de biais et de discrimination. Les algorithmes peuvent reproduire des préjugés existants, entraînant des décisions injustes concernant l’embauche, la promotion et même la rémunération. Pour garantir un recrutement équitable, il est important que les données soient impartiales et que les algorithmes soient transparents et supervisés.
L’IA permet d’automatiser des tâches répétitives et de sélectionner des candidats de manière plus efficace. Les entreprises doivent toutefois veiller à respecter la confidentialité des données personnelles et à prévenir les inégalités salariales. Il est essentiel d’impliquer les employés à travers l’information et la formation pour réduire leurs appréhensions face à ces changements.
F. Recherche scientifique : intégrité et transparence.
L’intelligence artificielle transforme la recherche scientifique en facilitant l’analyse de données, mais elle provoque aussi des enjeux éthiques majeurs. Les risques de plagiat et de biais dans les résultats doivent être pris en compte. Avec des systèmes automatisés capables de générer du contenu, la notion de plagiat devient floue. Même si certains voient cela comme une façon d’alléger le travail d’écriture, d’autres s’inquiètent de la qualité de l’information et de la crédibilité des études. Des faux articles scientifiques rédigés par des algorithmes ont déjà trompé des processus d’évaluation par les pairs [17].
La distinction entre un texte original et celui produit par une IA devient de plus en plus difficile à établir. Les règlements académiques actuels ne couvrent pas adéquatement cette ambiguïté. Cette situation rend essentielle l’adaptation des règles pour inclure des outils de détection comme GPTzero, qui évaluent la complexité et la variabilité des phrases. En effet, les enseignants se trouvent souvent mal équipés pour identifier l’utilisation de l’IA, ce qui pourrait engendrer des fraudes volontaires ou involontaires de la part des étudiants, alimentées par des pressions variées, comme la négligence, le manque de temps ou de motivation. Les étudiants doivent faire preuve de transparence concernant l’utilisation de l’IA et préciser de quelle manière elle a été intégrée dans leur travail.
Malgré ces défis, l’IA offre aussi des opportunités dans le domaine éducatif, telles que l’automatisation des évaluations et l’accompagnement pédagogique. Elle constitue un soutien précieux dans les premières étapes de l’écriture, mais cela suscite la question de savoir si l’élève apprend réellement. Il est essentiel d’encourager une réflexion critique chez les étudiants pour s’assurer qu’ils ne dépendent pas uniquement des outils d’IA, mais qu’ils développent leurs compétences et prennent conscience des dangers du plagiat [18]. Le monde de l’éducation doit rapidement aborder ces questions pour s’adapter à la réalité technologique actuelle.
Conclusion.
La gouvernance de l’intelligence artificielle nécessite une approche équilibrée qui concilie innovation et régulation. Cette technologie soulève plusieurs défis, dont l’exploitation des données personnelles et de la propriété intellectuelle, les conséquences environnementales, ainsi que les enjeux démocratiques et de responsabilité. Ses applications sensibles, telles que les systèmes d’armes autonomes, la justice prédictive et la surveillance de masse, exigent une vigilance accrue.
Pour répondre à ces enjeux, il est possible d’adopter une conception responsable et éthique de l’IA dès sa phase de conception. Cela implique l’intégration de principes éthiques tels que la transparence, l’équité et la non-discrimination dans le développement des systèmes. Les approches participatives, incluant des consultations publiques et une gouvernance multi-acteurs, sont essentielles. De plus, la formation et la littératie numérique de tous les acteurs, des décideurs au grand public, sont indispensables pour une utilisation critique et responsable de l’IA.
La question se pose également de savoir comment naviguer dans un système international fragmenté, où les intérêts nationaux prédominent et où les systèmes de valeurs divergent. La recherche d’une gouvernance mondiale de l’intelligence artificielle apparaît à la fois souhaitable et nécessaire. Cependant, cela soulève des défis pragmatiques : comment établir des normes communes lorsque les priorités et les philosophies éthiques des différentes nations divergent tant ?
Les perspectives futures de l’IA, notamment l’émergence éventuelle de l’IA forte, capable d’atteindre la conscience et l’autonomie, ainsi que la singularité envisagée par Ray Kurzweil pour 2045, point de bascule où l’IA surpasserait l’intelligence humaine, pourraient accentuer les enjeux éthiques. Ainsi, comment préparer la société à une coexistence avec une IA qui non seulement apprend, s’adapte et prend des décisions, mais pourrait un jour penser par elle-même ?
Bibliographie.
- Abd-Elaal, E.-S., Gamage, S. H. P. W., et Mills, J. E. (2022). Assisting academics to identify computer generated writing. European Journal of Engineering Education, 47(5), 725‑745 [19]
- Beaudouin, V. et Maxwell, W. (2023). La prédiction du risque en justice pénale aux états-unis : l’affaire propublica-compas L’éthique de l’IA en action. Réseaux, 240(4), 71-109 [20]
- Benoit, M. (2025, 19 septembre). Verdict historique à Miami : Tesla condamné à verser 243 millions de dollars après un accident mortel. ActuIA [21]
- Climate Neural Datacenter. (2025). Climate Neutral Data Centre Pact - The Green Deal need Green Infrastructure [22]
- CNIL. (2025, 22 juillet). IA : Annoter les données [23]
- Commission européenne. (2024, 26 février). Loi sur l’IA. Bâtir l’avenir numérique de L’Europe [24]
- Field, H. (2024). AI lobbying spikes 185% as call for regulations surge. Dans The Alakska State Legislature [25]
- IBM. (2025). Qu’est-ce que l’IA explicable (XAI) ? [26]
- Katika, K. (2019, mars). Contrôle social 4.0 ? Le système chinois de crédit social. Revue Nouvelle [27]
- Koné Abdoulaye, & Khalid Hermani. (2025). L’intelligence artificielle et l’internet des objets : Moteurs de transformation de l’économie et du travail. African Scientific Journal, 3(28), 370 [28]
- Piquard, A. (2025, 3 septembre). ChatGPT annonce un contrôle parental après un suicide d’adolescent. Le Monde.fr. [29]
- Richard, P. (2025, 7 juillet). L’impact énergétique croissant des datacenters et de l’IA. Techniques de L’Ingénieur [30]
- Rojas, D. (2025, 16 octobre). Derrière l’IA générative, une main-d’œuvre invisible et précaire. Le Devoir [31]
- Roy, N., & Lepage, A. (2023). L’intelligence artificielle (IA) et le plagiat. Formation et profession, 31(1), 1 [32]
- Séramour, C. (2025, 8 septembre). Droits d’auteur : Anthropic met fin à un procès en payant 1,5 milliard de dollars. L’Usinedigital [33]
- The European Parliament and the Council of the European Union. (2022, 19 octobre). Digital Services Act. Official Journal of the European Union [34]
- The European Parliament and the Council of the European Union. (2022, 14 septembre). Digital Markets Act. Official Journal of the European Union [35]
- Thibault, H. (2025, 17 juillet). En Chine, une nouvelle identité numérique pour contrôler encore plus les activités en ligne des citoyens Le Monde.fr [36].



Discussion en cours :
Ce limiter a l’IA c’est comme pour la RGPD avoir une guerre et dix ans de retard.
Les juristes devraient réfléchir a l’écart entre temps du réel et temps de formulation de la loi en période de rupture technologique