Depuis 2018, le développement accéléré des outils d’intelligence artificielle générative (comme ChatGPT, DALL·E ou Midjourney) a complexifié la lutte contre la désinformation. Ces technologies permettent la création automatisée de contenus textuels, visuels ou audiovisuels très réalistes, y compris de "deepfakes", rendant plus difficile la détection des contenus manipulés. Ce contexte technologique a conduit les institutions françaises et européennes à actualiser leurs approches législatives.
La ministre de la Culture de l’époque, Françoise Nyssen, a affirmé que le texte de cette proposition visait à « mieux faire respecter les règles existantes en les adaptant aux nouvelles réalités caractérisées par le poids croissant des réseaux sociaux, la viralité de l’information et le développement du sponsoring » durant la période électorale.
Toutefois, cette proposition de loi pose de nombreuses difficultés sur la scène juridique et demeure extrêmement controversée. Effectivement, son application se heurte à de nombreux obstacles juridiques nationaux et internationaux relatifs aux principes de la liberté d’expression, de la règlementation des données personnelles mais également en ce qui concerne la protection des détournements de suffrages.
Les dispositions les plus inédites de la proposition de loi sont sans doute les nouvelles obligations pour les plateformes numériques de fournir une information loyale, claire et transparente sur l’identité et la qualité de l’utilisateur auteur de la publication ainsi que de rendre public les rémunérations des auteurs selon certains seuils.
On notera également le profond contraste qui s’opère entre la proposition de loi sur les fake news visant à renforcer la transparence des sources d’informations et le RGPD relatif à la protection des données personnelles en vigueur depuis le 25 mai 2018.
Ce contraste s’accentue aujourd’hui avec l’entrée en application du Règlement sur les services numériques (DSA), entré en vigueur en février 2024. Le DSA impose aux très grandes plateformes en ligne une obligation de transparence algorithmique, de traçabilité des publicités et de lutte proactive contre les contenus illicites, y compris les fausses informations créées ou diffusées par l’IA. [2]
Cela va rappeler que durant les dernières élections présidentielles, de nombreuses "fake news" relatives à des rumeurs au sujet d’Emmanuel Macron, alors simple candidat présidentiel, ont initié sa volonté politique de condamner plus fermement le détournement d’information.
Par ailleurs, le récent scandale lié à l’affaire du détournement de suffrage du Cambridge Analytica a conforté le désir de contrôler juridiquement la profusion de fausses informations.
Plus récemment, lors des élections européennes de 2024, plusieurs États membres ont signalé des campagnes de désinformation automatisée alimentées par des intelligences artificielles capables de simuler des comptes crédibles, produire des articles ou commentaires trompeurs, ou manipuler des vidéos à des fins politiques. Ces évolutions ont ravivé les débats autour de la régulation algorithmique et de la responsabilité des plateformes.
La définition de « fausse information » se définirait comme « toute allégation ou imputation d’un fait dépourvue d’éléments vérifiables de nature à la rendre vraisemblable ».
Ce que la proposition de loi nous apprend, c’est que la vérifiabilité d’un élément sera donc appréciée de manière discrétionnaire par le juge des référés.
Or, dans un contexte où des IA génératives peuvent produire à la demande des textes crédibles mais entièrement fictifs, la notion même d’"élément vérifiable" devient plus difficile à cerner. Certains chercheurs et juristes plaident pour l’intégration de standards de transparence algorithmique afin de mieux qualifier l’origine des contenus numériques.
Or, ce délai peut paraître très court pour avoir le temps de contrôler la vérifiabilité d’une information. En effet, certains éléments peuvent demander plusieurs jours, voire plusieurs semaines, pour être jugés comme étant une information dépourvue d’éléments vérifiables.
Hormis la difficulté liée à ce délai, une difficulté politique pose également problème. Face à une définition de « fausse nouvelle » lacunaire, le juge des référés se voit offrir une grande liberté d’appréciation pour considérer s’il s’agit ou non d’une allégation ou d’une imputation d’un fait dépourvue d’éléments vérifiables. Est-ce au juge des référés que revient le rôle d’apprécier la véracité d’une information en période électorale ?
Certains ne le pensent pas. Vincent Charmoillaux, secrétaire national du Syndicat de Magistrature, a par ailleurs dénoncé que « cela va faire du juge l’arbitre du débat politique, sur des critères particulièrement flous ».
Des solutions technologiques dites "AI-aided fact-checking" ont vu le jour, comme des outils d’analyse automatique des contenus en ligne. Toutefois, leur efficacité reste limitée en période de forte activité politique, notamment face aux contenus multimodaux générés par IA.
Les nouveaux pouvoirs attribués au CSA.
Le CSA, de son côté, se voit investi de nouvelles compétences telles que la possibilité d’adresser aux opérateurs de plateformes des recommandations visant à améliorer la lutte contre la diffusion de telles informations.
Depuis 2022, le CSA a été intégré dans l’Autorité de régulation de la communication audiovisuelle et numérique (ARCOM). L’ARCOM est aujourd’hui chargée de la régulation des contenus audiovisuels et numériques, et a vu ses compétences renforcées pour collaborer avec les plateformes sur la modération des contenus IA générés et la lutte contre la manipulation de l’information [3].
Par ailleurs, il convient de souligner que ces nouvelles obligations s’opposent à la nature même des plateformes numériques.
Avec l’essor des IA génératives, de nouvelles obligations de "watermarking" (marquage numérique des contenus générés par IA) sont envisagées au niveau européen et international. Le G7 a récemment adopté une position commune sur la nécessité d’identifier clairement les contenus synthétiques à des fins de transparence, notamment dans le contexte électoral.
Audrey Herblin-Stoop, directrice des affaires publiques de Twitter a notamment réagi et mis en garde le Parlement en affirmant que le réseau social, en tant qu’entreprise n’avait pas à être « l’arbitre de la vérité » et « confier ce rôle à des entreprises privées correspond à une vision court-termiste » qui « est dangereux pour la démocratie et affaiblit activement le rôle vital des médias dans notre société ».
Notons qu’en 2023, Twitter est devenu "X" sous la direction d’Elon Musk, et a modifié sa politique de modération des contenus, provoquant un débat autour du rôle des plateformes dans la régulation de l’IA et de la désinformation. Plusieurs ONG ont pointé une recrudescence des contenus trompeurs non modérés.
D’un point de vue plus général, la création d’une loi internationale sur la manipulation de l’information semble difficilement réalisable face à l’existence de la RGPD en Europe, une disposition légale avec une force extraterritoriale protégeant contre la divulgation des données personnelles et donc renforçant la vie privée des titulaires de comptes sur les réseaux sociaux, mais également en raison de la place importante que la liberté de la presse entretien dans de nombreux pays.
Cependant, une éventuelle coopération à l’échelle européenne et internationale resterait envisageable face à l’engagement de certains États dans la lutte contre les "fake news".
En effet, nous pouvons constater l’existence du "Cloud Act" aux USA, une nouvelle loi qui vise à renforcer l’ingérence des autorités américaines sur les opérateurs de Cloud des USA. Cette loi clarifie donc les règles relatives aux réquisitions des autorités américaines sur les données stockées en dehors des Etats-Unis, et pourrait donc être invoquée dans la lutte contre les fakes news et les données y relatives.
En Europe, l’Allemagne a récemment adopté la loi appelée « la mesure NetzDG » qui permet de condamner au paiement d’une amende de 50 millions d’euros les réseaux sociaux qui ne suppriment pas les publications haineuses ou les "fake news".
Le gouvernement Anglo-saxon, de son côté, a annoncé la création d’une « National Security Communications Unit » une agence de lutte contre les "fake news".
Enfin, même si le RGPD est assez protecteur (comme précisé plus haut), ce Règlement prévient quand-même que chaque Etat Membre aurait le droit de conserver la possibilité de prévoir ou maintenir des dispositions spécifiques pour les traitements concernés par l’intérêt public - donc la lutte contre les "fake news" pourrait être concernée par cette exception.
Néanmoins, des initiatives multilatérales comme le Partenariat mondial sur l’IA (GPAI) ou les travaux de l’UNESCO sur l’éthique de l’intelligence artificielle incluent désormais la lutte contre la désinformation comme un axe prioritaire [4] L’OCDE, de son côté, a proposé en 2024 des principes de gouvernance de l’IA pour encadrer la génération automatisée de contenus informationnels.
Enfin, il est essentiel de rappeler que même si la force de la nouvelle infraction relative aux "fake news" est discutable, les utilisateurs restent soumis aux dispositions relatives à la diffamation notamment au délit de diffamation.