2018 : le gouvernement transmet une « proposition de loi » pour lutter contre les fake news.
Le Président de la République, Emmanuel Macron, victime de campagnes de désinformation sur Internet pendant la campagne présidentielle avait précipité dans l’agenda législatif une proposition de loi LREM visant à lutter contre la diffusion des fausses informations dans les médias et sur Internet en période électorale par des groupes d’influences.
Préparé par la ministre de la Culture, Françoise Nyssen, depuis la rentrée 2017, le projet gouvernemental avait vocation à se muter en proposition de loi portée par le groupe LREM de l’Assemblée nationale, permettant de se dispenser des obligations de saisie pour avis du Conseil d’état ainsi que la rédaction d’une étude d’impact pour jauger les effets économiques des futures obligations pesant sur les plateformes.
Baptisée provisoirement « Loi de fiabilité et de confiance dans l’information », la proposition de loi limitait son champ d’application au contrôle des ingérences d’une puissance étrangère dans les débats électoraux français. Le texte visait explicitement la protection des élections présidentielles, sénatoriales et parlementaires européennes. L’article 5 modifiant la loi de 1986 visait également l’élection des députés et les opérations référendaires.
Conformément aux dispositions de l’article 6 de la Constitution en matière d’élection présidentielle, le gouvernement avait enfin transmis une proposition de loi organique complémentaire modifiant les articles 3 et 4 de la loi 62-1292 du 6 novembre 1962 relative à l’élection du Président de la République au suffrage universel.
Les pistes de réflexion n’envisageaient toutefois pas de modifier la loi du 29 juillet 1881 ou de préciser la notion même de fausses nouvelles prévue à l’article 27. Le gouvernement semble cependant exclure les contenus visant à promouvoir des biens ou services pour se focaliser sur les contenus d’informations liés à l’actualité, exception faite des contenus parodiques ou satiriques.
Le texte, transmis par le gouvernement le 7 mars 2018, consistait avant tout en une consolidation du contrôle des contenus diffusés sur Internet et sur les médias audiovisuels. La loi complèterait ainsi l’article 6 de la LCEN en renforçant les obligations à la charge des fournisseurs d’accès et hébergeurs de contenus. Ces derniers seraient tenus de mettre en place un dispositif accessible et visible de signalement de fausses informations. A l’image d’autres formes de contenus illicites tel l’apologie des crimes contre l’humanité, l’incitation à la discrimination, à la haine ou à la violence raciale, les intermédiaires techniques seront tenus d’informer promptement les autorités de tout contenu signalé par un internaute – principe du « notice and take down ». Une procédure en référé devant le tribunal de grande instance serait ainsi mise en place pour faire cesser la diffusion par tous moyens – déréférencement, retrait des contenus et blocage des adresses IP des utilisateurs voire l’inaccessibilité au site lui-même avec un délai de 48h pour statuer.
Concernant l’audiovisuel, le CSA (désormais ARCOM) verrait ses pouvoirs étendus lui permettant d’empêcher, suspendre ou mettre fin à la diffusion de services de télévision contrôlés ou sous l’influence par un état étranger portant atteinte aux intérêts de la nation ou participant à une entreprise de déstabilisation de ses institutions / jugée nécessaire à la sauvegarde de l’ordre public. Le CSA pourra refuser de conclure une convention avec un service n’utilisant pas les fréquences hertziennes, suspendre en urgence la diffusion d’un service par l’intermédiaire d’un référé administratif.
Ces procédures s’inspirent du régime applicable en matière d’obligation de loyauté imposé aux opérations de plateforme à l’égard des consommateurs sur les contenus sponsorisés au-delà d’un certain seuil d’audience. La proposition de loi comprend ainsi une information loyale sur le commanditaire de promotion de contenus d’informations, le montant des rémunérations et l’origine des fonds pour les opérations effectuées à compter de la publication du décret de convocation des électeurs pour les opérateurs de plateforme en ligne dépassant un seuil de nombre de connexion.
L’opportunité de cette proposition de loi avait été rapidement mise en cause au regard des procédures existantes jugées suffisantes par certains professionnels et de la complexité, en urgence, de qualifier la fausse information. Outre son champ d’application nationalement limité, un tel encadrement législatif inquiète les juridictions qui seraient tenus dans un délai particulièrement court, dans un contexte électoral, de définir ce qui relèverait de la réalité officielle pour la juste information du public. Craignant une « démocratie illibérale », plusieurs acteurs du numérique ont analysé la proposition de loi comme une nouvelle restriction des libertés civiques et l’arme d’un pouvoir autoritaire. Le texte actuel visait à remettre de fait en question le principe de neutralité du net toute en permettant des atteintes à la liberté du commerce et de l’industrie à l’égard des plateformes de contenus en ligne ainsi qu’à la liberté des annonceurs commerciaux.
Dans ce contexte, d’autres pistes de réflexion alter législatives avaient pu être envisagées. Outre la promotion de l’éducation aux médias, la création d’une instance indépendante, à l’image d’autres pays européens, chargée de l’éthique et de la médiation, qui pourrait répondre aux demandes du public en matière de vérification de l’information.
Lutte contre les fausses nouvelles : un dispositif réglementaire dense et éparse.
Déjà évoqué, le droit français se démarquait par un arsenal répressif important en matière de lutte contre toute forme de désinformation, dispersées à travers de nombreux textes sanctionnant des comportements spécifiques.
Texte historique en matière de presse, l’article 27 de la loi du 29 juillet 1881 visait à réprimer « La publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, elle aura troublé la paix publique, ou aura été susceptible de la troubler, [notamment] lorsque la publication, la diffusion ou la reproduction faite de mauvaise foi sera de nature à ébranler la discipline ou le moral des armées ou à entraver l’effort de guerre de la Nation ». Sont également développés les infractions de diffamation se rapportant à une allégation ou imputation inexacte d’un fait portant atteinte à l’honneur ou à la considération.
Progressivement d’autres dispositions sont venues encadrer le contrôle des informations diffusées par voie de média – ordonnance du 2 novembre 1945, loi du 10 janvier 1957 et loi du 1ᵉʳ aout 1986 sur les obligations des agences de presses. En matière de communication audiovisuelle, la loi du 30 septembre 1986 prévoit que le CSA/ARCOM « garantit l’indépendance et l’impartialité du secteur public de la communication audiovisuelle […] l’honnêteté, l’indépendance et le pluralisme de l’information […] s’assure que les intérêts économiques des actionnaires des éditeurs […] et de leurs annonceurs ne portent aucune atteinte à ces principes ».
En période d’élections, le Code électoral prévoyait déjà par son article L.97 sanctionne « ceux qui, à l’aide de fausses nouvelles […] auront surpris ou détourné des suffrages ». La loi du 19 juillet 1977 délimitait les conditions de réalisation des sondage d’opinions soumis au contrôle de la Commission des Sondages. Le nouvel article L163-2 issue de la loi du 22 décembre 2018 précise désormais :
« Pendant les trois mois précédant le premier jour du mois d’élections générales et jusqu’à la date du tour de scrutin où celles-ci sont acquises, lorsque des allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d’un service de communication au public en ligne, le juge des référés peut, à la demande du ministère public, de tout candidat, de tout parti ou groupement politique ou de toute personne ayant intérêt à agir, et sans préjudice de la réparation du dommage subi, prescrire aux personnes physiques ou morales mentionnées au 2 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique ou, à défaut, à toute personne mentionnée au 1 du même I toutes mesures proportionnées et nécessaires pour faire cesser cette diffusion.
II.-Le juge des référés se prononce dans un délai de quarante-huit heures à compter de la saisine.
En cas d’appel, la cour se prononce dans un délai de quarante-huit heures à compter de la saisine.
III.-Les actions fondées sur le présent article sont exclusivement portées devant un tribunal judiciaire et une cour d’appel déterminés par décret. »
Le dispositif de référé mis en place en matière électoral s’analyse en complément de celui proposé par la loi pour la confiance dans l’Économie Numérique et son article 6.I.8.
Le Code pénal complète également le dispositif par l’incrimination de comportements spécifiques dont diffusion de montage d’images (Art. 226-8 C. Pén) et la fourniture d’informations fausses au profit d’intérêts étrangers portant atteinte aux intérêts fondamentaux de la Nation (Art. 411-10 C. Pén).
À l’issue des travaux parlementaires et une validation avec réserve par le Conseil constitutionnel le 20 décembre 2018 n° 2018-773 DC, la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information est finalement venue ajouter un dispositif spécifique à la diffusion de fake news en période électoral. Le référé électoral ciblé mise en place accompagnée d’obligations de coopération des plateformes sous la supervision de l’ARCOM, avec des conditions strictes protégeant la liberté d’expression et réservant au juge l’appréciation des contenus factuels manifestement trompeurs en période électorale nationale peut être salué.
Corégulation pour la lutte contre la diffusion de fake news.
S’agissant de problématiques liées au numérique, la seule réponse réglementaire ne parait pas suffisante pour endiguer de manière efficace une propagation trop rapide et puissante de fausses nouvelles notamment à travers les réseaux sociaux.
La lutte contre les fake news reste confrontés d’une part à la dimension internationale de l’information désormais consommée et, de manière plus délicate, des comportements des internautes et citoyens en matière de publication ou consommation d’information.
La sélection de l’information consommée notamment vers les réseaux sociaux, marqué par une des scandales liés à la manipulation des algorithmes (« Traitement préférentiel » de Tiktok dans le cadre des élections en Roumanie [1], devient un enjeu sociétal qu’un seul arsenal législatif ne peut contraindre seul.
Dans une logique de corégulation, plusieurs acteurs proposent de compléter le régime actuel par la mise en place d’outils techniques. Les systèmes de fact-checking des réseaux sociaux appuyés potentiellement par de l’IA, la création de centres de gestion de diffusion de l’information, de database répertoriant les informations ou encore la création d’un site internet associé à une application mobile dédiée au décryptage de l’actualité [2]
Au niveau européen, le récent DSA (Digital Services Act) contribue à la lutte contre les fake news en imposant de nouvelles obligations aux très grandes plateformes en ligne (liExpress, Amazon Store, AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Search, Google Shopping, Instagram, LinkedIn, Microsoft Bing, Pinterest, Snapchat, TikTok, Wikipedia, X – anciennement Twitter –, YouTube, Zalando), les obligeant notamment à évaluer et à atténuer les risques systémiques découlant de leurs services, incluant la désinformation et la manipulation de l’information, avec des mesures spécifiques en matière de transparence et de modération des contenus.
Plus récent encore, l’AI Act interdit certains usages de l’intelligence artificielle jugés comme un risque inacceptable, dont les systèmes d’IA utilisés pour la manipulation et la tromperie nuisibles fondées sur l’IA, ce qui englobe certaines formes de deepfakes ou de création de contenus fallacieux visant à induire en erreur de manière significative.


