ChatGPT peut-il être accusé de diffamation s’il affirme quelque chose de faux à votre sujet ? Regard croisé entre la jurisprudence américaine et le droit français de la presse. Raphaël Molina, Avocat.

Raphaël Molina
Avocat associé - Droit de la propriété intellectuelle et numérique
Barreau de Paris
Cabinet Influxio
www.influxio-avocat.com
contact chez influxio-avocat.com

2386 lectures 1re Parution: Modifié: 5  /5

Explorez aussi: # diffamation # responsabilité civile # intelligence artificielle # droit comparé

L’essor des grands modèles de langage (LLM) a ouvert un champ inédit d’usages… et de risques. Parmi ces risques, les « hallucinations » — ces réponses qui inventent des faits — soulèvent une question cardinale : qui répond juridiquement lorsqu’un outil comme ChatGPT attribue à tort un comportement délictueux à une personne identifiée ?
Une décision rendue en mai 2025 par la Superior Court du comté de Gwinnett (Géorgie) dans l’affaire Mark Walters v. OpenAI, L.L.C. [1] apporte un éclairage concret côté américain : la juridiction a accordé le “summary judgment” à OpenAI, c’est-à-dire mis fin au litige en sa faveur, sans procès, au vu des pièces et du droit applicable.
Nous proposons ici une analyse structurée de ce jugement, puis une comparaison avec le droit français de la diffamation (loi du 29 juillet 1881), dont les équilibres sont bien différents.

-

I. Les faits saillants de l’affaire Walters v. OpenAI.

Le 3 mai 2023, Frederick Riehl, rédacteur en chef d’Ammoland (site d’actualités/advocacy sur le Second Amendement), reçoit un communiqué et la plainte de la Second Amendment Foundation (SAF) contre le procureur général de l’État de Washington (SAF v. Ferguson). Souhaitant rédiger un article, il demande à ChatGPT de résumer des passages de la plainte ; pour les sections collées, la synthèse est exacte.

À d’autres moments, l’outil fournit des réponses inexactes, phénomène que la littérature technique qualifie désormais d’« hallucinations ».

Le juge relève expressément que, de par leur nature générative, les principaux LLM peuvent produire des informations contredisant la source, et rappelle ce vocabulaire technique.

Point crucial : Riehl connaissait ces limites (il avait déjà observé des réponses « flat-out fictional ») et, le 3 mai, il avait accepté les conditions d’utilisation de ChatGPT qui le mettaient en garde : sortie probabiliste, résultats potentiellement inexacts, nécessité d’un contrôle humain. Il a en outre vu plusieurs avertissements à l’écran précisant que « ChatGPT peut produire des informations inexactes ».

La personne pointée par ces réponses erronées, Mark Walters, est un intervenant médiatique très connu dans la sphère « Second Amendment » : animateur radio quotidien, auteur, personnalité publique au sein d’organisations pro-armes. Ces éléments fondent l’analyse de la juridiction sur son statut de “public figure” (au moins limité).

II. Les raisons du rejet des prétentions de M. Walters.

Le tribunal accorde le summary judgment à OpenAI ; autrement dit, aucune question matérielle de fait ne justifiait un procès.

A. Le sens que reçoit un lecteur raisonnable dans le contexte d’usage

Le filtre “lecteur raisonnable” est déterminant : Riehl n’était pas un profane ; il connaissait les limites de ChatGPT et avait sous les yeux des avertissements explicites l’incitant à vérifier les réponses en cas d’usage éditorial.

Dans ce contexte, la Cour considère que les sorties incriminées ne communiquaient pas, en droit, un sens diffamatoire de nature à engager la responsabilité d’OpenAI : pour un utilisateur raisonnable dans ces circonstances, la sortie (output) avait une valeur informative limitée et conditionnelle, qui appelle vérification. La matérialité de ces avertissements est documentée au dossier (CGU, messages d’interface, etc.).

B. Le standard de faute : pas de négligence fautive, encore moins "d’actual malice".

Même en admettant un préjudice réputationnel potentiel, l’action échoue à un double niveau : (i) la négligence (standard ordinaire de « reasonable publisher » sous le droit de Géorgie) et **(ii) le degré aggravé d’actual malice requis pour une personnalité publique.

Sur la négligence, la Cour retient qu’OpenAI a déployé des mesures organisationnelles et techniques raisonnables : conception et entraînement visant à réduire les hallucinations, avertissements clairs et répétés pour l’utilisateur, recommandation de relecture humaine avant usage éditorial. Ces éléments désamorcent l’allégation d’une défaillance de diligence raisonnable dans la mise à disposition de l’outil et son interface utilisateur.

Sur "l’actual malice", le demandeur devait prouver —avec une preuve « claire et convaincante »— que l’éditeur savait que les assertions étaient fausses ou a agi avec mépris délibéré pour la vérité. La Cour constate au contraire l’absence d’indices que quiconque chez OpenAI ait eu conscience d’une hallucination précise sur M. Walters, ni ait voulu ignorer des risques identifiés pour ce cas particulier. Le dossier montre plutôt des démarches proactives pour rappeler l’incertitude et encadrer les usages sensibles.

III. Le miroir français : une logique d’infraction de presse, un partage des charges différent.

A. Définition et éléments matériels de la diffamation.

En droit français, la diffamation est définie par l’article 29, al. 1 de la loi du 29 juillet 1881 : « toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération » d’une personne (physique ou morale). Le fait incriminé doit être précis, vérifiable, et l’identification de la personne possible.

La doctrine et la jurisprudence insistent sur le caractère précis du fait imputé : il faut un contenu susceptible de preuve et de débat contradictoire. À défaut (propos vagues, opinion), la qualification glisse vers l’injure. Les juridictions apprécient le sens des propos en tenant compte des éléments intrinsèques et extrinsèques du message (contexte, renvois, supports associés).

B. Une infraction intentionnelle… à intention « allégée ».

La diffamation est une infraction intentionnelle. Mais, l’« intention de diffamer » au sens subjectif —vouloir nuire— n’est pas un élément constitutif dont la victime devrait faire la preuve : l’élément moral résulte de la volonté de prononcer les propos incriminés ; il n’est pas requis de démontrer une « malice » au sens américain. La charge se déplace, après la constitution de l’infraction, vers des moyens d’exonération à la disposition de l’auteur.

Conséquence pratique : à la différence du standard américain d’actual malice, la victime n’a pas à prouver que l’auteur savait que c’était faux ou qu’il s’est désintéressé de la vérité. Le seul fait d’alléguer publiquement un fait précis portant atteinte à l’honneur suffit, à charge ensuite pour le prévenu/défendeur d’invoquer ses justifications.

Là où le droit américain conditionne parfois l’existence même de la responsabilité à la preuve par la victime d’une malice réelle, le droit français constitue plus facilement l’infraction, puis ouvre des voies d’exonération à l’auteur.

En définitive, l’arrêt Walters v. OpenAI ne crée ni immunité générale pour l’IA générative, ni régime d’exception : la cour rappelle simplement que, pour une personnalité publique, la diffamation n’est pas caractérisée si, replacée dans son contexte d’usage, la sortie d’un LLM n’emporte pas de sens diffamatoire pour un lecteur raisonnable, qu’aucune faute —et a fortiori aucune actual malice— n’est démontrée, et qu’aucun dommage réparable n’est établi.

Les avertissements visibles et la conception orientée vers la vérification humaine ont pesé lourd dans cette appréciation, au même titre que le profil de l’utilisateur et l’absence d’indices d’une connaissance interne de la fausseté.

Raphaël Molina
Avocat associé - Droit de la propriété intellectuelle et numérique
Barreau de Paris
Cabinet Influxio
www.influxio-avocat.com
contact chez influxio-avocat.com

Recommandez-vous cet article ?

Donnez une note de 1 à 5 à cet article :
L’avez-vous apprécié ?

13 votes

L'auteur déclare ne pas avoir utilisé l'IA générative pour la rédaction de cet article.

Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion (plus d'infos dans nos mentions légales).

Notes de l'article:

[1Walters v. OpenAI, L.L.C. (Case No. 23-A-04860-2).

A lire aussi :

Village de la justice et du Droit

Bienvenue sur le Village de la Justice.

Le 1er site de la communauté du droit: Avocats, juristes, fiscalistes, notaires, commissaires de Justice, magistrats, RH, paralegals, RH, étudiants... y trouvent services, informations, contacts et peuvent échanger et recruter. *

Aujourd'hui: 157 580 membres, 29792 articles, 127 309 messages sur les forums, 2 130 annonces d'emploi et stage... et 1 400 000 visites du site par mois en moyenne. *


FOCUS SUR...

• Le silence du barreau : pourquoi les avocats ont du mal à demander de l’aide.

• Sondage Express du Village de la Justice : VOUS et l’IA...





LES HABITANTS

Membres

PROFESSIONNELS DU DROIT

Solutions

Formateurs