I. Les faits saillants de l’affaire Walters v. OpenAI.
Le 3 mai 2023, Frederick Riehl, rédacteur en chef d’Ammoland (site d’actualités/advocacy sur le Second Amendement), reçoit un communiqué et la plainte de la Second Amendment Foundation (SAF) contre le procureur général de l’État de Washington (SAF v. Ferguson). Souhaitant rédiger un article, il demande à ChatGPT de résumer des passages de la plainte ; pour les sections collées, la synthèse est exacte.
À d’autres moments, l’outil fournit des réponses inexactes, phénomène que la littérature technique qualifie désormais d’« hallucinations ».
Le juge relève expressément que, de par leur nature générative, les principaux LLM peuvent produire des informations contredisant la source, et rappelle ce vocabulaire technique.
Point crucial : Riehl connaissait ces limites (il avait déjà observé des réponses « flat-out fictional ») et, le 3 mai, il avait accepté les conditions d’utilisation de ChatGPT qui le mettaient en garde : sortie probabiliste, résultats potentiellement inexacts, nécessité d’un contrôle humain. Il a en outre vu plusieurs avertissements à l’écran précisant que « ChatGPT peut produire des informations inexactes ».
La personne pointée par ces réponses erronées, Mark Walters, est un intervenant médiatique très connu dans la sphère « Second Amendment » : animateur radio quotidien, auteur, personnalité publique au sein d’organisations pro-armes. Ces éléments fondent l’analyse de la juridiction sur son statut de “public figure” (au moins limité).
II. Les raisons du rejet des prétentions de M. Walters.
Le tribunal accorde le summary judgment à OpenAI ; autrement dit, aucune question matérielle de fait ne justifiait un procès.
A. Le sens que reçoit un lecteur raisonnable dans le contexte d’usage
Le filtre “lecteur raisonnable” est déterminant : Riehl n’était pas un profane ; il connaissait les limites de ChatGPT et avait sous les yeux des avertissements explicites l’incitant à vérifier les réponses en cas d’usage éditorial.
Dans ce contexte, la Cour considère que les sorties incriminées ne communiquaient pas, en droit, un sens diffamatoire de nature à engager la responsabilité d’OpenAI : pour un utilisateur raisonnable dans ces circonstances, la sortie (output) avait une valeur informative limitée et conditionnelle, qui appelle vérification. La matérialité de ces avertissements est documentée au dossier (CGU, messages d’interface, etc.).
B. Le standard de faute : pas de négligence fautive, encore moins "d’actual malice".
Même en admettant un préjudice réputationnel potentiel, l’action échoue à un double niveau : (i) la négligence (standard ordinaire de « reasonable publisher » sous le droit de Géorgie) et **(ii) le degré aggravé d’actual malice requis pour une personnalité publique.
Sur la négligence, la Cour retient qu’OpenAI a déployé des mesures organisationnelles et techniques raisonnables : conception et entraînement visant à réduire les hallucinations, avertissements clairs et répétés pour l’utilisateur, recommandation de relecture humaine avant usage éditorial. Ces éléments désamorcent l’allégation d’une défaillance de diligence raisonnable dans la mise à disposition de l’outil et son interface utilisateur.
Sur "l’actual malice", le demandeur devait prouver —avec une preuve « claire et convaincante »— que l’éditeur savait que les assertions étaient fausses ou a agi avec mépris délibéré pour la vérité. La Cour constate au contraire l’absence d’indices que quiconque chez OpenAI ait eu conscience d’une hallucination précise sur M. Walters, ni ait voulu ignorer des risques identifiés pour ce cas particulier. Le dossier montre plutôt des démarches proactives pour rappeler l’incertitude et encadrer les usages sensibles.
III. Le miroir français : une logique d’infraction de presse, un partage des charges différent.
A. Définition et éléments matériels de la diffamation.
En droit français, la diffamation est définie par l’article 29, al. 1 de la loi du 29 juillet 1881 : « toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération » d’une personne (physique ou morale). Le fait incriminé doit être précis, vérifiable, et l’identification de la personne possible.
La doctrine et la jurisprudence insistent sur le caractère précis du fait imputé : il faut un contenu susceptible de preuve et de débat contradictoire. À défaut (propos vagues, opinion), la qualification glisse vers l’injure. Les juridictions apprécient le sens des propos en tenant compte des éléments intrinsèques et extrinsèques du message (contexte, renvois, supports associés).
B. Une infraction intentionnelle… à intention « allégée ».
La diffamation est une infraction intentionnelle. Mais, l’« intention de diffamer » au sens subjectif —vouloir nuire— n’est pas un élément constitutif dont la victime devrait faire la preuve : l’élément moral résulte de la volonté de prononcer les propos incriminés ; il n’est pas requis de démontrer une « malice » au sens américain. La charge se déplace, après la constitution de l’infraction, vers des moyens d’exonération à la disposition de l’auteur.
Conséquence pratique : à la différence du standard américain d’actual malice, la victime n’a pas à prouver que l’auteur savait que c’était faux ou qu’il s’est désintéressé de la vérité. Le seul fait d’alléguer publiquement un fait précis portant atteinte à l’honneur suffit, à charge ensuite pour le prévenu/défendeur d’invoquer ses justifications.
Là où le droit américain conditionne parfois l’existence même de la responsabilité à la preuve par la victime d’une malice réelle, le droit français constitue plus facilement l’infraction, puis ouvre des voies d’exonération à l’auteur.
En définitive, l’arrêt Walters v. OpenAI ne crée ni immunité générale pour l’IA générative, ni régime d’exception : la cour rappelle simplement que, pour une personnalité publique, la diffamation n’est pas caractérisée si, replacée dans son contexte d’usage, la sortie d’un LLM n’emporte pas de sens diffamatoire pour un lecteur raisonnable, qu’aucune faute —et a fortiori aucune actual malice— n’est démontrée, et qu’aucun dommage réparable n’est établi.
Les avertissements visibles et la conception orientée vers la vérification humaine ont pesé lourd dans cette appréciation, au même titre que le profil de l’utilisateur et l’absence d’indices d’une connaissance interne de la fausseté.


