Il s’agit, à ce jour, de la première décision judiciaire française qui emploie explicitement le vocabulaire technique des « hallucinations » de l’intelligence artificielle générative dans sa motivation. Cette formulation traduit une prise de conscience claire du phénomène par la magistrature.
Cela constitue un signal fort à destination des professionnels du droit.
1. L’intelligence artificielle : un outil puissant, mais sous contrôle humain strict.
L’intelligence artificielle constitue indéniablement un levier d’accélération dans le domaine juridique, notamment pour les recherches documentaires et jurisprudentielles. Toutefois, le jugement rappelle un principe fondamental : l’intelligence artificielle doit rester un outil d’assistance, placé sous le contrôle de l’expertise humaine qui contrôle la véracité des résultats obtenus.
En effet, les hallucinations des modèles d’intelligence artificielle générative (affirmations plausibles mais factuellement erronées) sont inhérentes au fonctionnement des grands modèles de langage, qui privilégient la cohérence statistique à la véracité lorsque les données font défaut.
Dans le domaine juridique, et plus encore judiciaire, où l’exactitude des sources conditionne la crédibilité, la recevabilité et parfois l’issue du litige, le risque est structurellement élevé.
2. Un phénomène encore marginal, mais de plus en plus visible.
Si ces dérives demeurent relativement limitées, celles-ci gagnent en visibilité.
Elles s’observent notamment en droit des marques, tant en précontentieux que dans des procédures d’opposition ou de nullité : certaines écritures présentent une standardisation manifestement algorithmique, révélatrice d’un usage insuffisamment maîtrisé des outils génératifs.
Là où, hier encore, les échanges opposaient des conseils construisant et confrontant des argumentations au service de la défense des intérêts de leurs clients, émergent aujourd’hui des interactions largement façonnées par des outils algorithmiques, générant davantage de confusion et d’insécurité juridique que de clarté ou de valeur ajoutée.
3. Un signal français dans un mouvement international.
L’affaire de Périgueux s’inscrit dans une dynamique déjà observée à l’international.
Aux États-Unis, des avocats ont été sanctionnés pour avoir produit des mémoires fondés sur des décisions fictives générées par ChatGPT (affaire Mata v. Avianca, 2023).
Au Royaume-Uni également, plusieurs juridictions ont relevé l’usage de citations inexistantes.
En France, si des signaux faibles existaient déjà (formulations stéréotypées, raisonnements approximatifs), le jugement du 18 décembre 2025 constitue la première reconnaissance explicite, par un magistrat français, du risque lié aux hallucinations de l’intelligence artificielle.
4. Vers une utilisation responsable de l’intelligence artificielle en droit.
Cette décision marque un tournant symbolique et opérationnel.
En nommant le phénomène, le juge rappelle une évidence trop souvent négligée : la technologie ne dispense ni de rigueur intellectuelle, ni de responsabilité professionnelle.
L’Intelligence artificielle peut transformer la pratique du droit, en améliorer la productivité et la réactivité. Elle ne remplacera cependant jamais l’esprit critique, la vérification des sources et la maîtrise du raisonnement juridique, qui demeurent au cœur de la valeur ajoutée du professionnel.
A l’heure où les outils génératifs se diffusent massivement, le signal envoyé par le Tribunal judiciaire de Périgueux invite les professionnels du droit à une utilisation raisonnée, encadrée et responsable de l’intelligence artificielle.


