Les courriels arrivent, nombreux, bien écrits, structurés, ponctués de titres, de listes à puces, parfois même de références juridiques. Ils sont polis, cohérents sur la forme, et donnent l’impression d’un exposé clair et maîtrisé.
Pourtant, à la lecture attentive, un constat s’impose de plus en plus souvent : le message n’a parfois que peu, voire aucun rapport avec la situation juridique réelle du client.
Une forme impeccable… pour un fond inexploitable.
L’intelligence artificielle sait aujourd’hui très bien rédiger. Trop bien, peut-être.
De nombreux clients utilisent ChatGPT ou des outils similaires pour « expliquer leur situation » avant de contacter un avocat. Le résultat est fréquemment un texte long, structuré, juridiquement plausible, mais déconnecté des faits concrets, voire des documents existants.
L’IA reformule, extrapole, simplifie ou, au contraire, complexifie. Elle « rationalise » une histoire juridique qui, dans la réalité, ne l’est pas toujours. Elle remplace les hésitations, les silences, les incohérences - qui sont pourtant souvent les clés du dossier - par une narration fluide mais artificielle.
Le décalage entre le récit et la réalité.
Dans la pratique, l’avocat découvre rapidement que les dates sont approximatives ou erronées, que la procédure décrite n’est pas celle réellement engagée, que la décision administrative ou judiciaire évoquée n’est pas comprise, ou encore que la demande formulée ne correspond pas au véritable objectif du client.
Il n’est pas rare qu’après un premier entretien, il faille entièrement déconstruire le courriel initial, pourtant rédigé avec soin, pour revenir à une question beaucoup plus simple : que s’est-il réellement passé, et que veut réellement le client ?
Une perte de temps pour tous.
Contrairement à une idée répandue, ces courriels « parfaits » ne font pas gagner du temps à l’avocat. Bien au contraire.
Ils nécessitent une relecture attentive pour démêler le vrai du faux, des échanges supplémentaires pour corriger le cadre factuel, et parfois un malentendu initial sur la mission attendue.
Le risque est double : pour l’avocat, celui de répondre à une demande mal posée ; pour le client, celui de recevoir une réponse juridiquement correcte mais inutile pour sa situation réelle.
L’avocat n’attend pas un mémoire, mais des faits.
Il faut le rappeler clairement : l’avocat n’attend pas de ses clients une analyse juridique, encore moins une consultation générée par une intelligence artificielle.
Ce qu’il attend, ce sont des faits bruts, des documents, une chronologie sincère, même confuse, et une question simple, quitte à être maladroite.
Un courriel mal écrit, mais fidèle à la réalité sera toujours plus utile qu’un exposé brillant, mais artificiel.
L’IA : outil d’aide, pas porte-parole du client.
L’intelligence artificielle peut être utile pour améliorer l’orthographe, clarifier une phrase ou structurer un propos existant. Mais elle devient problématique lorsqu’elle se substitue à la parole du client, en reformulant sa situation sans en comprendre les enjeux personnels, émotionnels ou procéduraux.
Or, le droit est une matière concrète, incarnée, parfois rugueuse. Elle ne se résume pas à un texte bien présenté.
Conclusion : revenir à l’essentiel.
La montée en puissance de l’IA dans les échanges avec les avocats est un fait. Elle n’est ni bonne ni mauvaise en soi. Mais elle impose une vigilance nouvelle.
Aux clients, il faut rappeler une règle simple : ne demandez pas à une intelligence artificielle de raconter votre histoire à votre place.
À l’avocat revient ensuite son rôle essentiel : écouter, questionner, rectifier et transformer une situation confuse en stratégie juridique pertinente ; ce qu’aucun algorithme ne sait encore faire.


