Une étude commanditée par la Confédération internationale des sociétés d’auteurs et compositeurs (CISAC) [2] montre que les revenus des fournisseurs de l’IA générative connaîtront une croissance spectaculaire au cours des cinq prochaines années, tandis que les créateurs de musique et les créateurs audiovisuels connaîtraient une perte cumulée de 22 milliards d’euros sur cinq ans, à cause du phénomène de substitution de l’IA aux œuvres des créateurs humains.
L’étude ne vise pas les créateurs d’œuvres plastiques et graphiques, mais ceux-ci devraient rencontrer les mêmes difficultés.
Il apparaît que tous ces créateurs fournissent en bonne partie le matériel créatif qui alimente le marché des contenus produits par l’IA générative, ce sans percevoir aucune contrepartie.
Quels sont les moyens à disposition des auteurs et artistes pour faire valoir leurs droits ?
Comme toujours, il y a la loi, le tribunal et la négociation.
1. La loi.
S’agissant des textes légaux, la situation n’est pas complètement satisfaisante.
En effet, comme cela a été souligné par divers intervenants de la table ronde à l’Assemblée nationale, les services d’intelligence artificielle invoquent une exception qui a été introduite par la directive du 17 avril 2019 sur le droit d’auteur et les droits voisins.
Il s’agit de l’exception, dite de « fouille de textes et données » (Text and Data Mining, ou TDM) qui permettrait aux services d’intelligence artificielle, aux fins d’entraîner leurs modèles d’IA, d’utiliser des contenus protégés par le droit d’auteur et les droits voisins, sans avoir à demander l’autorisation aux titulaires de droits.
Toutefois, l’article 4 de la Directive prévoit cette exception TDM sous la condition que les titulaires de droits n’aient pas expressément réservé l’usage de leurs œuvres à ces fins (il s’agit de ce qu’on appelle « l’opt-out »).
Les divers intervenants de la table ronde ont dénoncé ce qui constitue en quelque sorte une charge de la preuve inversée, puisque le fournisseur de service d’intelligence artificielle n’a plus à solliciter l’autorisation préalable des titulaires de droits, comme c’est la règle usuelle.
Ce sont ces derniers qui doivent prendre l’initiative d’exercer l’opt-out et la Commission européenne travaille actuellement à l’élaboration d’un registre européen de l’opt-out qui centraliserait les refus d’utilisation des œuvres par les services d’IA.
Le problème est qu’une absence d’inscription au registre vaudrait alors présomption d’autorisation…
Un certain nombre d’intervenants préconise donc de revenir à un système d’opt-in.
Monsieur David El Sayegh, directeur général adjoint de la Sacem, propose de contrer la difficulté en instituant un renversement de la charge de la preuve : dès lors qu’une IA génèrerait un contenu ressemblant à une œuvre protégée, il devrait être présumé que cette œuvre a été utilisée par cette IA. Les entreprises d’IA devraient alors prouver le contraire en fournissant une liste exhaustive et fiable des données utilisées.
Ce qui souligne la question de la transparence.
Les textes en vigueur sont plus favorables aux auteurs concernant ce point. En effet, le Règlement européen, dit RIA (Règlement relatif à l’intelligence artificielle), du 13 juin 2024, créé une obligation de transparence à la charge des fournisseurs d’IA à usage général ainsi qu’une obligation de mise à disposition du public d’un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d’IA à usage général (un modèle de résumé a été élaboré par le CSPLA).
C’est un premier pas encourageant, obligeant les fournisseurs d’IA à mentionner leurs sources.
2. Le tribunal.
Il n’y a, à ce jour, pas encore beaucoup de décisions de justice rendues dans le monde et aucune en France.
Cependant, un espoir est né avec une décision d’une juridiction américaine [3] qui a rejeté l’exception dite de « fair use » (usage équitable). Le juge américain a ainsi donné raison, par une décision du 11 février 2025, à Thomson Reuters, propriétaire d’une base de données juridique, lequel a accusé Ross Intelligence d’avoir utilisé sans autorisation des résumés de décisions judiciaires protégés par le droit d’auteur, appelés "headnotes", pour entraîner son intelligence artificielle destinée à assister les avocats.
En outre, des actions judiciaires commencent à être intentées en France : ainsi, en mars 2025, des syndicats des éditeurs et des auteurs français (SNE, SNAC et SGDL) ont engagé une action en justice contre Meta [4], l’accusant d’utiliser des œuvres de leurs membres sans autorisation pour développer des IA. Ils ont saisi le Tribunal judiciaire de Paris pour faire valoir leurs droits [5].
Monsieur David El Sayegh (SACEM) soulignait lors de la table ronde, la difficulté posée par le fait qu’il fallait compter un délai de 5 ans pour avoir une décision de justice définitive.
Ceci est vrai mais il ne faut pas négliger le fait qu’une action judiciaire aide souvent à entamer des négociations :
3. Les négociations.
Le Groupe de presse allemand Axel Springer et le journal français Le Monde auraient conclu des accords avec OpenAI.
Lors de la table ronde, il a d’ailleurs été souligné que, si des fournisseurs d’IA acceptent de passer des accords avec des entreprises de presse, c’est parce que l’information se renouvèle tous les jours et qu’à défaut de tels accords, les résultats de l’IA seraient truffés de « fake news ».
Les auteurs et artistes n’ont certes pas un tel moyen de pression. Mais il est vital pour eux de parvenir à imposer une rémunération de la part des services d’intelligence artificielle, en contrepartie de l’utilisation de leurs créations. Ils doivent donc se mobiliser pendant qu’il est encore temps.
En outre, l’institution d’une juste rémunération des auteurs de contenus protégés par le droit d’auteur ne bénéficierait pas seulement aux créateurs, mais également aux fournisseurs d’IA.
Non seulement, en passant de tels accords, les fournisseurs d’IA éviteront des actions judiciaires, mais cela leur permettra également de produire des contenus de qualité, sur le long terme.
En effet, outre, les risques d’erreur, si une IA s’entraîne sur ses propres productions (ou celles d’autres IA), elle subit un phénomène de dégénérescence appelé "AI Model Collapse".
Il est toujours périlleux de scier la branche sur laquelle on est assis…
Il est de l’intérêt de tous de justement rétribuer l’utilisation d’une valeur économique.