Les juristes ont déjà eu à traiter de la question de la nature des droits à attribuer à des contenus générés par des dispositifs technologiques avec la photographie : si la protection par le droit a pu être contesté au tout début du XXe siècle [1], elle est devenue possible dès lors que l’originalité de la prise de vue était démontrable, en constatant la singularité de l’ensemble du processus de création, dont l’existence d’une empreinte propre [2].
C’est maintenant au tour des « IA » capables de générer de manière autonome divers types de contenus (textes, images, musiques et vidéos) d’interroger les juristes sous deux angles : celui de la licéité de l’emploi du contenu protégé par le droit d’auteur pour la conception du modèle d’inférence et celui de la titularité des droits sur les nouvelles créations.
Le droit positif mis à l’épreuve par les systèmes d’intelligence artificielle générative.
Les difficultés pour répondre à ces deux questions sont multiples, comme celles de l’effectivité des dispositions juridiques existantes et de l’empreinte propre des auteurs des « prompts », dans un contexte où les réalités technologiques sont loin d’être figées et en constante évolution.
S’agissant de la possibilité d’attribuer des droits aux systèmes d’intelligence artificielle générative (SIAG) pour le contenu qu’ils ont produit, les juridictions étatsuniennes, australiennes, britanniques et européennes ont déjà eu à se prononcer sur la question, tout comme l’Office américain du Copyright (U.S. Copyright Office, USCO).
Le 12 septembre 2022, la commission d’examen de l’USCO confirmait une décision du bureau refusant l’enregistrement d’une œuvre d’art générée par un autre algorithme « d’IA » créé par Steven Thaler, qui cherchait ainsi à faire reconnaître à son « IA » Dabus une forme de personnalité juridique [3]. Les lignes directrices publiées par l’USCO en mars 2023 ont souligné la nécessaire présence d’un apport humain afin de justifier d’une éventuelle protection par copyright [4]. Rappelons qu’en France, seule une personne physique peut avoir la qualité d’auteur [5] sauf en matière d’œuvre collective où, par exception, des personnes morales peuvent être rendues titulaires de droits d’auteur [6].
S’agissant de la possibilité pour des auteurs de faire reconnaître des droits sur le contenu qu’ils ont produit avec l’aide d’un SIAG, les juridictions paraissent tout aussi réticentes. Le 28 octobre 2022, l’USCO a révoqué un enregistrement antérieur pour un roman graphique d’un artiste partiellement généré par « l’IA » [7]. Le droit d’auteur français protège les « œuvres de l’esprit », si elles sont « originales » et portent « l’empreinte de la personnalité de son auteur », résultant de choix libres et créatifs. Le fonctionnement des SIAG introduisant une part d’aléatoire pour assurer des variations, des prompts similaires (même complexes) n’ont jamais la garantie de produire des résultats pleinement similaires. Il sera donc difficile de faire considérer par une juridiction les résultats bruts d’un SIAG comme empreints de la personnalité de l’auteur des prompts. En revanche, si le résultat brut est retravaillé par l’utilisateur, le travail pourra alors être protégé par le droit d’auteur s’il répond à l’exigence d’originalité du CPI.
« Ce nouveau contexte socio-technique enjoint les juristes à réfléchir à l’évolution des textes ».
Le droit d’auteur, dans ses équilibres actuels, est donc très concrètement mis à l’épreuve du fait des nouvelles caractéristiques de ces nouvelles formes de création de contenu. Bien que dépourvus d’intention humaine directe, ces algorithmes donnent l’apparence de pouvoir rivaliser avec celles créées par les humains en termes de complexité et d’expressivité mais contribuent, dans le même temps, à nourrir des représentations anthropomorphistes erronées. Même si les dispositions actuelles et les acquis jurisprudentiels offrent déjà aux juges la possibilité de répondre aux questions d’attribution de droits au prix d’un certain effort de transposition, ce nouveau contexte socio-technique enjoint les juristes à réfléchir à l’évolution des textes afin de prévenir d’inévitables d’interprétations divergentes et d’offrir une meilleure sécurité juridique.
Les apports du règlement européen sur l’intelligence artificielle et de la directive sur le droit d’auteur et les droits voisins de 2019.
Sans être spécifiquement dédié à la question de la propriété intellectuelle, le règlement sur l’intelligence artificielle (RIA ou AI Act), adopté par le Parlement européen le 13 mars 2024 [8], comporte des dispositions spécifiques visant à trouver un équilibre entre soutien à l’innovation et droits des auteurs. Les SIAG y sont traités sous la dénomination de « modèles d’IA à usage général » [9] en référence à leurs modèles de fondation généralistes [10].
Deux dispositions s’imposant aux fournisseurs sont particulièrement pertinentes pour le droit d’auteur au sein du chapitre V (Modèles d’IA à usage général), section 2 (Obligations incombant aux fournisseurs de modèles d’IA à usage général), articles 53, 1, c) et 53, 1, d) :
- l’art. 53, 1, c) exige que les fournisseurs mettent en place des mesures pour respecter les dispositions relatives au droit d’auteur (dont l’opt-out prévu par l’article 4, 3 de la directive sur le droit d’auteur et les droits voisins, exigeant une autorisation explicite du détenteur des droits si ceux-ci ont été réservés de manière appropriée [11] ;
- l’art. 53, 1, d) exige des fournisseurs de SIAG qu’ils établissent et mettent à la disposition du public un résumé détaillé du contenu utilisé pour l’entraînement du modèle.
S’agissant du premier point, le renvoi à d’autres dispositions adoptées en 2019 n’est pas surprenant puisque le Commissaire Thierry Breton avait explicitement considéré en 2023 que les exceptions de la directive couvrant la fouille de texte et de données étaient « pertinentes dans le contexte de l’IA » pour assurer « un équilibre entre deux éléments : protéger les titulaires de droits, notamment les artistes, et faciliter l’exploration de textes et de données, notamment par les développeurs d’IA » [12]. Il s’appuyait également sur une étude indépendante sur le droit d’auteur et les nouvelles technologies [13] « qui fournit une bonne base pour l’évaluation des défis posés par l’IA du point de vue du droit d’auteur ».
« Les craintes des métiers de la création ne semblent toutefois pas être totalement apaisées par ces dispositions ».
Les craintes des métiers de la création ne semblent toutefois pas être totalement apaisées par ces dispositions, puisque la possibilité pour un auteur de s’opposer de manière explicite au traitement d’une de ses œuvres (opt-out de l’art.4,3 de la directive) n’est le plus souvent pas appliqué, ni respecté [14]. Par ailleurs, l’exception permettant la licéité du traitement d’œuvres protégées avait été motivée lors de l’élaboration de la directive au nom d’un objectif d’intérêt général : la recherche scientifique. Or ces discussions n’avaient absolument pas anticipé la manière dont cette exception conduit aujourd’hui à faciliter la production de contenu par ces SIAG venant directement concurrencer les œuvres ayant servi à l’apprentissage. La transposition de la directive en France par ordonnance [15] a conduit à intégrer au CPI dans l’art.122-5-3-III autorisant explicitement la copie ou la reproduction numérique d’œuvres en vue de fouille de textes et de données, quelle que soit la finalité de fouille.
Les risques persistants et à venir liés à la généralisation des systèmes d’intelligence artificielle générative.
Le développement du web avait déjà conduit à considérer l’ambivalence des apports du numérique dans le domaine culturel, à la fois facilitateur pour créer et diffuser des contenus et générateur de troubles tels que la banalisation de l’accès à des médias contrefaits via des plateformes de téléchargement [16]. L’ambivalence du numérique se manifeste à nouveau avec le développement des SIAG et une puissante industrie numérique (ayant d’ailleurs déjà bénéficié des ambivalences du développement du web) s’appropriant sans retenue tous les contenus numériques disponibles afin d’en extraire une valeur essentielle à leurs modèles d’apprentissage : l’originalité.
« Le chemin qui paraît maintenant se dessiner est celui d’accords de licence entre opérateurs majeurs ».
Voilà l’exact contexte conduisant l’industrie numérique à pouvoir aujourd’hui arbitrer entre « le respect de la loi et le prix de son non-respect, au détriment des opérateurs qui utilisent leurs outils et en dépendent même pour fournir leurs propres contenus, produits ou service en ligne » [17]. Microsoft a d’ailleurs assumé publiquement la protection juridique de ses utilisateurs contre des actions en contrefaçon [18]. Toutefois, comme pour le développement du web, les différentes industries impliquées vont (et sont déjà en train de) s’adapter. Les dispositions juridiques que nous venons d’examiner ambitionnent bien sûr de protéger dans la création, mais en laissant l’espace (et le temps) suffisant aux opérateurs majeurs des secteurs concernés pour redéfinir entre eux les équilibres de leur relation commerciale. Le chemin qui paraît maintenant se dessiner est celui d’accords de licence entre opérateurs majeurs : OpenAI a ainsi annoncé des partenariats avec Axel Springer (Politico, Business Insider, Bild, Welt) [19], Le Monde [20] et El Paìs [21].
Mais, comme pour le streaming, c’est maintenant la question de la rémunération des auteurs (et des modalités de cette rémunération) qui va être au cœur des débats à venir avec au moins deux questions : celle de la méthode et celle des revenus. En méthode, si l’on tient compte de la réalité technique d’entraînement et de fonctionnement des SIAG, comment valoriser de manière équitable les auteurs ? Le changement de paradigme auquel nous assistons justifie donc d’instruire en profondeur les caractéristiques du nouveau contexte socio-technique en train de se composer et contre lequel nous ne pouvons guère résister. C’est exactement le sens des recommandations de la Commission sur l’intelligence artificielle, dont la recommandation 17 du rapport rendu le 13 mars 2024 [22] incite l’écosystème français à « mettre en œuvre et évaluer les obligations de transparence prévues par le règlement européen sur l’IA en encourageant le développement de standards et d’une infrastructure adaptée ».
Ce texte est une synthèse d’un chapitre d’ouvrage à paraître en 2024 (FYP Editions). Les propos n’engagent que l’auteur.