Village de la Justice www.village-justice.com |
La contrefaçon à l’ère de l’intelligence artificielle : enjeux juridiques et perspectives pour la propriété intellectuelle. Par Maya Lahlouh, Avocate.
|
Parution : samedi 25 janvier 2025
Adresse de l'article original :
https://www.village-justice.com/articles/contrefacon-ere-intelligence-artificielle-enjeux-juridiques-perspectives-pour,52178.html Reproduction interdite sans autorisation de l'auteur. |
L’intelligence artificielle (IA) est aujourd’hui un vecteur central d’innovation dans divers secteurs créatifs, de l’art visuel à la musique, en passant par l’écriture et la conception de logiciels. Cependant, l’essor de l’IA soulève une question fondamentale en matière de droit de la propriété intellectuelle, particulièrement en ce qui concerne la contrefaçon : comment caractériser la contrefaçon lorsqu’un algorithme est capable de reproduire, transformer ou générer des œuvres protégées par des droits d’auteur ? Cet article cherche à explorer les contours juridiques de la contrefaçon dans un contexte où les algorithmes d’IA jouent un rôle de plus en plus important.
Le droit d’auteur, tel qu’il est défini par la législation française et européenne, protège les œuvres originales de l’esprit. Parmi les droits qui en découlent, le droit de reproduction [1] et le droit de représentation sont primordiaux. Ces droits permettent au titulaire d’une œuvre de contrôler son usage et d’interdire toute reproduction ou représentation sans son consentement.
L’un des premiers enjeux soulevés par l’intelligence artificielle réside dans sa capacité à reproduire, voire à copier, des œuvres protégées par les droits d’auteur. Lorsqu’un algorithme génère une œuvre qui ressemble de manière substantielle à une œuvre préexistante, il peut être considéré comme ayant effectué une reproduction non autorisée. Cela est d’autant plus problématique lorsque l’algorithme fonctionne à partir de bases de données d’œuvres protégées, sans l’autorisation préalable des titulaires des droits.
Prenons l’exemple des générateurs d’images ou de texte alimentés par des bases de données massives contenant des œuvres protégées. Ces algorithmes, lorsqu’ils produisent des créations visuelles ou littéraires, peuvent générer des résultats dont la similarité avec des œuvres préexistantes est telle qu’ils en deviennent des reproductions indirectes. Si cette reproduction se fait sans autorisation, elle peut constituer une contrefaçon. Ce risque se pose notamment dans les situations où l’IA « apprend » d’œuvres existantes, en s’appuyant sur un corpus d’exemples pour générer de nouvelles œuvres.
Le droit d’auteur protège également les œuvres dérivées, c’est-à-dire celles qui sont créées à partir d’une œuvre préexistante, mais qui comportent des éléments nouveaux. Toutefois, cette protection implique que la transformation ou la dérivation d’une œuvre protégée nécessite l’autorisation préalable du titulaire des droits. Dès lors, lorsqu’un algorithme produit une œuvre modifiée ou inspirée d’une œuvre protégée, cela peut être considéré comme une contrefaçon si cette transformation n’est pas suffisamment originale ou si elle empiète sur les droits du créateur de l’œuvre originale.
L’un des points les plus sensibles réside dans les données utilisées pour entraîner l’IA. Si un algorithme est formé sur un corpus d’œuvres protégées, il y a un risque que l’IA, au moment de la génération de nouvelles œuvres, reproduise ou transforme de manière non autorisée des éléments protégés par des droits d’auteur.
Dans le cadre d’un apprentissage supervisé, où l’IA est entraînée sur des ensembles de données comprenant des œuvres existantes, il est possible que l’algorithme apprenne des motifs ou des styles spécifiques à certaines œuvres protégées. Si l’IA génère une œuvre qui reflète trop fidèlement ces motifs ou styles, cela pourrait constituer une contrefaçon. En effet, même si l’IA ne reproduit pas littéralement l’œuvre, la similarité substantielle pourrait suffire à caractériser une reproduction.
L’apprentissage non supervisé, où l’algorithme génère des œuvres à partir de données non spécifiquement sélectionnées, introduit une nuance supplémentaire. Bien que l’IA ne s’appuie pas sur des œuvres spécifiques pour générer de nouvelles créations, il n’est pas impossible qu’un modèle génère des œuvres qui, par hasard, ressemblent à des œuvres protégées. L’absence d’intention de reproduire ou de transformer une œuvre protégée ne suffit pas à exclure la contrefaçon si la similarité est suffisamment évidente.
Ainsi, même si un algorithme produit une œuvre apparemment « originale », il est possible que cette œuvre porte une empreinte suffisante d’une œuvre protégée pour que la contrefaçon soit caractérisée.
L’originalité est un critère fondamental pour qu’une œuvre soit protégée par le droit d’auteur. En principe, l’œuvre doit refléter la personnalité de son auteur et résulter d’un effort créatif humain. Cependant, la question se pose de savoir si une œuvre générée par une IA peut être considérée comme originale et donc susceptible d’être protégée.
La législation actuelle sur le droit d’auteur, tant en France qu’au niveau européen, considère que seule une création humaine peut être protégée par des droits d’auteur. Cela signifie que les œuvres générées exclusivement par des IA, sans intervention humaine significative, risquent de ne pas bénéficier d’une protection traditionnelle. Cette absence de protection pourrait avoir des conséquences sur la manière dont la contrefaçon est appréciée, en particulier en ce qui concerne la paternité de l’œuvre.
Si une œuvre générée par une IA présente un degré suffisant d’originalité, qui lui permettrait théoriquement d’être protégée, il reste à déterminer qui en serait le titulaire. L’auteur traditionnel étant une personne physique, le fait qu’une IA génère une œuvre sans intervention humaine directe complique la question de la titularité des droits. L’absence de créateur humain met en lumière un vide juridique qui devra être comblé pour préciser qui serait responsable en cas de contrefaçon.
Enfin, une question fondamentale se pose : qui est responsable en cas de contrefaçon commise par une IA ? Est-ce l’utilisateur du logiciel, le concepteur de l’algorithme, ou l’IA elle-même ?
Dans de nombreux cas, l’utilisateur de l’outil IA pourrait être considéré comme responsable si l’œuvre générée viole les droits d’auteur, notamment si l’utilisateur choisit délibérément d’utiliser des bases de données non autorisées ou de modifier des œuvres protégées. L’utilisateur, en tant que décideur final du processus créatif, pourrait être tenu responsable de l’infraction.
Le créateur du logiciel ou de l’algorithme pourrait également être tenu responsable s’il ne met pas en place des mesures adéquates pour éviter la génération d’œuvres contrefaisantes. Cela inclut le respect des normes de propriété intellectuelle dans la conception des modèles et l’obligation d’obtenir des licences pour l’utilisation de données protégées.
En conclusion, l’intelligence artificielle pose des défis significatifs pour la caractérisation de la contrefaçon dans le domaine du droit d’auteur. La reproduction ou la transformation d’œuvres protégées par l’IA, l’utilisation de données d’apprentissage non autorisées, ainsi que la question de la titularité des droits sur les œuvres générées par IA, exigent une adaptation de la législation. Il devient impératif que le législateur prenne en compte les nouvelles réalités technologiques pour garantir une protection adéquate des droits d’auteur tout en encourageant l’innovation technologique.
Le droit d’auteur, dans sa forme actuelle, ne répond que partiellement aux questions soulevées par l’IA. Une révision du cadre juridique, pour l’adapter aux spécificités de l’IA, est donc inévitable afin de concilier la protection des créateurs et la liberté d’innovation technologique.
Maya Lahlouh, Avocate au Barreau de Paris[1] Article L122-3 du Code de la propriété intellectuelle.
Cet article est protégé par les droits d'auteur pour toute réutilisation ou diffusion, plus d'infos dans nos mentions légales ( https://www.village-justice.com/articles/Mentions-legales,16300.html#droits ).