Actualités

Imprimer 16/11/2025 IP/IT- Données personnelles

GEMA c. OpenAI (LG Munich, 11 nov. 2025) : la génération d’œuvres comme preuve de reproduction et la responsabilité du fournisseur par Lucien MAURIN

Le Tribunal régional de Munich (LG München I) a jugé, le 11 novembre 2025 (42 O 14139/24), qu’OpenAI avait reproduit neuf chansons protégées en raison de la mémorisation permettant leur réapparition en sortie des modèles. La reproduction est établie par la comparaison entre les données d’entraînement (inputs) et les textes générés (outputs). Le Tribunal écarte l’exception de text and data mining, jugeant que l’usage dépasse la simple analyse. La responsabilité incombe au fournisseur du modèle, les prompts des utilisateurs étant sans incidence juridique.

I. Une reproduction caractérisée par la capacité du modèle à restituer les œuvres protégées et par une méthode probatoire fondée sur inputs/outputs

Le Tribunal relève que trois modèles linguistiques d’OpenAI restituent, sur sollicitation, des passages complets ou quasi complets de neuf chansons du répertoire de la GEMA.
Un output correspond à la réponse textuelle générée par le modèle lorsqu’un utilisateur formule une requête. Si le modèle produit un texte protégé en output, le Tribunal en déduit qu’il en a nécessairement intégré les éléments lors de l’entraînement.

Durant cet entraînement, le modèle reçoit des textes appelés inputs : ce sont les données sur lesquelles il apprend. Même si ces textes sont transformés en valeurs numériques, ces transformations constituent une mémorisation paramétrique. Cette mémorisation est juridiquement qualifiée de reproduction, car elle permet ultérieurement de régénérer l’œuvre.

Le Tribunal applique un raisonnement probatoire en trois étapes :

  1. Les chansons figuraient dans les données d’entraînement (inputs).

  2. Elles réapparaissent dans les réponses générées (outputs).

  3. La complexité et l’étendue des textes excluent le hasard.

Cette démonstration suffit pour caractériser la reproduction au sens du droit d’auteur, sans investiguer la structure interne du modèle. L’approche consiste à dire : lorsque l’œuvre est identifiable à la sortie et qu’elle se trouvait à l’entrée, le lien causal est établi.

Le Tribunal rejette ensuite la demande fondée sur les droits de la personnalité des auteurs (attribution erronée de paroles), estimant que les éléments fournis ne permettent pas d’établir une atteinte juridiquement constituée.

Enfin, les deux parties proposaient de saisir la Cour de justice de l’Union européenne au titre de questions préjudicielles. Le Tribunal refuse, jugeant que les notions en cause (reproduction, TDM, reproduction temporaire) ne présentent aucune difficulté d’interprétation nécessitant un renvoi.

II. L’exclusion du text and data mining et l’affirmation d’une responsabilité structurelle du fournisseur

Le Tribunal écarte l’exception de text and data mining (TDM), prévue par le § 44b UrhG, transposant l’article 4 de la directive (UE) 2019/790. Cette exception autorise uniquement la fouille à des fins d’analyse, par exemple pour identifier des tendances ou extraire des informations générales.

Or, les modèles d’OpenAI ne se limitent pas à analyser les chansons utilisées en entraînement : ils sont capables de les restituer intégralement ou presque. Cette capacité de reproduction place l’usage en dehors du TDM, que le Tribunal décrit comme dépassé « matériellement et intentionnellement ». Le juge ne discute pas la question d’un éventuel opt-out, car l’exception est inapplicable par nature lorsque l’outil reproduit l’œuvre.

L’exception de reproduction temporaire est également exclue : la mémorisation dans les paramètres est durable et destinée à être exploitée pour générer ultérieurement des textes. Elle ne présente donc ni le caractère fugace ni la fonction exclusivement technique exigée.

Le Tribunal statue ensuite sur la responsabilité : elle incombe exclusivement à OpenAI, car le mécanisme de reproduction résulte des choix de conception et d’entraînement. Les prompts des utilisateurs, c’est-à-dire leurs instructions textuelles, sont considérés comme neutres juridiquement : ils activent une fonction préexistante du modèle mais n’en sont pas la cause.

La décision s’inscrit ainsi dans une logique de responsabilité structurelle : la contrefaçon prend naissance dans la construction même du modèle. L’utilisateur n’est pas à l’origine de la reproduction ; il ne fait que solliciter une capacité intégrée dans le système.

L’affaire Getty Images v. Stability AI ([2023] EWHC 3090 (Ch) :
https://www.judiciary.uk/wp-content/uploads/2025/11/Getty-Images-v-Stability-AI.pdf) aboutissait à l’inverse, faute de preuve que les œuvres étaient stockées dans le modèle ou sur le territoire britannique. La différence résulte donc non d’une divergence doctrinale, mais d’éléments factuels distincts : absence de stockage avéré au Royaume-Uni versus stockage reproductible établi en Allemagne.

OpenAI a annoncé interjeter appel, mais le jugement fixe déjà un cadre clair :

- la restitution d’une œuvre équivaut à sa reproduction,

- le TDM ne s’applique pas lorsque l’usage dépasse l’analyse,

- le fournisseur est responsable dès lors que la contrefaçon est incorporée au modèle.

Lucien MAURIN

#chatgpt #datamining #reproduction #oeuvre #chanson #lawprofiler #IA #AIGénérative #DroitDAuteur #Copyright #Contrefaçon #PropriétéIntellectuelle #TechLaw #TDM #GEMA #OpenAI