L’essor de l’intelligence artificielle soulève une question juridique majeure : l’utilisation de données protégées par le droit d’auteur constitue-t-elle une contrefaçon ?
Deux décisions récentes rendues par les tribunaux allemands de Munich et de Hambourg apportent désormais des éléments de réponse clairs. Leur portée dépasse largement le cadre national, car le droit d’auteur est aujourd’hui largement harmonisé au niveau européen. Ces solutions sont donc susceptibles de s’appliquer également en France.
Ces affaires, loin de se contredire, permettent de tracer une frontière précise entre ce qui relève de la contrefaçon et ce qui peut bénéficier de l’exception de fouille de textes et de données.
Dans l’affaire jugée à Munich, le tribunal a considéré qu’il y avait contrefaçon.
Le raisonnement repose sur un principe fondamental du droit d’auteur : toute reproduction ou communication au public d’une œuvre protégée, sans l’autorisation de son auteur, constitue une contrefaçon. Ce principe s’applique pleinement aux systèmes d’intelligence artificielle.
Le litige opposait la société GEMA, organisme de gestion collective des droits d’auteur en Allemagne (équivalent de la SACEM en France), à la société OpenAI, exploitant du modèle ChatGPT. Il était reproché à ChatGPT de permettre la restitution de paroles de chansons protégées par le droit d’auteur.
Or, juridiquement, les paroles de chansons constituent des œuvres protégées. Lorsque l’intelligence artificielle restitue ces paroles de manière reconnaissable, elle ne se limite plus à une analyse technique : elle reproduit l’œuvre et la communique au public.
C’est pour cette raison que le tribunal de Munich a retenu l’existence d’une contrefaçon. La décision fait l’objet d’un appel, mais le message adressé aux acteurs de l’IA est sans ambiguïté : la restitution d’une œuvre protégée constitue une infraction de contrefaçon.
Cette logique se traduit aujourd’hui de manière concrète : les systèmes d’IA intègrent désormais des filtres empêchant la restitution de contenus protégés, comme les paroles de chansons.
À l’inverse, le tribunal de Hambourg a fait application d’une exception essentielle prévue par le droit européen : l’exception de fouille de textes et de données.
Cette exception permet l’analyse automatisée d’œuvres protégées, notamment dans le cadre de la recherche scientifique ou de l’entraînement des intelligences artificielles, à condition que l’IA se limite à analyser l’œuvre sans la restituer.
Dans cette affaire, une photographie protégée par le droit d’auteur avait été utilisée pour constituer un jeu de données destiné à entraîner une IA. Le photographe estimait que ses droits avaient été violés.
Le tribunal a toutefois relevé plusieurs éléments déterminants :
l’utilisation poursuivait un objectif scientifique,
elle n’avait pas de finalité commerciale,
et surtout, la photographie ne pouvait pas être restituée par l’intelligence artificielle.
Dans ces conditions, les juges ont considéré que l’exception de fouille s’appliquait. L’IA se contentait d’analyser l’œuvre sans la reproduire. Il n’y avait donc pas de contrefaçon.
Les décisions de Munich et de Hambourg ne sont pas contradictoires : elles sont complémentaires.
Elles permettent de dégager une règle simple et structurante pour les acteurs de l’intelligence artificielle :
si l’IA restitue une œuvre protégée, il y a contrefaçon ;
si l’IA se limite à analyser une œuvre sans restitution, l’exception de fouille peut s’appliquer.
Cette distinction impose aux développeurs d’IA de mettre en place des mécanismes techniques efficaces afin d’empêcher toute restitution de contenus protégés par le droit d’auteur.
La mise en place de filtres techniques ne suffit toutefois pas à éliminer tout risque juridique.
Le droit européen reconnaît aux auteurs la possibilité de s’opposer à la fouille de leurs œuvres, notamment lorsqu’elle est réalisée à des fins commerciales. Ce mécanisme est connu sous le nom d’opt-out.
Lorsqu’un auteur a valablement exercé ce droit d’opposition, l’exception de fouille ne peut plus être invoquée pour son œuvre.
Cela implique pour les développeurs et exploitants d’IA une double vigilance :
en aval, afin d’empêcher toute restitution d’œuvres protégées ;
en amont, afin d’éviter l’utilisation de contenus ayant fait l’objet d’un opt-out.
Ces décisions marquent une étape importante dans l’encadrement juridique de l’intelligence artificielle en Europe. Elles offrent une grille de lecture claire : l’IA peut analyser, mais elle ne peut pas restituer.
Dans un contexte d’innovation technologique rapide, le respect du droit d’auteur demeure une exigence fondamentale, appelant les acteurs de l’IA à concilier performance technique et sécurité juridique.
