Affaire Jean Pormanove : Kick, spectateurs… qui est responsable ?

Affaire Jean Pormanove (JP) / Kick : quelles responsabilités pénales ?

Le décès de Jean Pormanove, alias JP, de son vrai nom Raphaël Graven, survenu le 18 août dernier, après plusieurs mois de violences diffusées en direct sur la plateforme Kick, a profondément choqué l’opinion publique. Au-delà de l’émotion légitime, cette affaire soulève des questions juridiques complexes relatives à la responsabilité pénale des différents acteurs impliqués.

Qui peut être tenu responsable de ces violences et de leur diffusion ? Les streamers ? La plateforme ? Les spectateurs financeurs ? Les autorités de régulation ?

Cette analyse se place exclusivement sur le terrain juridique, dans le respect du principe fondamental de la présomption d’innocence, aucune condamnation définitive n’ayant à ce stade été prononcée.


Les streamers auteurs présumés des violences

Deux streamers, connus sous les pseudonymes Naruto et Safine, font l’objet d’une enquête préliminaire ouverte par le procureur de la République de Nice, notamment pour des faits de violences volontaires en réunion sur personne vulnérable.

Ils ont été placés en garde à vue en janvier dernier, puis remis en liberté. L’enquête est toujours en cours.

De leur côté, les intéressés soutiennent que les violences diffusées relevaient d’un contenu à caractère humoristique, et que JP y aurait consenti, dans un objectif lucratif. Entendu par les services de police le 8 janvier, JP avait en effet évoqué des mises en scène consenties destinées à générer des revenus, déclarant percevoir environ 6 000 euros par mois grâce à ces vidéos.

Le consentement de la victime : un argument juridiquement inopérant

D’un point de vue juridique, la question du consentement de JP apparaît toutefois secondaire. Le droit français repose sur un principe fondamental : l’indisponibilité du corps humain. Nul ne peut disposer librement de son corps de manière à porter atteinte à son intégrité physique, même avec son consentement.

En dehors de certaines exceptions strictement encadrées (actes médicaux, activités sportives), le consentement de la victime ne constitue pas un fait justificatif en matière de violences volontaires. En conséquence, il n’exonère pas l’auteur de sa responsabilité pénale.

En revanche, l’éventuelle situation de vulnérabilité ou de handicap de JP est juridiquement déterminante, car elle pourrait constituer une circonstance aggravante, influant directement sur la qualification des faits et sur les peines encourues.


La responsabilité pénale de la plateforme Kick

La plateforme Kick est également au cœur des débats. Elle est soupçonnée d’avoir eu connaissance des contenus violents diffusés, voire de les avoir promus, sans intervenir suffisamment rapidement.

À la suite du décès de JP, le parquet de Paris a ouvert une enquête préliminaire pour fourniture en bande organisée de plateforme en ligne illicite, sur le fondement de l’article 323-3-2 du Code pénal.

Cette infraction vise notamment les plateformes qui ne respectent pas certaines obligations issues du règlement européen Digital Services Act (DSA), en particulier l’obligation d’informer les autorités compétentes de la commission d’infractions pénales constituant une menace pour la vie ou la sécurité des personnes.

Toutefois, pour que cette infraction soit constituée, il ne suffit pas de démontrer un manquement aux obligations du DSA. Il est également nécessaire d’établir que le fournisseur de la plateforme avait connaissance de transactions manifestement illicites commises par son intermédiaire.

La plateforme Kick se défend en invoquant plusieurs éléments :

  • la suspension temporaire, en 2024, des comptes des deux streamers à la suite d’un signalement de Mediapart ;

  • le bannissement définitif de ces comptes après le décès de JP ;

  • la suppression de la chaîne de JP à la demande de l’Arcom ;

  • sa coopération avec les autorités de régulation ;

  • la rupture de ses relations avec l’agence chargée de la gestion de son contenu en France ;

  • et l’annonce d’une révision complète de sa politique de modération pour les contenus francophones.

Il appartiendra à la justice de déterminer si ces éléments sont suffisants pour écarter sa responsabilité pénale, la plateforme bénéficiant elle aussi de la présomption d’innocence.


La responsabilité des spectateurs financeurs

L’affaire pose également la question de la responsabilité pénale des spectateurs ayant financé les lives, par le biais d’abonnements ou de dons. Certains d’entre eux auraient explicitement incité les streamers à maltraiter JP.

Au moment du décès de ce dernier, le live aurait permis de récolter plus de 36 000 euros.

En droit pénal, la responsabilité ne se limite pas aux auteurs directs des violences. Les personnes ayant aidé, facilité ou financé la commission d’une infraction peuvent voir leur responsabilité engagée en tant que complices.

Donner des instructions ou apporter un soutien financier en connaissance de cause peut donc, le cas échéant, caractériser la complicité. Là encore, l’appréciation relève de l’enquête judiciaire en cours.


Le rôle et les limites de l’Arcom

Enfin, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) fait l’objet de critiques quant à sa réactivité.

Elle a été alertée des violences sur JP par Mediapart dès décembre 2024, puis par la Ligue des droits de l’homme en février 2025. Certains lui reprochent de ne pas être intervenue, en comparaison avec l’Autorité nationale des jeux (ANJ), qui a réussi à faire bloquer en France, dès avril 2025, des streams de jeux illégaux sur Kick.

L’Arcom se défend en faisant valoir qu’elle n’est pas restée inactive :

  • elle a cherché à identifier les responsables de la plateforme dès le premier signalement ;

  • elle a travaillé en lien avec l’autorité allemande compétente, Kick ayant son siège en Australie ;

  • elle rappelle qu’une enquête judiciaire était déjà en cours ;

  • et surtout, elle souligne qu’elle ne dispose pas, en dehors de cas strictement limités (contenus pédopornographiques, terroristes ou pornographiques accessibles aux mineurs), du pouvoir d’ordonner le blocage d’un site ou d’un contenu.

La question se pose néanmoins de savoir si les pouvoirs de l’Arcom doivent être renforcés. Cette perspective soulève toutefois un risque évident de censure, ainsi que des interrogations budgétaires, dans un contexte de déficit public déjà important.


Conclusion

L’affaire Jean Pormanove met en lumière la complexité des responsabilités pénales à l’ère du streaming en direct. Streamers, plateformes, spectateurs et autorités de régulation sont autant d’acteurs dont le rôle doit être juridiquement analysé avec rigueur.

Il conviendra d’attendre l’issue des enquêtes et, le cas échéant, les décisions de justice, pour déterminer si des responsabilités pénales peuvent être engagées. Cette affaire souligne en tout état de cause la nécessité d’un encadrement juridique clair des pratiques de diffusion en ligne, sans céder ni à l’impunité, ni à la censure excessive.

Censure COVID : la vérité éclate enfin !

Censure des contenus liés au COVID‑19 : pressions gouvernementales et liberté d’expression

La crise sanitaire liée au COVID‑19 n’a pas seulement bouleversé nos systèmes de santé. Elle a également profondément affecté l’exercice de la liberté d’expression, en particulier sur les grandes plateformes numériques.

Durant cette période, des milliers d’articles, de vidéos et de comptes ont été supprimés, déréférencés, démonétisés ou rendus invisibles par des mécanismes de « shadow banning », souvent sans information claire ni contradictoire pour leurs auteurs. Ces suppressions visaient principalement des contenus critiquant la politique sanitaire des autorités publiques.

Longtemps qualifiées de théories complotistes, les accusations de censure gouvernementale viennent aujourd’hui d’être confirmées par les plateformes elles‑mêmes.


Des reconnaissances successives de pressions politiques

Après Twitter et Meta, c’est désormais la société Alphabet, maison mère de Google et YouTube, qui reconnaît avoir subi des pressions de l’administration Biden pour censurer certains contenus.

Les « Twitter Files »

Concernant Twitter, ces révélations ont émergé à travers les « Twitter Files », des documents internes rendus publics après le rachat de la plateforme par Elon Musk en octobre 2022. Ces documents montrent comment l’administration américaine est intervenue directement dans les processus de modération des contenus liés au COVID‑19.

Les aveux de Meta

S’agissant de Meta, Mark Zuckerberg a reconnu en août 2024 des pressions exercées sur Facebook et Instagram. Cette reconnaissance figure dans une lettre adressée à Jim Jordan, président de la commission judiciaire de la Chambre des représentants des États‑Unis, chargée depuis 2023 d’une enquête parlementaire sur les grandes plateformes.

Dans cette lettre, le dirigeant de Meta indique clairement :

« En 2021, des hauts responsables de l’administration Biden […] ont exercé à plusieurs reprises des pressions sur nos équipes pour censurer certains contenus liés au COVID‑19. Je pense que ces pressions gouvernementales étaient mauvaises, et je regrette que nous n’ayons pas été plus francs à ce sujet. »


Google et YouTube reconnaissent à leur tour les pressions

Dernière révélation en date : le 23 septembre 2025, les avocats de la société Alphabet ont adressé une lettre à Jim Jordan reconnaissant des pressions similaires concernant la modération de contenus sur YouTube.

Dans ce courrier, ils annoncent un changement de politique majeur :

YouTube offrira à tous les créateurs la possibilité de rejoindre à nouveau la plateforme si leurs chaînes ont été supprimées pour violation répétée des politiques relatives au COVID‑19 ou à l’intégrité des élections, politiques qui ne sont désormais plus en vigueur.

Cette reconnaissance a déjà produit des effets concrets.


Des chaînes rétablies après des années de censure

Dans les faits, plusieurs chaînes emblématiques ont récemment été restaurées :

  • la chaîne de Silvano Trotta, fermée en octobre 2020, a été rétablie le 26 septembre dernier après une demande formelle ;

  • la chaîne France Soir, supprimée en mars 2021 alors qu’elle comptait plus de 270 000 abonnés, a été restaurée le 10 octobre.

Pour toutes les personnes dont les contenus ou les comptes ont été censurés durant la période du COVID‑19, il est donc désormais possible de solliciter la réouverture de leurs chaînes et la republication de leurs vidéos.


Une critique explicite du règlement européen DSA

Dans leur lettre, les avocats de Google formulent également des critiques à l’encontre du Digital Services Act (DSA) de l’Union européenne.

Ce texte s’inscrit dans la continuité du code de conduite contre la désinformation élaboré par la Commission européenne. Or, ce dispositif prévoit la possibilité pour les très grandes plateformes de restreindre ou supprimer des contenus même lorsqu’ils sont licites.

Cette faculté soulève une difficulté majeure : elle fait peser un risque réel sur la liberté d’expression, en confiant à des acteurs privés un pouvoir quasi‑réglementaire de censure.


Une liberté d’expression fragile, même en démocratie

Ces révélations démontrent une réalité essentielle : la liberté d’expression n’est jamais définitivement acquise. Même dans des démocraties qui se présentent comme des modèles en la matière, elle peut être restreinte, contournée ou supprimée au nom de l’urgence, de la sécurité ou de la lutte contre la désinformation.

La crise du COVID‑19 a agi comme un révélateur du pouvoir considérable des plateformes numériques et de leur vulnérabilité aux pressions politiques.


Conclusion

Les aveux successifs de Twitter, Meta et Alphabet marquent un tournant. Ils obligent à repenser le rôle des plateformes, les limites de la modération des contenus et les garanties effectives de la liberté d’expression.

Plus que jamais, la vigilance s’impose. Défendre la liberté d’expression consiste aussi à dénoncer toute forme de censure, y compris — et surtout — lorsqu’elle émane des pouvoirs publics dans des contextes présentés comme exceptionnels.

Peut-on critiquer librement la justice ?

Peut-on critiquer la justice ? Liberté d’expression et protection du pouvoir judiciaire

La justice fait régulièrement l’objet de critiques, parfois virulentes, qui interrogent les fondements mêmes de l’État de droit. Les déclarations récentes de Nicolas Sarkozy, à la suite de sa condamnation, en sont une illustration marquante. Qualifiant la décision de justice d’« humiliation pour la France », de décision « haineuse » et d’« une gravité extrême pour l’État de droit », il a dénoncé ce qu’il estime être une injustice et une trahison.

Ces propos s’inscrivent dans un discours plus large, régulièrement entendu dans le débat public, dénonçant un supposé « gouvernement des juges », une justice idéologique, sévère avec les responsables politiques mais laxiste avec les délinquants multirécidivistes. Ces critiques posent une question juridique essentielle : peut-on librement discréditer la justice ?


Liberté d’expression : le principe

Le principe est clair : la liberté d’expression est une liberté fondamentale. Elle s’applique quelles que soient les personnes ou les institutions visées. À ce titre, la justice, comme toute autorité publique, peut faire l’objet de critiques.

Cependant, cette liberté n’est pas absolue. Concernant les attaques dirigées contre l’institution judiciaire, l’article 10 de la Convention européenne des droits de l’homme prévoit que la liberté d’expression peut être limitée afin de garantir l’autorité et l’impartialité du pouvoir judiciaire.

C’est dans ce cadre que le droit français a mis en place plusieurs infractions destinées à protéger la justice et les magistrats.


La protection pénale de la justice : une évolution du droit

Historiquement, cette protection reposait principalement sur la loi du 29 juillet 1881 relative à la liberté de la presse, qui prévoit les infractions de diffamation et d’injure à l’encontre des cours, tribunaux, fonctionnaires et magistrats.

En pratique, cette loi est aujourd’hui de plus en plus concurrencée, voire supplantée, par deux infractions prévues par le Code pénal :

  • le discrédit jeté sur une décision de justice ;

  • l’outrage à magistrat.


Le discrédit de la justice

L’infraction de discrédit de la justice est prévue par l’article 434-25 du Code pénal. Elle réprime le fait de chercher publiquement à jeter le discrédit sur une décision de justice dans des conditions de nature à porter atteinte à l’autorité ou à l’indépendance de la justice.

La peine encourue est de six mois d’emprisonnement et 7 500 euros d’amende.

La jurisprudence illustre la frontière délicate entre critique admissible et infraction pénale. Ont ainsi été sanctionnés des propos qualifiant une décision de « chef-d’œuvre d’incohérence, d’extravagance et d’abus de droit » ou affirmant qu’elle relevait d’une justice de classe et partiale.

À l’inverse, certaines critiques ont été jugées licites lorsqu’elles s’inscrivaient dans un débat d’intérêt général. Par exemple, des associations n’ont pas été condamnées pour avoir qualifié une décision concernant un mineur étranger d’« invraisemblable » et estimé que la juridiction avait « tordu le droit ».

L’article 434-25, alinéa 2, prévoit expressément que les commentaires techniques ou les critiques formulées en vue d’obtenir la modification ou l’annulation d’une décision ne constituent pas une infraction. La critique est alors justifiée par un objectif de débat public ou de défense des droits d’une partie.


L’outrage à magistrat

La seconde infraction majeure est celle d’outrage à magistrat, prévue par l’article 434-24 du Code pénal. Elle sanctionne les propos adressés à un magistrat, dans l’exercice de ses fonctions, lorsqu’ils portent atteinte à sa dignité ou au respect dû à sa fonction.

La peine encourue est de un an d’emprisonnement et 15 000 euros d’amende.

Le texte vise expressément des propos « non rendus publics ». Pourtant, la Cour de cassation adopte une interprétation extensive et admet que l’infraction puisse être constituée même lorsque les propos sont diffusés publiquement. En mars dernier, elle a ainsi appliqué cette infraction à des insultes proférées lors d’un live Facebook à l’encontre d’une juge.

Cette interprétation soulève des interrogations, notamment au regard du principe d’interprétation stricte du droit pénal et de l’existence, dans la loi de 1881, d’infractions spécifiques de diffamation et d’injure publiques envers les magistrats.


Une mise à l’écart progressive de la loi de 1881

La substitution progressive des infractions du Code pénal à celles de la loi de 1881 n’est pas neutre. La loi de 1881 offre en effet des garanties procédurales renforcées en faveur de la liberté d’expression :

  • un délai de prescription très court de trois mois ;

  • des exigences strictes de qualification et d’articulation des faits.

À l’inverse, le Code pénal prévoit un délai de prescription de six ans et un formalisme bien moins protecteur. Cette évolution renforce la protection de la justice, mais réduit corrélativement l’espace de la liberté d’expression.


Internet, réseaux sociaux et adaptation du droit

Cette évolution s’explique en partie par l’apparition de nouveaux supports d’expression. La loi de 1881, conçue pour la presse écrite, est mal adaptée à l’ère numérique. Elle ne distingue pas entre un support papier, par nature éphémère, et un support numérique, durable et potentiellement viral.

L’adaptation du droit apparaît donc nécessaire pour protéger la réputation des institutions et des magistrats à l’ère des réseaux sociaux.

Mais une question demeure : pourquoi ces protections renforcées bénéficieraient-elles uniquement à la justice et non aux citoyens ordinaires, toujours soumis au régime plus exigeant de la loi de 1881 ?


Une fracture croissante entre justice et justiciables ?

Ces évolutions juridiques interrogent sur leurs effets à long terme. Selon un sondage CSA publié début novembre, 51 % des Français déclarent ne pas faire confiance à la justice.

Dans un contexte de défiance institutionnelle, le risque est réel d’aggraver la fracture entre la justice et les justiciables, en donnant le sentiment que l’institution judiciaire bénéficie d’une protection pénale renforcée là où le citoyen ordinaire ne le peut pas.


La question des moyens de la justice

Enfin, la réflexion ne peut être dissociée de la question budgétaire. Sur 1 000 euros d’impôts, environ 5 euros seulement sont consacrés à la justice.

Si la justice constitue l’un des piliers fondamentaux de la démocratie, cette situation interroge : avec des moyens aussi limités, peut-on réellement parler de respect de la justice et, par extension, du justiciable ?


Conclusion

Critiquer la justice est possible et légitime dans une démocratie. Mais cette critique connaît des limites juridiques destinées à préserver l’autorité et l’indépendance du pouvoir judiciaire.

L’enjeu est de trouver un équilibre délicat entre la protection de l’institution judiciaire, l’adaptation du droit aux nouveaux modes d’expression et le respect effectif de la liberté d’expression. À défaut, le risque est d’accroître la défiance envers une institution pourtant essentielle au fonctionnement de l’État de droit.

Faut-il supprimer l’audiovisuel public ? Ce que j’ai dit à la commission d’enquête parlementaire

Neutralité, fonctionnement et financement de l’audiovisuel public : une analyse juridique

Jeudi dernier, j’ai eu l’honneur d’être auditionné par la commission d’enquête parlementaire sur la neutralité, le fonctionnement et le financement de l’audiovisuel public. Cette audition a été l’occasion de revenir, d’un point de vue strictement juridique, sur l’évolution du paysage audiovisuel français et sur les questions fondamentales que pose aujourd’hui l’existence même du service public de l’audiovisuel.

Vous pouvez retrouver l’intégralité de cette audition dans le descriptif de la vidéo associée. Voici, en synthèse, les principaux constats et interrogations que j’ai souhaité partager.


Un paysage audiovisuel profondément transformé

Depuis l’adoption de la loi du 30 septembre 1986 relative à la liberté de la communication, le paysage audiovisuel français a été totalement bouleversé.

En 1986, l’offre audiovisuelle était largement dominée par les chaînes publiques, tandis que les premières chaînes privées commençaient à émerger. Aujourd’hui, avec le développement de l’Internet, du câble, de la TNT et du satellite, ce sont plusieurs centaines de chaînes de télévision et près de 900 radios privées qui sont accessibles en France, dont de nombreuses chaînes d’information en continu.

Cette évolution a conduit à une pluralité sans précédent des contenus et des opinions exprimées.


Une première contradiction : le pluralisme des chaînes privées

Malgré cette explosion de l’offre audiovisuelle, on observe un renforcement de l’obligation de pluralisme interne pesant sur certaines chaînes privées, comme c’est le cas pour la chaîne CNEWS.

D’un point de vue juridique, cette exigence soulève une difficulté. La Cour européenne des droits de l’homme admet en effet qu’un déficit de pluralisme interne peut être compensé par l’existence d’un pluralisme externe.

Or, dans un environnement où l’offre audiovisuelle s’est considérablement diversifiée, il devient délicat de reprocher à une chaîne donnée de ne pas représenter l’ensemble des opinions existantes. Cette question a notamment été abordée dans la jurisprudence du Conseil d’État, en particulier dans l’arrêt RSF, auquel je renvoie pour un approfondissement de cette problématique.


Une seconde contradiction : le financement croissant du service public

La seconde contradiction majeure concerne le financement de l’audiovisuel public.

Le budget de France Télévisions et de Radio France n’a cessé d’augmenter pour atteindre aujourd’hui plus de 4 milliards d’euros. Cette évolution interroge, alors même que l’offre privée s’est largement développée.

Dans un contexte de multiplication des acteurs privés, on aurait pu légitimement s’attendre à une réduction progressive du périmètre et du financement du service public audiovisuel.

À cette question budgétaire s’ajoute une contrainte juridique spécifique : à la différence des chaînes privées, le service public audiovisuel est soumis à une obligation renforcée de neutralité et d’impartialité.


Neutralité et impartialité : une exigence juridique renforcée

La loi du 24 août 2021 confortant le respect des principes de la République a réaffirmé l’obligation de neutralité du service public. Cette exigence implique une vigilance particulière quant à l’expression d’opinions politiques ou religieuses dans le cadre des missions de service public.

Or, selon plusieurs sondages récents, une majorité de Français estime que le service public audiovisuel ne respecte pas pleinement cette exigence d’impartialité. Ce décalage entre les obligations juridiques et la perception du public alimente le débat sur la légitimité actuelle du service public audiovisuel.


Faut-il maintenir le service public audiovisuel ? Une question juridique

La question centrale n’est pas politique, mais juridique : faut-il maintenir le service public audiovisuel, le réformer en profondeur, ou envisager sa suppression ou sa privatisation ?

En droit français, l’existence d’un service public ne repose pas sur la seule volonté politique. Elle est conditionnée par un principe fondamental : le principe de nécessité du service public. À l’instar du principe de nécessité de l’impôt, un service public ne se justifie que s’il répond à une nécessité d’intérêt général.

Dès lors, une interrogation s’impose : quelle est aujourd’hui la nécessité de maintenir un service public audiovisuel financé par l’impôt, alors qu’il existe une offre privée extrêmement abondante et que la neutralité de ce service public est contestée par une partie significative de la population ?


Quelles pistes de réforme ?

Si certains programmes du service public devaient être maintenus au nom de l’intérêt général, plusieurs pistes peuvent être envisagées pour renforcer le respect des principes qui lui incombent :

  • définir plus précisément dans la loi les notions de neutralité, d’impartialité et de pluralisme, afin de réduire l’incertitude juridique ;

  • renforcer l’indépendance de l’ARCOM, dont le président est aujourd’hui désigné par le président de la République, ce qui interroge sur son autonomie réelle ;

  • mieux informer les citoyens de la possibilité de saisir l’ARCOM pour faire respecter ces obligations, à l’image de l’information obligatoire prévue en matière de protection des données personnelles devant la CNIL ;

  • améliorer l’identification des chaînes du service public, afin que les téléspectateurs sachent clairement lorsqu’ils regardent une chaîne financée par l’État.


Le projet de label des contenus : une fausse solution ?

Enfin, la commission a évoqué le projet de création d’un label visant à identifier les contenus dits « de qualité ». À ce sujet, j’ai rappelé qu’il existe déjà des mécanismes comparables, notamment à travers l’ARCOM pour l’audiovisuel et la CPPAP pour la presse.

En pratique, ces autorités rencontrent déjà des difficultés à faire respecter les principes existants. Dans ces conditions, la création d’un nouveau label ne semble ni nécessaire ni prioritaire.


Conclusion

L’audition devant la commission d’enquête parlementaire a permis de mettre en lumière une question essentielle : l’audiovisuel public doit être juridiquement justifié, financièrement proportionné et strictement conforme à ses obligations de neutralité et d’impartialité.

Dans un paysage audiovisuel profondément renouvelé, la réflexion sur son avenir ne peut être éludée. Elle doit reposer sur des critères juridiques clairs et sur une exigence constante de respect de l’intérêt général.

IA et droit d’auteur : contrefaçon ?!

IA et droit d’auteur : contrefaçon ou exception de fouille ?

L’essor de l’intelligence artificielle soulève une question juridique majeure : l’utilisation de données protégées par le droit d’auteur constitue-t-elle une contrefaçon ?

Deux décisions récentes rendues par les tribunaux allemands de Munich et de Hambourg apportent désormais des éléments de réponse clairs. Leur portée dépasse largement le cadre national, car le droit d’auteur est aujourd’hui largement harmonisé au niveau européen. Ces solutions sont donc susceptibles de s’appliquer également en France.

Ces affaires, loin de se contredire, permettent de tracer une frontière précise entre ce qui relève de la contrefaçon et ce qui peut bénéficier de l’exception de fouille de textes et de données.


L’affaire de Munich : la consécration du principe de contrefaçon

Dans l’affaire jugée à Munich, le tribunal a considéré qu’il y avait contrefaçon.

Le raisonnement repose sur un principe fondamental du droit d’auteur : toute reproduction ou communication au public d’une œuvre protégée, sans l’autorisation de son auteur, constitue une contrefaçon. Ce principe s’applique pleinement aux systèmes d’intelligence artificielle.

Le litige opposait la société GEMA, organisme de gestion collective des droits d’auteur en Allemagne (équivalent de la SACEM en France), à la société OpenAI, exploitant du modèle ChatGPT. Il était reproché à ChatGPT de permettre la restitution de paroles de chansons protégées par le droit d’auteur.

Or, juridiquement, les paroles de chansons constituent des œuvres protégées. Lorsque l’intelligence artificielle restitue ces paroles de manière reconnaissable, elle ne se limite plus à une analyse technique : elle reproduit l’œuvre et la communique au public.

C’est pour cette raison que le tribunal de Munich a retenu l’existence d’une contrefaçon. La décision fait l’objet d’un appel, mais le message adressé aux acteurs de l’IA est sans ambiguïté : la restitution d’une œuvre protégée constitue une infraction de contrefaçon.

Cette logique se traduit aujourd’hui de manière concrète : les systèmes d’IA intègrent désormais des filtres empêchant la restitution de contenus protégés, comme les paroles de chansons.


L’affaire de Hambourg : l’application de l’exception de fouille

À l’inverse, le tribunal de Hambourg a fait application d’une exception essentielle prévue par le droit européen : l’exception de fouille de textes et de données.

Cette exception permet l’analyse automatisée d’œuvres protégées, notamment dans le cadre de la recherche scientifique ou de l’entraînement des intelligences artificielles, à condition que l’IA se limite à analyser l’œuvre sans la restituer.

Dans cette affaire, une photographie protégée par le droit d’auteur avait été utilisée pour constituer un jeu de données destiné à entraîner une IA. Le photographe estimait que ses droits avaient été violés.

Le tribunal a toutefois relevé plusieurs éléments déterminants :

  • l’utilisation poursuivait un objectif scientifique,

  • elle n’avait pas de finalité commerciale,

  • et surtout, la photographie ne pouvait pas être restituée par l’intelligence artificielle.

Dans ces conditions, les juges ont considéré que l’exception de fouille s’appliquait. L’IA se contentait d’analyser l’œuvre sans la reproduire. Il n’y avait donc pas de contrefaçon.


Une frontière juridique désormais clairement établie

Les décisions de Munich et de Hambourg ne sont pas contradictoires : elles sont complémentaires.

Elles permettent de dégager une règle simple et structurante pour les acteurs de l’intelligence artificielle :

  • si l’IA restitue une œuvre protégée, il y a contrefaçon ;

  • si l’IA se limite à analyser une œuvre sans restitution, l’exception de fouille peut s’appliquer.

Cette distinction impose aux développeurs d’IA de mettre en place des mécanismes techniques efficaces afin d’empêcher toute restitution de contenus protégés par le droit d’auteur.


L’opt-out : une limite supplémentaire à ne pas négliger

La mise en place de filtres techniques ne suffit toutefois pas à éliminer tout risque juridique.

Le droit européen reconnaît aux auteurs la possibilité de s’opposer à la fouille de leurs œuvres, notamment lorsqu’elle est réalisée à des fins commerciales. Ce mécanisme est connu sous le nom d’opt-out.

Lorsqu’un auteur a valablement exercé ce droit d’opposition, l’exception de fouille ne peut plus être invoquée pour son œuvre.

Cela implique pour les développeurs et exploitants d’IA une double vigilance :

  • en aval, afin d’empêcher toute restitution d’œuvres protégées ;

  • en amont, afin d’éviter l’utilisation de contenus ayant fait l’objet d’un opt-out.


Conclusion

Ces décisions marquent une étape importante dans l’encadrement juridique de l’intelligence artificielle en Europe. Elles offrent une grille de lecture claire : l’IA peut analyser, mais elle ne peut pas restituer.

Dans un contexte d’innovation technologique rapide, le respect du droit d’auteur demeure une exigence fondamentale, appelant les acteurs de l’IA à concilier performance technique et sécurité juridique.