Amende de 120 millions d’euros contre X : une première sous le DSA

Le 5 décembre dernier, la Commission européenne a infligé une amende de 120 millions d’euros au réseau social X, anciennement Twitter. Cette décision est historique : c’est la première fois qu’une plateforme est sanctionnée sur le fondement du Digital Services Act (DSA).

Si cette sanction n’est pas totalement surprenante — X étant dans le viseur de la Commission depuis près de deux ans — les griefs retenus, eux, ont déjoué certaines attentes.


Une sanction inattendue dans ses fondements

Beaucoup s’attendaient à une condamnation directe pour manquement aux obligations relatives aux risques systémiques de désinformation. X n’a en effet pas adhéré au Code de conduite contre la désinformation, ce qui laissait présager une sanction sur ce terrain.

Or la Commission européenne a fait un autre choix. X est sanctionnée non pas pour désinformation en tant que telle, mais pour manquements à ses obligations de transparence envers les utilisateurs.

Ces manquements n’en demeurent pas moins étroitement liés aux risques de désinformation. Les trois infractions retenues illustrent cette logique.


Première infraction : les badges bleus et les dark patterns

La première infraction, la plus visible, concerne le système des badges bleus.

À l’origine, ce badge permettait de certifier l’identité d’un compte et de lutter contre les faux profils, les usurpations d’identité et les arnaques. Depuis 2024, à la suite des décisions d’Elon Musk, ce badge peut être obtenu via un simple abonnement payant, sans vérification d’identité.

Ce changement induit l’utilisateur en erreur : un compte peut apparaître comme certifié et fiable alors qu’il s’agit d’un robot ou d’un escroc. Ces faux comptes constituent un vecteur évident de désinformation.

L’article 25 du DSA interdit formellement l’usage d’interfaces trompeuses, également appelées dark patterns. C’est sur ce fondement que repose la première condamnation de X.


Deuxième infraction : l’opacité publicitaire

La deuxième infraction concerne la transparence de la publicité en ligne.

L’article 39 du DSA impose aux plateformes de tenir un registre publicitaire clair et accessible. Les utilisateurs doivent pouvoir savoir :

  • qui finance une publicité ;

  • pourquoi elle leur est affichée ;

  • quel est son contenu exact.

Ces exigences sont essentielles pour détecter les arnaques, mais aussi les campagnes d’ingérence étrangère et les risques de désinformation.

Or le système publicitaire de X a été jugé trop complexe, incomplet et instable, notamment en raison de nombreux dysfonctionnements techniques. La Commission a donc retenu un manquement à l’article 39 du DSA.


Troisième infraction : le verrouillage des données aux chercheurs

La troisième infraction est sans doute la plus directement liée à la désinformation. Elle concerne la violation de l’article 40 du DSA.

Cet article oblige les très grandes plateformes à fournir un accès à leurs données aux chercheurs agréés. L’objectif est de permettre des audits indépendants afin d’identifier l’existence de risques systémiques, notamment en matière de désinformation.

L’enquête de la Commission a révélé que X a multiplié les obstacles techniques et juridiques pour empêcher cet accès. La plateforme interdit notamment le scraping, c’est-à-dire l’extraction automatisée de données par les chercheurs.

Résultat : il est impossible de vérifier de manière indépendante si X présente des risques systémiques de désinformation. C’est pour cette raison que la plateforme est sanctionnée pour violation de l’article 40, sans être condamnée directement pour désinformation.


Une procédure encore en cours

L’amende de 120 millions d’euros ne constitue pas l’aboutissement définitif de la procédure.

X a été mise en demeure de :

  • corriger son système de badges dans un délai de 60 jours ;

  • rendre son registre publicitaire pleinement transparent ;

  • ouvrir l’accès à ses données aux chercheurs dans un délai de 90 jours.

À défaut de mise en conformité, la Commission européenne pourra prononcer de nouvelles sanctions, notamment des astreintes financières journalières.


Une réaction politique et géopolitique virulente

La réaction de X a été particulièrement virulente. La plateforme a d’abord bloqué le compte publicitaire de la Commission européenne. Elon Musk a ensuite qualifié l’amende de « bullshit » et a appelé à la dissolution pure et simple de l’Union européenne, qu’il compare à un régime totalitaire.

Aux États-Unis, certains proches de Donald Trump ont dénoncé une prétendue « taxe sur la liberté d’expression » et évoqué des représailles commerciales contre l’Union européenne.


Un bras de fer qui dépasse le droit

Cette décision dépasse largement le cadre juridique. Elle illustre un bras de fer politique et économique entre l’Union européenne et les États-Unis.

D’un côté, l’Europe cherche à affirmer sa souveraineté numérique et à imposer ses règles aux grandes plateformes. De l’autre, X et une partie de la classe politique américaine contestent frontalement cette régulation.

La stratégie de X contraste d’ailleurs avec celle de TikTok, également sous enquête, mais qui a choisi d’adapter ses pratiques pour éviter une sanction.

D’autres procédures sont en cours, notamment à l’encontre de Meta, ce qui laisse présager que ce type de contentieux est loin d’être terminé.


Conclusion

Avec cette amende, la Commission européenne envoie un signal clair : le Digital Services Act n’est pas un texte symbolique, mais un instrument de régulation effectif.

La question n’est désormais plus de savoir si l’Union européenne utilisera ses nouveaux pouvoirs, mais jusqu’où elle est prête à aller pour imposer ses règles aux géants du numérique.

IA et droit d’auteur : contrefaçon ou exception de fouille ?

IA et droit d’auteur : contrefaçon ou exception de fouille ?

L’essor fulgurant de l’intelligence artificielle soulève une question juridique centrale : l’utilisation de données protégées par le droit d’auteur constitue-t-elle une contrefaçon ?

Longtemps incertaine, la réponse commence désormais à se préciser grâce à deux décisions majeures rendues par les tribunaux allemands de Munich et de Hambourg. Leur portée dépasse largement le cadre national, le droit d’auteur étant aujourd’hui largement harmonisé au niveau européen. Ces solutions sont donc susceptibles de s’appliquer également en France.

Loin d’être contradictoires, ces deux décisions se complètent et permettent de tracer une frontière claire entre ce qui relève de la contrefaçon et ce qui peut bénéficier de l’exception de fouille de textes et de données.


L’affaire de Munich : le rappel du principe de contrefaçon

Dans l’affaire jugée à Munich, le tribunal a considéré qu’il y avait contrefaçon.

Le raisonnement repose sur un principe fondamental du droit d’auteur : toute reproduction ou communication au public d’une œuvre protégée, sans autorisation de son auteur, constitue une contrefaçon. Ce principe s’applique pleinement aux systèmes d’intelligence artificielle.

Le litige opposait la société GEMA, organisme allemand de gestion collective des droits d’auteur (équivalent de la SACEM), à la société OpenAI, exploitant de ChatGPT. Il était reproché à cette IA de permettre la restitution reconnaissable de paroles de chansons protégées par le droit d’auteur.

Or, juridiquement, les paroles de chansons constituent des œuvres protégées. Lorsqu’une intelligence artificielle les restitue de manière reconnaissable, elle ne se contente plus d’une analyse technique : elle reproduit l’œuvre et la communique au public.

C’est pour cette raison que le tribunal de Munich a retenu l’existence d’une contrefaçon. La décision fait actuellement l’objet d’un appel, mais le message adressé aux acteurs de l’IA est clair : la restitution d’une œuvre protégée expose à une responsabilité pour contrefaçon.

Cette logique se traduit déjà dans la pratique. Les systèmes d’IA intègrent désormais des filtres empêchant la restitution de contenus protégés, comme les paroles de chansons.


L’affaire de Hambourg : l’application de l’exception de fouille

À l’inverse, le tribunal de Hambourg a appliqué une exception essentielle prévue par le droit européen : l’exception de fouille de textes et de données.

Cette exception permet l’analyse automatisée d’œuvres protégées, notamment dans le cadre de la recherche scientifique ou de l’entraînement des intelligences artificielles, à la condition que l’IA se limite à analyser l’œuvre sans la restituer.

Dans cette affaire, une photographie protégée avait été utilisée pour constituer un jeu de données destiné à entraîner une IA. Le photographe estimait que ses droits avaient été violés.

Le tribunal a toutefois relevé plusieurs éléments déterminants :

  • l’utilisation poursuivait un objectif scientifique ;

  • elle ne présentait pas de finalité commerciale ;

  • surtout, la photographie ne pouvait pas être restituée par l’intelligence artificielle.

Dans ces conditions, les juges ont considéré que l’exception de fouille s’appliquait. L’IA analysait l’œuvre sans la reproduire. Il n’y avait donc pas de contrefaçon.


Une frontière juridique désormais clairement établie

Les décisions de Munich et de Hambourg permettent de dégager une règle simple et structurante pour les acteurs de l’intelligence artificielle :

  • si l’IA restitue une œuvre protégée, il y a contrefaçon ;

  • si l’IA se limite à analyser l’œuvre sans restitution, l’exception de fouille peut s’appliquer.

Cette distinction impose aux développeurs d’IA de mettre en place des mécanismes techniques efficaces afin d’empêcher toute restitution de contenus protégés par le droit d’auteur.


L’opt-out : une limite supplémentaire à l’exception de fouille

La mise en place de filtres techniques ne suffit toutefois pas à éliminer tout risque juridique.

Le droit européen reconnaît aux auteurs la possibilité de s’opposer à la fouille de leurs œuvres, notamment lorsqu’elle est réalisée à des fins commerciales. Ce mécanisme est connu sous le nom d’opt-out.

Lorsqu’un auteur a exercé ce droit d’opposition, l’exception de fouille ne peut plus être invoquée pour son œuvre.

Cela implique pour les développeurs et exploitants d’IA une double vigilance :

  • en aval, pour empêcher toute restitution d’œuvres protégées ;

  • en amont, pour éviter l’entraînement des modèles sur des contenus ayant fait l’objet d’un opt-out.


Conclusion

Les décisions de Munich et de Hambourg marquent une étape importante dans l’encadrement juridique de l’intelligence artificielle en Europe. Elles offrent une grille de lecture claire : l’IA peut analyser, mais elle ne peut pas restituer.

Dans un contexte d’innovation technologique rapide, le respect du droit d’auteur demeure une exigence fondamentale. Les acteurs de l’IA devront concilier performance technique, conformité juridique et respect des droits des créateurs.

Digital Omnibus : l’Europe allège-t-elle le droit du numérique ?

Digital Omnibus : l’Europe allège-t-elle le droit du numérique ?

Depuis plusieurs années, les entreprises européennes évoluent dans un environnement juridique de plus en plus dense. Règlement général sur la protection des données (RGPD), règlement sur l’intelligence artificielle (IA Act), directive NIS 2 sur la cybersécurité, Data Act sur les objets connectés : le droit du numérique s’est considérablement étoffé.

Ces textes poursuivent des objectifs légitimes — protection des données, sécurité, confiance numérique — mais ils ont aussi généré des obligations lourdes et coûteuses, en particulier pour les entreprises du numérique et les startups.

C’est dans ce contexte qu’est intervenu un coup de théâtre.


Le tournant du 19 novembre : les projets « Digital Omnibus »

Le 19 novembre dernier, la Commission européenne a présenté deux projets de règlements baptisés Digital Omnibus. Leur objectif est clair : simplifier et alléger une partie des obligations issues des grandes réformes numériques récentes.

Cette initiative soulève immédiatement plusieurs questions. S’agit-il d’une prise de conscience tardive de l’impact économique de ces textes sur la compétitivité européenne ? Ou d’un ajustement contraint, sous la pression des États-Unis et des grandes entreprises technologiques américaines ?

Pour y répondre, il faut examiner le contenu même de ces projets.


Le Digital Omnibus sur l’intelligence artificielle

Le premier projet concerne l’intelligence artificielle. Il vise à simplifier le règlement sur l’IA adopté le 13 juin 2024.

Le calendrier interpelle : à peine adopté, et alors même qu’il n’est pas encore pleinement entré en application, le règlement IA ferait déjà l’objet de modifications substantielles. Cela pose une question plus large sur la capacité de l’Union européenne à réguler un secteur technologique en évolution rapide.

Un report des principales obligations

Le projet prévoit un allègement significatif des obligations pesant sur les fournisseurs d’IA :

  • les règles applicables aux systèmes d’IA à haut risque, initialement prévues pour août 2026, seraient repoussées à décembre 2027 ;

  • les fournisseurs de modèles d’IA de type ChatGPT bénéficieraient également d’un report, leurs obligations étant décalées à 2027 alors qu’elles devaient s’appliquer dès août 2025.

Données personnelles et données sensibles

Le texte propose également de clarifier l’usage de la base légale de l’intérêt légitime pour l’entraînement des modèles d’IA, afin d’en faciliter l’utilisation.

Plus encore, il envisagerait, à titre exceptionnel, l’utilisation de données de santé ou biométriques pour améliorer la fiabilité des algorithmes. Une orientation qui suscite déjà de vifs débats.


Le Digital Omnibus sur les acquis digitaux

Le second projet porte sur les « acquis digitaux » et vise principalement le droit des données personnelles.

Une redéfinition de la donnée personnelle

La définition même de la donnée personnelle serait revue à la baisse, en s’alignant sur une interprétation récente de la Cour de justice de l’Union européenne. Une information ne serait considérée comme personnelle que si le responsable de traitement dispose de moyens raisonnables d’identifier la personne concernée.

La fin annoncée des bannières cookies répétitives

Le projet prévoit également une réforme très attendue sur les cookies. Les utilisateurs pourraient paramétrer leurs choix une seule fois directement dans leur navigateur, mettant fin à l’obligation de consentir ou de refuser les cookies sur chaque site.

Notifications de violations de données

Enfin, en cas de violation de données personnelles, le délai de notification à la CNIL passerait de 72 heures à 96 heures, et seules les violations graves devraient être signalées.


Un allègement bienvenu… mais controversé

Ces propositions, qui représentent plus de deux cents pages, vont désormais faire l’objet de discussions entre la Commission européenne et le Parlement européen.

Pour les entreprises et les startups, ces réformes constituent une excellente nouvelle : moins de contraintes administratives, plus de clarté juridique et davantage de marges pour innover.

Mais les critiques sont nombreuses. Des organisations de défense des libertés, comme l’association NOYB fondée par Max Schrems, dénoncent un véritable « cadeau aux géants américains ». Selon elles, l’assouplissement de la définition de la donnée personnelle et la facilitation de l’entraînement des IA risquent d’ouvrir des brèches que les GAFAM, forts de leur puissance technologique, seraient les premiers à exploiter.


Compétitivité économique ou protection des données ?

Le débat est désormais clairement posé. D’un côté, l’Union européenne cherche à préserver sa compétitivité économique et à réduire la pression exercée par les États-Unis. De l’autre, les défenseurs de la vie privée entendent maintenir un haut niveau de protection des données personnelles des citoyens européens.

La bataille parlementaire qui s’annonce sera déterminante pour l’avenir du droit du numérique en Europe.


Conclusion

Avec les projets Digital Omnibus, l’Union européenne semble amorcer un changement de cap. Reste à savoir si cet allègement permettra réellement de renforcer l’innovation européenne sans sacrifier les droits fondamentaux.

La question est ouverte : faut-il accepter une moindre protection des données personnelles pour favoriser l’innovation, ou maintenir une exigence élevée au risque de freiner la compétitivité ?

Affaire Jean Pormanove : Kick, spectateurs… qui est responsable ?

Affaire Jean Pormanove (JP) / Kick : quelles responsabilités pénales ?

Le décès de Jean Pormanove, alias JP, de son vrai nom Raphaël Graven, survenu le 18 août dernier, après plusieurs mois de violences diffusées en direct sur la plateforme Kick, a profondément choqué l’opinion publique. Au-delà de l’émotion légitime, cette affaire soulève des questions juridiques complexes relatives à la responsabilité pénale des différents acteurs impliqués.

Qui peut être tenu responsable de ces violences et de leur diffusion ? Les streamers ? La plateforme ? Les spectateurs financeurs ? Les autorités de régulation ?

Cette analyse se place exclusivement sur le terrain juridique, dans le respect du principe fondamental de la présomption d’innocence, aucune condamnation définitive n’ayant à ce stade été prononcée.


Les streamers auteurs présumés des violences

Deux streamers, connus sous les pseudonymes Naruto et Safine, font l’objet d’une enquête préliminaire ouverte par le procureur de la République de Nice, notamment pour des faits de violences volontaires en réunion sur personne vulnérable.

Ils ont été placés en garde à vue en janvier dernier, puis remis en liberté. L’enquête est toujours en cours.

De leur côté, les intéressés soutiennent que les violences diffusées relevaient d’un contenu à caractère humoristique, et que JP y aurait consenti, dans un objectif lucratif. Entendu par les services de police le 8 janvier, JP avait en effet évoqué des mises en scène consenties destinées à générer des revenus, déclarant percevoir environ 6 000 euros par mois grâce à ces vidéos.

Le consentement de la victime : un argument juridiquement inopérant

D’un point de vue juridique, la question du consentement de JP apparaît toutefois secondaire. Le droit français repose sur un principe fondamental : l’indisponibilité du corps humain. Nul ne peut disposer librement de son corps de manière à porter atteinte à son intégrité physique, même avec son consentement.

En dehors de certaines exceptions strictement encadrées (actes médicaux, activités sportives), le consentement de la victime ne constitue pas un fait justificatif en matière de violences volontaires. En conséquence, il n’exonère pas l’auteur de sa responsabilité pénale.

En revanche, l’éventuelle situation de vulnérabilité ou de handicap de JP est juridiquement déterminante, car elle pourrait constituer une circonstance aggravante, influant directement sur la qualification des faits et sur les peines encourues.


La responsabilité pénale de la plateforme Kick

La plateforme Kick est également au cœur des débats. Elle est soupçonnée d’avoir eu connaissance des contenus violents diffusés, voire de les avoir promus, sans intervenir suffisamment rapidement.

À la suite du décès de JP, le parquet de Paris a ouvert une enquête préliminaire pour fourniture en bande organisée de plateforme en ligne illicite, sur le fondement de l’article 323-3-2 du Code pénal.

Cette infraction vise notamment les plateformes qui ne respectent pas certaines obligations issues du règlement européen Digital Services Act (DSA), en particulier l’obligation d’informer les autorités compétentes de la commission d’infractions pénales constituant une menace pour la vie ou la sécurité des personnes.

Toutefois, pour que cette infraction soit constituée, il ne suffit pas de démontrer un manquement aux obligations du DSA. Il est également nécessaire d’établir que le fournisseur de la plateforme avait connaissance de transactions manifestement illicites commises par son intermédiaire.

La plateforme Kick se défend en invoquant plusieurs éléments :

  • la suspension temporaire, en 2024, des comptes des deux streamers à la suite d’un signalement de Mediapart ;

  • le bannissement définitif de ces comptes après le décès de JP ;

  • la suppression de la chaîne de JP à la demande de l’Arcom ;

  • sa coopération avec les autorités de régulation ;

  • la rupture de ses relations avec l’agence chargée de la gestion de son contenu en France ;

  • et l’annonce d’une révision complète de sa politique de modération pour les contenus francophones.

Il appartiendra à la justice de déterminer si ces éléments sont suffisants pour écarter sa responsabilité pénale, la plateforme bénéficiant elle aussi de la présomption d’innocence.


La responsabilité des spectateurs financeurs

L’affaire pose également la question de la responsabilité pénale des spectateurs ayant financé les lives, par le biais d’abonnements ou de dons. Certains d’entre eux auraient explicitement incité les streamers à maltraiter JP.

Au moment du décès de ce dernier, le live aurait permis de récolter plus de 36 000 euros.

En droit pénal, la responsabilité ne se limite pas aux auteurs directs des violences. Les personnes ayant aidé, facilité ou financé la commission d’une infraction peuvent voir leur responsabilité engagée en tant que complices.

Donner des instructions ou apporter un soutien financier en connaissance de cause peut donc, le cas échéant, caractériser la complicité. Là encore, l’appréciation relève de l’enquête judiciaire en cours.


Le rôle et les limites de l’Arcom

Enfin, l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) fait l’objet de critiques quant à sa réactivité.

Elle a été alertée des violences sur JP par Mediapart dès décembre 2024, puis par la Ligue des droits de l’homme en février 2025. Certains lui reprochent de ne pas être intervenue, en comparaison avec l’Autorité nationale des jeux (ANJ), qui a réussi à faire bloquer en France, dès avril 2025, des streams de jeux illégaux sur Kick.

L’Arcom se défend en faisant valoir qu’elle n’est pas restée inactive :

  • elle a cherché à identifier les responsables de la plateforme dès le premier signalement ;

  • elle a travaillé en lien avec l’autorité allemande compétente, Kick ayant son siège en Australie ;

  • elle rappelle qu’une enquête judiciaire était déjà en cours ;

  • et surtout, elle souligne qu’elle ne dispose pas, en dehors de cas strictement limités (contenus pédopornographiques, terroristes ou pornographiques accessibles aux mineurs), du pouvoir d’ordonner le blocage d’un site ou d’un contenu.

La question se pose néanmoins de savoir si les pouvoirs de l’Arcom doivent être renforcés. Cette perspective soulève toutefois un risque évident de censure, ainsi que des interrogations budgétaires, dans un contexte de déficit public déjà important.


Conclusion

L’affaire Jean Pormanove met en lumière la complexité des responsabilités pénales à l’ère du streaming en direct. Streamers, plateformes, spectateurs et autorités de régulation sont autant d’acteurs dont le rôle doit être juridiquement analysé avec rigueur.

Il conviendra d’attendre l’issue des enquêtes et, le cas échéant, les décisions de justice, pour déterminer si des responsabilités pénales peuvent être engagées. Cette affaire souligne en tout état de cause la nécessité d’un encadrement juridique clair des pratiques de diffusion en ligne, sans céder ni à l’impunité, ni à la censure excessive.

Censure COVID : la vérité éclate enfin !

Censure des contenus liés au COVID‑19 : pressions gouvernementales et liberté d’expression

La crise sanitaire liée au COVID‑19 n’a pas seulement bouleversé nos systèmes de santé. Elle a également profondément affecté l’exercice de la liberté d’expression, en particulier sur les grandes plateformes numériques.

Durant cette période, des milliers d’articles, de vidéos et de comptes ont été supprimés, déréférencés, démonétisés ou rendus invisibles par des mécanismes de « shadow banning », souvent sans information claire ni contradictoire pour leurs auteurs. Ces suppressions visaient principalement des contenus critiquant la politique sanitaire des autorités publiques.

Longtemps qualifiées de théories complotistes, les accusations de censure gouvernementale viennent aujourd’hui d’être confirmées par les plateformes elles‑mêmes.


Des reconnaissances successives de pressions politiques

Après Twitter et Meta, c’est désormais la société Alphabet, maison mère de Google et YouTube, qui reconnaît avoir subi des pressions de l’administration Biden pour censurer certains contenus.

Les « Twitter Files »

Concernant Twitter, ces révélations ont émergé à travers les « Twitter Files », des documents internes rendus publics après le rachat de la plateforme par Elon Musk en octobre 2022. Ces documents montrent comment l’administration américaine est intervenue directement dans les processus de modération des contenus liés au COVID‑19.

Les aveux de Meta

S’agissant de Meta, Mark Zuckerberg a reconnu en août 2024 des pressions exercées sur Facebook et Instagram. Cette reconnaissance figure dans une lettre adressée à Jim Jordan, président de la commission judiciaire de la Chambre des représentants des États‑Unis, chargée depuis 2023 d’une enquête parlementaire sur les grandes plateformes.

Dans cette lettre, le dirigeant de Meta indique clairement :

« En 2021, des hauts responsables de l’administration Biden […] ont exercé à plusieurs reprises des pressions sur nos équipes pour censurer certains contenus liés au COVID‑19. Je pense que ces pressions gouvernementales étaient mauvaises, et je regrette que nous n’ayons pas été plus francs à ce sujet. »


Google et YouTube reconnaissent à leur tour les pressions

Dernière révélation en date : le 23 septembre 2025, les avocats de la société Alphabet ont adressé une lettre à Jim Jordan reconnaissant des pressions similaires concernant la modération de contenus sur YouTube.

Dans ce courrier, ils annoncent un changement de politique majeur :

YouTube offrira à tous les créateurs la possibilité de rejoindre à nouveau la plateforme si leurs chaînes ont été supprimées pour violation répétée des politiques relatives au COVID‑19 ou à l’intégrité des élections, politiques qui ne sont désormais plus en vigueur.

Cette reconnaissance a déjà produit des effets concrets.


Des chaînes rétablies après des années de censure

Dans les faits, plusieurs chaînes emblématiques ont récemment été restaurées :

  • la chaîne de Silvano Trotta, fermée en octobre 2020, a été rétablie le 26 septembre dernier après une demande formelle ;

  • la chaîne France Soir, supprimée en mars 2021 alors qu’elle comptait plus de 270 000 abonnés, a été restaurée le 10 octobre.

Pour toutes les personnes dont les contenus ou les comptes ont été censurés durant la période du COVID‑19, il est donc désormais possible de solliciter la réouverture de leurs chaînes et la republication de leurs vidéos.


Une critique explicite du règlement européen DSA

Dans leur lettre, les avocats de Google formulent également des critiques à l’encontre du Digital Services Act (DSA) de l’Union européenne.

Ce texte s’inscrit dans la continuité du code de conduite contre la désinformation élaboré par la Commission européenne. Or, ce dispositif prévoit la possibilité pour les très grandes plateformes de restreindre ou supprimer des contenus même lorsqu’ils sont licites.

Cette faculté soulève une difficulté majeure : elle fait peser un risque réel sur la liberté d’expression, en confiant à des acteurs privés un pouvoir quasi‑réglementaire de censure.


Une liberté d’expression fragile, même en démocratie

Ces révélations démontrent une réalité essentielle : la liberté d’expression n’est jamais définitivement acquise. Même dans des démocraties qui se présentent comme des modèles en la matière, elle peut être restreinte, contournée ou supprimée au nom de l’urgence, de la sécurité ou de la lutte contre la désinformation.

La crise du COVID‑19 a agi comme un révélateur du pouvoir considérable des plateformes numériques et de leur vulnérabilité aux pressions politiques.


Conclusion

Les aveux successifs de Twitter, Meta et Alphabet marquent un tournant. Ils obligent à repenser le rôle des plateformes, les limites de la modération des contenus et les garanties effectives de la liberté d’expression.

Plus que jamais, la vigilance s’impose. Défendre la liberté d’expression consiste aussi à dénoncer toute forme de censure, y compris — et surtout — lorsqu’elle émane des pouvoirs publics dans des contextes présentés comme exceptionnels.

Peut-on critiquer librement la justice ?

Peut-on critiquer la justice ? Liberté d’expression et protection du pouvoir judiciaire

La justice fait régulièrement l’objet de critiques, parfois virulentes, qui interrogent les fondements mêmes de l’État de droit. Les déclarations récentes de Nicolas Sarkozy, à la suite de sa condamnation, en sont une illustration marquante. Qualifiant la décision de justice d’« humiliation pour la France », de décision « haineuse » et d’« une gravité extrême pour l’État de droit », il a dénoncé ce qu’il estime être une injustice et une trahison.

Ces propos s’inscrivent dans un discours plus large, régulièrement entendu dans le débat public, dénonçant un supposé « gouvernement des juges », une justice idéologique, sévère avec les responsables politiques mais laxiste avec les délinquants multirécidivistes. Ces critiques posent une question juridique essentielle : peut-on librement discréditer la justice ?


Liberté d’expression : le principe

Le principe est clair : la liberté d’expression est une liberté fondamentale. Elle s’applique quelles que soient les personnes ou les institutions visées. À ce titre, la justice, comme toute autorité publique, peut faire l’objet de critiques.

Cependant, cette liberté n’est pas absolue. Concernant les attaques dirigées contre l’institution judiciaire, l’article 10 de la Convention européenne des droits de l’homme prévoit que la liberté d’expression peut être limitée afin de garantir l’autorité et l’impartialité du pouvoir judiciaire.

C’est dans ce cadre que le droit français a mis en place plusieurs infractions destinées à protéger la justice et les magistrats.


La protection pénale de la justice : une évolution du droit

Historiquement, cette protection reposait principalement sur la loi du 29 juillet 1881 relative à la liberté de la presse, qui prévoit les infractions de diffamation et d’injure à l’encontre des cours, tribunaux, fonctionnaires et magistrats.

En pratique, cette loi est aujourd’hui de plus en plus concurrencée, voire supplantée, par deux infractions prévues par le Code pénal :

  • le discrédit jeté sur une décision de justice ;

  • l’outrage à magistrat.


Le discrédit de la justice

L’infraction de discrédit de la justice est prévue par l’article 434-25 du Code pénal. Elle réprime le fait de chercher publiquement à jeter le discrédit sur une décision de justice dans des conditions de nature à porter atteinte à l’autorité ou à l’indépendance de la justice.

La peine encourue est de six mois d’emprisonnement et 7 500 euros d’amende.

La jurisprudence illustre la frontière délicate entre critique admissible et infraction pénale. Ont ainsi été sanctionnés des propos qualifiant une décision de « chef-d’œuvre d’incohérence, d’extravagance et d’abus de droit » ou affirmant qu’elle relevait d’une justice de classe et partiale.

À l’inverse, certaines critiques ont été jugées licites lorsqu’elles s’inscrivaient dans un débat d’intérêt général. Par exemple, des associations n’ont pas été condamnées pour avoir qualifié une décision concernant un mineur étranger d’« invraisemblable » et estimé que la juridiction avait « tordu le droit ».

L’article 434-25, alinéa 2, prévoit expressément que les commentaires techniques ou les critiques formulées en vue d’obtenir la modification ou l’annulation d’une décision ne constituent pas une infraction. La critique est alors justifiée par un objectif de débat public ou de défense des droits d’une partie.


L’outrage à magistrat

La seconde infraction majeure est celle d’outrage à magistrat, prévue par l’article 434-24 du Code pénal. Elle sanctionne les propos adressés à un magistrat, dans l’exercice de ses fonctions, lorsqu’ils portent atteinte à sa dignité ou au respect dû à sa fonction.

La peine encourue est de un an d’emprisonnement et 15 000 euros d’amende.

Le texte vise expressément des propos « non rendus publics ». Pourtant, la Cour de cassation adopte une interprétation extensive et admet que l’infraction puisse être constituée même lorsque les propos sont diffusés publiquement. En mars dernier, elle a ainsi appliqué cette infraction à des insultes proférées lors d’un live Facebook à l’encontre d’une juge.

Cette interprétation soulève des interrogations, notamment au regard du principe d’interprétation stricte du droit pénal et de l’existence, dans la loi de 1881, d’infractions spécifiques de diffamation et d’injure publiques envers les magistrats.


Une mise à l’écart progressive de la loi de 1881

La substitution progressive des infractions du Code pénal à celles de la loi de 1881 n’est pas neutre. La loi de 1881 offre en effet des garanties procédurales renforcées en faveur de la liberté d’expression :

  • un délai de prescription très court de trois mois ;

  • des exigences strictes de qualification et d’articulation des faits.

À l’inverse, le Code pénal prévoit un délai de prescription de six ans et un formalisme bien moins protecteur. Cette évolution renforce la protection de la justice, mais réduit corrélativement l’espace de la liberté d’expression.


Internet, réseaux sociaux et adaptation du droit

Cette évolution s’explique en partie par l’apparition de nouveaux supports d’expression. La loi de 1881, conçue pour la presse écrite, est mal adaptée à l’ère numérique. Elle ne distingue pas entre un support papier, par nature éphémère, et un support numérique, durable et potentiellement viral.

L’adaptation du droit apparaît donc nécessaire pour protéger la réputation des institutions et des magistrats à l’ère des réseaux sociaux.

Mais une question demeure : pourquoi ces protections renforcées bénéficieraient-elles uniquement à la justice et non aux citoyens ordinaires, toujours soumis au régime plus exigeant de la loi de 1881 ?


Une fracture croissante entre justice et justiciables ?

Ces évolutions juridiques interrogent sur leurs effets à long terme. Selon un sondage CSA publié début novembre, 51 % des Français déclarent ne pas faire confiance à la justice.

Dans un contexte de défiance institutionnelle, le risque est réel d’aggraver la fracture entre la justice et les justiciables, en donnant le sentiment que l’institution judiciaire bénéficie d’une protection pénale renforcée là où le citoyen ordinaire ne le peut pas.


La question des moyens de la justice

Enfin, la réflexion ne peut être dissociée de la question budgétaire. Sur 1 000 euros d’impôts, environ 5 euros seulement sont consacrés à la justice.

Si la justice constitue l’un des piliers fondamentaux de la démocratie, cette situation interroge : avec des moyens aussi limités, peut-on réellement parler de respect de la justice et, par extension, du justiciable ?


Conclusion

Critiquer la justice est possible et légitime dans une démocratie. Mais cette critique connaît des limites juridiques destinées à préserver l’autorité et l’indépendance du pouvoir judiciaire.

L’enjeu est de trouver un équilibre délicat entre la protection de l’institution judiciaire, l’adaptation du droit aux nouveaux modes d’expression et le respect effectif de la liberté d’expression. À défaut, le risque est d’accroître la défiance envers une institution pourtant essentielle au fonctionnement de l’État de droit.

Faut-il supprimer l’audiovisuel public ? Ce que j’ai dit à la commission d’enquête parlementaire

Neutralité, fonctionnement et financement de l’audiovisuel public : une analyse juridique

Jeudi dernier, j’ai eu l’honneur d’être auditionné par la commission d’enquête parlementaire sur la neutralité, le fonctionnement et le financement de l’audiovisuel public. Cette audition a été l’occasion de revenir, d’un point de vue strictement juridique, sur l’évolution du paysage audiovisuel français et sur les questions fondamentales que pose aujourd’hui l’existence même du service public de l’audiovisuel.

Vous pouvez retrouver l’intégralité de cette audition dans le descriptif de la vidéo associée. Voici, en synthèse, les principaux constats et interrogations que j’ai souhaité partager.


Un paysage audiovisuel profondément transformé

Depuis l’adoption de la loi du 30 septembre 1986 relative à la liberté de la communication, le paysage audiovisuel français a été totalement bouleversé.

En 1986, l’offre audiovisuelle était largement dominée par les chaînes publiques, tandis que les premières chaînes privées commençaient à émerger. Aujourd’hui, avec le développement de l’Internet, du câble, de la TNT et du satellite, ce sont plusieurs centaines de chaînes de télévision et près de 900 radios privées qui sont accessibles en France, dont de nombreuses chaînes d’information en continu.

Cette évolution a conduit à une pluralité sans précédent des contenus et des opinions exprimées.


Une première contradiction : le pluralisme des chaînes privées

Malgré cette explosion de l’offre audiovisuelle, on observe un renforcement de l’obligation de pluralisme interne pesant sur certaines chaînes privées, comme c’est le cas pour la chaîne CNEWS.

D’un point de vue juridique, cette exigence soulève une difficulté. La Cour européenne des droits de l’homme admet en effet qu’un déficit de pluralisme interne peut être compensé par l’existence d’un pluralisme externe.

Or, dans un environnement où l’offre audiovisuelle s’est considérablement diversifiée, il devient délicat de reprocher à une chaîne donnée de ne pas représenter l’ensemble des opinions existantes. Cette question a notamment été abordée dans la jurisprudence du Conseil d’État, en particulier dans l’arrêt RSF, auquel je renvoie pour un approfondissement de cette problématique.


Une seconde contradiction : le financement croissant du service public

La seconde contradiction majeure concerne le financement de l’audiovisuel public.

Le budget de France Télévisions et de Radio France n’a cessé d’augmenter pour atteindre aujourd’hui plus de 4 milliards d’euros. Cette évolution interroge, alors même que l’offre privée s’est largement développée.

Dans un contexte de multiplication des acteurs privés, on aurait pu légitimement s’attendre à une réduction progressive du périmètre et du financement du service public audiovisuel.

À cette question budgétaire s’ajoute une contrainte juridique spécifique : à la différence des chaînes privées, le service public audiovisuel est soumis à une obligation renforcée de neutralité et d’impartialité.


Neutralité et impartialité : une exigence juridique renforcée

La loi du 24 août 2021 confortant le respect des principes de la République a réaffirmé l’obligation de neutralité du service public. Cette exigence implique une vigilance particulière quant à l’expression d’opinions politiques ou religieuses dans le cadre des missions de service public.

Or, selon plusieurs sondages récents, une majorité de Français estime que le service public audiovisuel ne respecte pas pleinement cette exigence d’impartialité. Ce décalage entre les obligations juridiques et la perception du public alimente le débat sur la légitimité actuelle du service public audiovisuel.


Faut-il maintenir le service public audiovisuel ? Une question juridique

La question centrale n’est pas politique, mais juridique : faut-il maintenir le service public audiovisuel, le réformer en profondeur, ou envisager sa suppression ou sa privatisation ?

En droit français, l’existence d’un service public ne repose pas sur la seule volonté politique. Elle est conditionnée par un principe fondamental : le principe de nécessité du service public. À l’instar du principe de nécessité de l’impôt, un service public ne se justifie que s’il répond à une nécessité d’intérêt général.

Dès lors, une interrogation s’impose : quelle est aujourd’hui la nécessité de maintenir un service public audiovisuel financé par l’impôt, alors qu’il existe une offre privée extrêmement abondante et que la neutralité de ce service public est contestée par une partie significative de la population ?


Quelles pistes de réforme ?

Si certains programmes du service public devaient être maintenus au nom de l’intérêt général, plusieurs pistes peuvent être envisagées pour renforcer le respect des principes qui lui incombent :

  • définir plus précisément dans la loi les notions de neutralité, d’impartialité et de pluralisme, afin de réduire l’incertitude juridique ;

  • renforcer l’indépendance de l’ARCOM, dont le président est aujourd’hui désigné par le président de la République, ce qui interroge sur son autonomie réelle ;

  • mieux informer les citoyens de la possibilité de saisir l’ARCOM pour faire respecter ces obligations, à l’image de l’information obligatoire prévue en matière de protection des données personnelles devant la CNIL ;

  • améliorer l’identification des chaînes du service public, afin que les téléspectateurs sachent clairement lorsqu’ils regardent une chaîne financée par l’État.


Le projet de label des contenus : une fausse solution ?

Enfin, la commission a évoqué le projet de création d’un label visant à identifier les contenus dits « de qualité ». À ce sujet, j’ai rappelé qu’il existe déjà des mécanismes comparables, notamment à travers l’ARCOM pour l’audiovisuel et la CPPAP pour la presse.

En pratique, ces autorités rencontrent déjà des difficultés à faire respecter les principes existants. Dans ces conditions, la création d’un nouveau label ne semble ni nécessaire ni prioritaire.


Conclusion

L’audition devant la commission d’enquête parlementaire a permis de mettre en lumière une question essentielle : l’audiovisuel public doit être juridiquement justifié, financièrement proportionné et strictement conforme à ses obligations de neutralité et d’impartialité.

Dans un paysage audiovisuel profondément renouvelé, la réflexion sur son avenir ne peut être éludée. Elle doit reposer sur des critères juridiques clairs et sur une exigence constante de respect de l’intérêt général.

IA et droit d’auteur : contrefaçon ?!

IA et droit d’auteur : contrefaçon ou exception de fouille ?

L’essor de l’intelligence artificielle soulève une question juridique majeure : l’utilisation de données protégées par le droit d’auteur constitue-t-elle une contrefaçon ?

Deux décisions récentes rendues par les tribunaux allemands de Munich et de Hambourg apportent désormais des éléments de réponse clairs. Leur portée dépasse largement le cadre national, car le droit d’auteur est aujourd’hui largement harmonisé au niveau européen. Ces solutions sont donc susceptibles de s’appliquer également en France.

Ces affaires, loin de se contredire, permettent de tracer une frontière précise entre ce qui relève de la contrefaçon et ce qui peut bénéficier de l’exception de fouille de textes et de données.


L’affaire de Munich : la consécration du principe de contrefaçon

Dans l’affaire jugée à Munich, le tribunal a considéré qu’il y avait contrefaçon.

Le raisonnement repose sur un principe fondamental du droit d’auteur : toute reproduction ou communication au public d’une œuvre protégée, sans l’autorisation de son auteur, constitue une contrefaçon. Ce principe s’applique pleinement aux systèmes d’intelligence artificielle.

Le litige opposait la société GEMA, organisme de gestion collective des droits d’auteur en Allemagne (équivalent de la SACEM en France), à la société OpenAI, exploitant du modèle ChatGPT. Il était reproché à ChatGPT de permettre la restitution de paroles de chansons protégées par le droit d’auteur.

Or, juridiquement, les paroles de chansons constituent des œuvres protégées. Lorsque l’intelligence artificielle restitue ces paroles de manière reconnaissable, elle ne se limite plus à une analyse technique : elle reproduit l’œuvre et la communique au public.

C’est pour cette raison que le tribunal de Munich a retenu l’existence d’une contrefaçon. La décision fait l’objet d’un appel, mais le message adressé aux acteurs de l’IA est sans ambiguïté : la restitution d’une œuvre protégée constitue une infraction de contrefaçon.

Cette logique se traduit aujourd’hui de manière concrète : les systèmes d’IA intègrent désormais des filtres empêchant la restitution de contenus protégés, comme les paroles de chansons.


L’affaire de Hambourg : l’application de l’exception de fouille

À l’inverse, le tribunal de Hambourg a fait application d’une exception essentielle prévue par le droit européen : l’exception de fouille de textes et de données.

Cette exception permet l’analyse automatisée d’œuvres protégées, notamment dans le cadre de la recherche scientifique ou de l’entraînement des intelligences artificielles, à condition que l’IA se limite à analyser l’œuvre sans la restituer.

Dans cette affaire, une photographie protégée par le droit d’auteur avait été utilisée pour constituer un jeu de données destiné à entraîner une IA. Le photographe estimait que ses droits avaient été violés.

Le tribunal a toutefois relevé plusieurs éléments déterminants :

  • l’utilisation poursuivait un objectif scientifique,

  • elle n’avait pas de finalité commerciale,

  • et surtout, la photographie ne pouvait pas être restituée par l’intelligence artificielle.

Dans ces conditions, les juges ont considéré que l’exception de fouille s’appliquait. L’IA se contentait d’analyser l’œuvre sans la reproduire. Il n’y avait donc pas de contrefaçon.


Une frontière juridique désormais clairement établie

Les décisions de Munich et de Hambourg ne sont pas contradictoires : elles sont complémentaires.

Elles permettent de dégager une règle simple et structurante pour les acteurs de l’intelligence artificielle :

  • si l’IA restitue une œuvre protégée, il y a contrefaçon ;

  • si l’IA se limite à analyser une œuvre sans restitution, l’exception de fouille peut s’appliquer.

Cette distinction impose aux développeurs d’IA de mettre en place des mécanismes techniques efficaces afin d’empêcher toute restitution de contenus protégés par le droit d’auteur.


L’opt-out : une limite supplémentaire à ne pas négliger

La mise en place de filtres techniques ne suffit toutefois pas à éliminer tout risque juridique.

Le droit européen reconnaît aux auteurs la possibilité de s’opposer à la fouille de leurs œuvres, notamment lorsqu’elle est réalisée à des fins commerciales. Ce mécanisme est connu sous le nom d’opt-out.

Lorsqu’un auteur a valablement exercé ce droit d’opposition, l’exception de fouille ne peut plus être invoquée pour son œuvre.

Cela implique pour les développeurs et exploitants d’IA une double vigilance :

  • en aval, afin d’empêcher toute restitution d’œuvres protégées ;

  • en amont, afin d’éviter l’utilisation de contenus ayant fait l’objet d’un opt-out.


Conclusion

Ces décisions marquent une étape importante dans l’encadrement juridique de l’intelligence artificielle en Europe. Elles offrent une grille de lecture claire : l’IA peut analyser, mais elle ne peut pas restituer.

Dans un contexte d’innovation technologique rapide, le respect du droit d’auteur demeure une exigence fondamentale, appelant les acteurs de l’IA à concilier performance technique et sécurité juridique.

brigitte-minia

Affaire Brigitte Macron

Affaire Brigitte Macron

Affaire Brigitte Macron : Diffamation, transgenre, relaxe en appel ! Explications juridiques 

Cette affaire oppose Brigitte Macron et son frère Jean-Michel Trogneux qui ont poursuivi en diffamation Amandine Roy et Natacha Rey, lesquelles viennent d’être relaxées par la CA de Paris.

Cette affaire, elle est importante parce qu’:

  • Elle concerne tout d’abord Brigitte Macron, la femme du Président de la République
  • Porte sur des sujets graves :
    • D’une part la transsexualité, le changement de genre, et
    • D’autre part le détournement de mineur

Elle est d’autre part complexe, parce qu’elle porte sur un droit qui est technique, le droit de la liberté d’expression, le droit de la diffamation.

D’où l’importance de cet article pour essayer de clarifier les choses. Vous pouvez également visualiser ma vidéo à cette adresse : https://youtu.be/82t8CTU2wgE?si=xNmW2yEKqn68i0kY 

Pour bien comprendre cette affaire, il faut remonter en 2021, date à laquelle Amandine Roy et Natacha Rey ont diffusé une interview sur YouTube dans laquelle, elles affirment que :

  • Premièrement Brigitte Macron qui a pour nom de naissance Trogneux serait en réalité un homme, son frère Jean Michel, et que ce dernier aurait par conséquent changé de sexe, d’identité, pour devenir Brigitte, et qu’il serait ainsi un transgenre, un transsexuel et,
  • Deuxièmement, que Brigitte aurait commis un détournement de mineur puisqu’Emmanuel Macron était mineur au moment de leur rencontre,

En 2022, Brigitte et Jean Michel Trogneux ont alors attaqué en diffamation Amandine Roy et Natacha Rey pour leur avoir notamment imputé des faits de :

  • Falsification d’acte d’état civil afin de mentir sur leur véritable identité et
  • Détournement de mineur

Ce qui est important de comprendre, c’est que les consorts Trogneux n’ont pas attaqué directement Amandine et Natasha :

  • D’une part, sur la question de la transsexualité. Pourquoi ? Non pas parce qu’ils reconnaissent ce fait, mais tout simplement parce que cela n’est pas en soi diffamatoire : En France, on a le droit en effet de changer d’identité, de sexe, et donc cela ne peut pas porter atteinte à l’honneur et à la considération de dire de quelqu’un qu’il est transsexuel.
  • Et d’autre part Brigitte et Jean Michel n’ont pas attaqué non plus les prévenues sur le fait qu’ils auraient menti sur leur identité car il existe une jurisprudence depuis 2013 qui considère que le mensonge n’est pas en soi interdit en France : il relève de la liberté d’expression, et donc, dire de quelqu’un qu’il ment ne permet pas de le diffamer.

C’est pour cela que ce qui est reproché à Amandine et Natasha, c’est le fait d’avoir falsifié des actes en vue de mentir sur leur identité, et non d’avoir menti.

Pour rappel, la diffamation c’est le fait d’imputer un fait à une personne qui porte atteinte à son honneur et à sa considération, comme le fait d’avoir commis une infraction.

Et il n’y a pas de diffamation lorsque ce qu’on dit est vrai ou qu’on est de bonne foi parce qu’on a des preuves, ce qu’on appelle des bases factuelles.

  • Donc le fait de dire qu’une personne est transgenre et/ou qu’elle ment sur son identité n’est pas en soit diffamatoire, parce qu’il ne s’agit pas d’infraction

Mais en septembre 2024, Amandine Roy et Natacha Rey ont été condamnées parce que le Tribunal a considéré que ce qu’elles avaient dit été diffamatoire.

Ce qui explique qu’elles ont dû faire appel, et le 10 juillet dernier, la Cour d’appel de Paris a donc infirmé le jugement entrepris, en jugeant que ce qu’elles avaient dit n’était pas diffamatoire. Elles ont donc été relaxées comme on dit.

La Cour a en effet considéré tout d’abord que beaucoup de propos qui leur étaient reprochés n’étaient pas de la diffamation parce qu’ils n’étaient pas assez précis.

Pour être diffamatoire, il faut en effet que les faits imputés soient précis pour qu’il y ait un débat contradictoire, et qu’on puisse ou non en apporter la preuve.

Donc bcp de propos qui ont été tenus sont passés à la trappe.

Le seul fait diffamatoire que la Cour a retenu c’est le fait d’avoir imputé à Brigitte Macron un acte de détournement de mineur.

La Cour de cassation considère en effet que cela porte atteinte à l’honneur et à la considération de Brigitte Macron.

Mais sur cette question la Cour a fait bénéficier Amandine Roy et Natacha Rey de l’excuse de bonne foi par ce qu’elle a considéré qu’

  • Elles disposent d’une base factuelle suffisante. Elles ont apporté la preuve en effet qu’il existe plusieurs articles de journaux qui disaient déjà en 2017 que les parents d’Emmanuel Macron auraient pu déposer plainte pour détournement de mineur
  • La Cour ajoute que cette question est un sujet d’intérêt général : Mme Macron est en effet une personnalité publique qui bénéficie d’une importante notoriété, exposée dans les médias et que donc cette question bénéficie d’une large liberté d’expression
  • Dans son arrêt, la Cour tient compte également du fait que Amandine et Natacha ne sont pas des journalistes professionnelles, et qu’elles ne sont donc pas soumises à des règles déontologiques particulières
  • Et enfin qu’elles n’ont pas d’animosité personnelle

Elles ont donc pu bénéficier de l’excuse de bonne foi sur le fait d’imputer l’infraction de détournement de mineur à Brigitte Macron.

Et sur le reste des propos, et comme je l’ai dit plus haut, à plusieurs reprises la Cour indique que n’est pas diffamatoire :

  • Le fait d’imputer à une personne une transition de genre, de sexe,
  • De vouloir la dissimuler ou de vouloir protéger sa vie privée et conserver le secret sur sa transition

Quant à la falsification des actes d’état civil, la Cour considère qu’ils ne ressortent pas des propos des 2 prévenues et/ou qu’ils sont dans tous les cas indissociables de ceux qui concernent la question du détournement de mineur, et que donc, ils peuvent bénéficier de l’excuse de bonne foi.

Elle a donc infirmé le jugement du tribunal et relaxé les prévenues.

Pour terminer, il important de signaler que contrairement à ce qu’on peut lire ici ou là :

  • D’une part, il n’y a pas eu de propos transphobes dans ce dossier, et cela n’était pas dans les débats,
  • D’autre part, la Cour d’appel ne se prononce pas sur le sujet de la transsexualité de Brigitte Macron, cela aussi est complétement Hors Sujet : on ne pas ainsi dire : la Cour d’appel a rejeté l’action en diffamation de Brigitte Macron, elle est donc transgenre.
  • Cela est complétement biaisé comme raisonnement

Cette affaire n’est pas terminée car :

  • D’une part on sait qu’il y a eu un pourvoi en cassation
  • D’autre part qu’il existe d’autres actions sur le fondement du cyberharcèlement, et qui n’ont, à ma connaissance, toujours pas été jugé.

Elle est loin d’être close pour l’instant, et si vous devez vous prononcer sur cette affaire, je vous invite par conséquent à la plus grande prudence.

Cordialement,

Arnaud DIMEGLIO,

Avocat à la Cour, Docteur en droit, Titulaire des mentions de spécialisation en droit du numérique, de la communication, et de la propriété intellectuelle.

Bureau principal : 8 place St. Côme, 34000 Montpellier,

Bureau secondaire : 10 avenue de l’Opéra, 75001 Paris,

Tel : 04.99.61.04.69, Fax : 04.84.88.75.81

http://www.dimeglio-avocat.com

tiktok

Tiktok fermé : L’État condamné​

Fermeture de Tiktok pour « circonstances exceptionnelles »

Le 1er avril dernier[i], le Conseil d’État a reconnu la possibilité pour le gouvernement d’ordonner, sous certaines conditions, la fermeture d’un réseau social comme Tiktok.

Il ne s’agit pas d’un poisson d’avril mais bien d’une décision rendue par le Conseil d’État à propos de la fermeture de TikTok en Nouvelle-Calédonie.

Cette fermeture avait été ordonnée en mai 2024 par Gabriel Attal, alors Premier ministre, à la suite des graves émeutes survenues sur l’île avec plus de 6 morts, 170 blessés et d’importants dégâts matériels.

Des calédoniens s’étaient révoltés contre un projet de loi visant à élargir le corps électoral local.

Pour faire face à ces émeutes, le premier ministre avait alors ordonné la fermeture de TIKTOK pour éviter la diffusion de contenus violents.

Dans la foulée de cette décision, plusieurs associations dont la Quadrature du Net et la ligue des droits de l’homme avait saisis le juge des référés

Mais celui-ci avait rejeté leur requête pour défaut d’urgence.

L’affaire est donc revenue cette fois au fond devant le Conseil d’Etat, lequel a considéré que la fermeture de Tiktok pouvait être justifiée par la théorie des « circonstances exceptionnelles »

Mais qu’il fallait que 3 conditions soient remplies :

  • Premièrement la nécessité de faire face à des événements d’une particulière gravité ;
  • Deuxièmement l’impossibilité d’adopter des mesures techniques alternatives moins attentatoires aux droits ;
  • Troisièmement une limitation de la durée de l’interruption au temps nécessaire à l’adoption de ces mesures alternatives.

 

Or en l’espèce le Conseil d’Etat a considéré que le premier ministre n’avait pas rempli cette dernière condition parce qu’il n’avait pas fixé une durée déterminée pour la fermeture du réseau :

« La décision attaquée procède à une interruption totale du service pour une durée indéterminée, liée seulement à la persistance des troubles à l’ordre public, sans subordonner son maintien à l’impossibilité de mettre en oeuvre des mesures alternatives. » (Décision du Conseil d’Etat, 1er avril 2025)

Le Conseil d’Etat a donc annulé la décision du 1er ministre pour atteinte disproportionnée à la liberté d’expression et à la liberté d’accès à l’information.

Cette affaire est intéressante parce qu’elle montre que la théorie des circonstances exceptionnelles peut justifier la fermeture d’un réseau social même en dehors du cadre de l’état d’urgence.

La notion de circonstances exceptionnelles est en effet un régime d’exception comparable à celui de l’Etat d’urgence mais les 2 ne se confondent pas.

Pour l’Etat d’urgence, il existe une loi qui date de 1955 mais dans le cas des « circonstances exceptionnelles », il n’existe pas de loi.

C’est le conseil d’Etat qui a crée cette notion pour valider les décisions prises par l’administration, hors de tous champ légal, en cas de grave crise comme la guerre, ou les catastrophes naturelles.

D’après la loi sur l’Etat d’urgence qui a été modifiée en 2015[ii], seul le ministre de l’Intérieur peut ordonner la fermeture d’un site dans le cas de provocation au terrorisme ou d’apologie du terrorisme :

Article 11 II. – Le ministre de l’Intérieur peut prendre toute mesure pour assurer l’interruption de tout service de communication au public en ligne provoquant à la commission d’actes de terrorisme ou en faisant l’apologie.

Or cette qualification de terrorisme, n’avait pas été retenue pour les émeutes en Nouvelle-Calédonie.

Cette fermeture ne pouvait en conséquence qu’être justifiée par la théorie des circonstances exceptionnelles.

La décision du conseil d’État est donc en demi-teinte puisque, d’un côté, elle reconnaît la possibilité d’utiliser la théorie des circonstances exceptionnelles pour fermer un site, mais de l’autre, elle annule la décision du 1er ministre pour manquement à certaines conditions.

Cette décision est juridiquement intéressante mais il ne faudrait pas qu’elle ouvre d’une certaine manière la boîte de pandore, et qu’elle permette de graves atteintes à nos droits et libertés fondamentales. 

A défaut d’être un poisson d’avril, il ne faudrait pas que cette décision soit un véritable poison d’avril.

Et vous qu’en pensez-vous ?

Faut-il permettre à l’administration, au gouvernement de fermer l’accès à une plate-forme, un réseau social, même en cas de circonstances exceptionnelles ?

[i] https://www.conseil-etat.fr/actualites/en-cas-de-circonstances-exceptionnelles-le-gouvernement-peut-interrompre-provisoirement-l-acces-a-un-reseau-social-mais-sous-conditions

[ii] https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000695350

minia-jsp

Désinformation : censure ou liberté ?

Désinformation : le flou juridique

Les termes de « désinformation », de « fausse information », ou encore de « fake news » sont très régulièrement employés dans les médias. Mais qu’est ce qui se cache dernière ces mots, ces qualifications ?

Pour lire la suite, cliquez ici
Bras de fer.zip - Bras de FER

La protection des droits d’auteur face a l’intelligence artificielle

LA PROTECTION DES DROITS D'AUTEUR FACE A L'INTELLIGENCE ARTIFICIELLE

Introduction

Bonjour et bienvenue dans cette nouvelle vidéo ! Aujourd’hui, nous allons aborder un sujet crucial pour tous les créateurs : la protection des droits d’auteur face à l’intelligence artificielle (IA).

L’IA soulève en effet un véritable défi en matière de droit d’auteur, tant en amont, avec l’utilisation des œuvres protégées pour l’entraînement des modèles, qu’en aval, avec la question de la protection des œuvres générées par l’IA.

L’utilisation des œuvres protégées par l’IA : un enjeu juridique

L’une des grandes questions actuelles est de savoir si les fournisseurs d’intelligence artificielle doivent obtenir l’autorisation des auteurs avant d’utiliser leurs œuvres.

Les fournisseurs d’IA contestent cette obligation en s’appuyant sur certaines exceptions juridiques :

  • Aux États-Unis, ils invoquent le fair use, qui permet sous certaines conditions d’utiliser une œuvre protégée sans autorisation.
  • En Europe, ils se basent sur l’exception de fouille de textes et de données (text and data mining), qui permet d’analyser automatiquement du contenu numérique.

Cependant, des décisions récentes remettent en cause ces arguments :

  • Aux États-Unis, une décision judiciaire a récemment estimé que l’exception de fair use ne s’appliquait pas à l’entraînement des IA sur des œuvres protégées.
  • En Europe, bien qu’un tribunal allemand ait jugé que l’exception de fouille de textes et de données pouvait être applicable, cette interprétation reste très contestée.

De nombreux spécialistes estiment que ces exceptions ne s’appliquent pas aux fournisseurs d’IA générative, ce qui pourrait les exposer à des poursuites pour contrefaçon et les contraindre à rémunérer les auteurs.

Peut-on protéger par le droit d’auteur une œuvre créée avec l’IA ?

L’autre grande question concerne la protection des œuvres générées avec l’aide de l’intelligence artificielle. Jusqu’à récemment, la position dominante était que seules les créations réalisées par une personne physique pouvaient bénéficier du droit d’auteur.

Cependant, une évolution notable vient des États-Unis : le Copyright Office a récemment accordé une protection à une image intitulée Single Piece of American Cheese, créée par Ken Kersey grâce à une IA. L’auteur a réussi à prouver son implication substantielle dans le processus de création en filmant son écran, montrant ainsi qu’il avait réellement influencé l’œuvre finale.

Cette décision ouvre la voie à la reconnaissance du droit d’auteur sur des œuvres hybrides, où l’humain joue un rôle actif dans la création assistée par l’IA.

Quelles conséquences pour les créateurs ?

En conclusion, les implications sont doubles :

  1. En amont, les fournisseurs d’IA risquent d’être tenus responsables pour l’utilisation non autorisée de contenus protégés et devront probablement rémunérer les auteurs.
  2. En aval, les créateurs qui utilisent l’IA pour concevoir des œuvres originales pourront revendiquer leurs droits et demander une rémunération en cas d’utilisation non autorisée de leurs créations.

Cette rémunération pourra être obtenue :

  • À l’amiable, via un contrat avec l’utilisateur de l’œuvre.
  • Par voie judiciaire, en cas de litige.

Si vous êtes auteur, vous pouvez donc vous opposer à l’exploitation de vos œuvres par les fournisseurs d’IA. De même, si vous créez avec l’IA, vous pouvez protéger vos œuvres et en contrôler l’utilisation, sous réserve des exceptions classiques du droit d’auteur, comme la copie privée.

Conclusion

Merci d’avoir regardé cette vidéo ! Si elle vous a plu, n’hésitez pas à vous abonner, à liker et à partager. À bientôt pour de nouvelles vidéos !

Le Débat sur l’Anonymat en Ligne Faut-il une Identité Numérique Obligatoire ?

LE DEBAT SUR L’ANONYMAT EN LIGNE : FAUT-IL UNE IDENTITE NUMERIQUE OBLIGATOIRE ?

Depuis quelques semaines, la question de l’anonymat sur Internet refait surface dans le débat public. Deux approches s’opposent :

D’un côté, Gérald Darmanin, ministre de la Justice, souhaite lever l’anonymat en ligne pour lutter contre des infractions graves telles que la pédocriminalité, le trafic de drogue et le cyberharcèlement. Selon lui, Internet ne doit plus être une « zone de non-droit », et il propose la mise en place d’une identité numérique permettant d’identifier plus facilement les auteurs d’infractions.

De l’autre côté, le projet de loi sur le narcotrafic, actuellement débattu au Parlement, prévoit également des mesures permettant de lever l’anonymat sur les messageries cryptées.

L’anonymat existe-t-il réellement sur Internet ?

Face à ces propositions, plusieurs points de vue s’affrontent :

  • Certains estiment que l’anonymat n’existe pas vraiment. En effet, sous certaines conditions, il est déjà possible d’identifier les auteurs d’infractions grâce aux données fournies par les intermédiaires techniques comme les fournisseurs d’accès à Internet, les hébergeurs ou les plateformes.
  • D’autres, au contraire, s’opposent fermement à toute levée d’anonymat, par crainte d’une surveillance généraliséeet d’une atteinte aux libertés individuelles.

Mais au-delà du débat idéologique, une question essentielle se pose : la loi permet-elle réellement aujourd’hui d’identifier les auteurs d’infractions en ligne ?

Des obstacles juridiques et techniques à l’identification des auteurs

En théorie, la loi permet de retrouver l’auteur d’une infraction en ligne. Par exemple, des plateformes comme Facebook ou Twitter collectent des données sur leurs utilisateurs et peuvent être contraintes de les transmettre sous certaines conditions.

Cependant, des limites existent :

  • Sur le plan juridique
    • Depuis la loi du 30 juillet 2021, lorsqu’une infraction est uniquement civile (atteinte à la vie privée, présomption d’innocence, dénigrement…), il est impossible d’obtenir l’identité de l’auteur auprès des prestataires techniques. Résultat : aucune poursuite possible et une impunité totale.
    • En matière pénale, la loi de 2022 a introduit une nouvelle contrainte : si l’infraction est punie de moins d’un an de prison (comme l’injure ou la diffamation), il est impossible d’obtenir l’adresse IP de l’auteur. Même pour des délits plus graves, l’accès à ces données reste incertain.

Un cas récent illustre bien cette situation : le 10 septembre 2024, la cour d’appel de Paris a refusé de contraindre Facebook à fournir l’adresse IP d’un utilisateur ayant usurpé l’identité d’un maire pour nuire à sa réputation. Pourtant, cette infraction est bien punie d’un an de prison. La Cour a estimé que l’infraction n’était pas assez grave au regard de l’article L34-1 du Code des postes et des communications électroniques.

  • Sur le plan technique
    • De nombreux outils permettent de contourner l’identification, comme les VPN (qui masquent l’adresse IP), les adresses e-mail jetables ou encore les fausses identités sur les réseaux sociaux.
    • Ainsi, même si l’anonymat était totalement levé, les personnes mal intentionnées trouveraient toujours des solutions pour dissimuler leur identité.

Faut-il imposer une identité numérique ?

La question se pose alors : faut-il imposer une identité numérique à tous, comme le propose Gérald Darmanin ?

  • D’un côté, il est indéniable qu’il existe une véritable impunité sur Internet. Les cybercriminels, harceleurs et autres délinquants exploitent les failles du système pour échapper à la justice.
  • D’un autre côté, imposer une identité numérique pourrait entraîner une surveillance de masse, menaçant la liberté d’expression et la vie privée. On se souvient notamment des révélations d’Edward Snowden sur la surveillance généralisée ou encore du cas Julian Assange.

L’enjeu est donc de trouver un équilibre entre la protection des victimes et le respect des libertés individuelles.

Une alternative possible : mieux adapter notre droit

Une piste pourrait être de mieux adapter notre droit aux évolutions technologiques et aux décisions juridiques récentes.

L’arrêt Quadrature du Net rendu par la CJUE en avril 2024 prévoit déjà que la fourniture d’une adresse IP peut être exigée, même pour une infraction mineure, si c’est le seul moyen d’identifier l’auteur. Si cette jurisprudence était correctement appliquée en France, elle permettrait de limiter les abus sans imposer une surveillance généralisée.

Conclusion : entre impunité et protection des libertés

Comme souvent, la vérité se situe entre deux extrêmes :
✅ Oui, il existe une impunité en ligne, notamment pour les infractions civiles et les délits mineurs.
❌ Non, imposer une identité numérique obligatoire n’est pas sans risques pour les libertés fondamentales.

Le débat reste ouvert, notamment avec l’examen du projet de loi sur le narcotrafic.

👉 Et vous, qu’en pensez-vous ?
Faut-il une identité numérique obligatoire ou simplement mieux adapter notre législation ?

💬 Donnez votre avis en commentaire !

📌 Sources disponibles en description.

🙏 Merci d’avoir lu cet article ! N’hésitez pas à le partager et à vous abonner pour suivre nos prochaines publications.

Décision du Conseil d’État sur la Fermeture de la Chaîne C8

Décision du Conseil d'État sur la Fermeture de la Chaîne C8

Le 19 février dernier, le Conseil d’État a rendu sa décision concernant la fermeture de la chaîne C8. Cette décision valide celle de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) du 16 décembre précédent, qui avait rejeté la candidature de la société C8 pour la diffusion de sa chaîne sur la TNT.

Une Décision Contestée par la Classe Politique

Cette décision a suscité de vives critiques, notamment de la part de divers partis politiques allant de l’extrême droite au centre, incluant Reconquête, le Rassemblement National, l’UDR et Les Républicains. Ces formations politiques dénoncent une décision politique et assimilent la fermeture de C8 à un acte de censure.

Concernant le caractère politique de cette décision, il est important de rappeler que l’Arcom est une autorité administrative indépendante, tandis que le Conseil d’État est une juridiction censée être impartiale. Nul ne conteste leur indépendance vis-à-vis du pouvoir politique, mais la critique demeure.

Problématiques Juridiques et Opacité de la Décision

D’un point de vue juridique, plusieurs critiques peuvent être formulées, tant sur la forme que sur le fond :

– La décision de l’Arcom n’est pas publiquement accessible sur son site, ce qui pose un problème de transparence pour une institution chargée de garantir la liberté d’expression et le droit à l’information.

– La temporalité de cette décision est également questionnable : l’Arcom a rendu son verdict le 16 décembre, juste avant les vacances de Noël, tandis que le Conseil d’État a statué en plein congés de février. Il est fréquent que les décisions sensibles soient rendues durant ces périodes afin de minimiser leur impact médiatique.

– La rapidité avec laquelle cette affaire a été traitée interroge : la chaîne, existant depuis 2005, a été fermée en un délai très court, sans préavis prolongé.

– L’intitulé du communiqué de presse du Conseil d’État est également source d’interrogations : « Fréquence TNT : l’Arcom doit évaluer l’opportunité d’un nouvel appel à candidature pour les quatre fréquences désormais vacantes ». Or, le sujet central est bien le non-renouvellement des chaînes C8 et NRJ12, ce qui renforce l’impression d’opacité.

Les Justifications du Conseil d’État

Le Conseil d’État justifie sa décision en s’appuyant sur trois principaux motifs :

  1. **Les sanctions financières** : La chaîne C8 a été sanctionnée de nombreuses fois, notamment en raison des dérapages de l’émission *Touche pas à mon poste* et de son animateur Cyril Hanouna. Parmi les sanctions notables, l’Arcom a infligé une amende record de 3,5 millions d’euros après les insultes de l’animateur envers le député Louis Boyard en 2022. Plus récemment, Cyril Hanouna a été condamné à 4 000 euros d’amende par le tribunal correctionnel de Paris pour des propos tenus en direct.

   – Toutefois, cette justification soulève une question : n’applique-t-on pas une « double peine » à la chaîne ? Une entreprise ou une personne ne peut être sanctionnée deux fois pour les mêmes faits.

  1. **Le déficit chronique de C8** : Selon le Conseil d’État, la chaîne présente depuis sa création des difficultés financières. Cet argument semble toutefois discutable, car de nombreuses chaînes de la TNT rencontrent des problèmes similaires sans pour autant être privées de leur fréquence.
  2. **Le respect du pluralisme** : L’analyse du Conseil d’État repose sur une comparaison de la contribution de C8 au pluralisme par rapport aux 11 candidats à la TNT et non par rapport à l’ensemble des chaînes existantes, ce qui biaise potentiellement l’évaluation.

Une Décision Conforme aux Normes Européennes ?

La fermeture de C8 soulève également des interrogations quant à sa conformité avec l’article 10 de la Convention européenne des droits de l’homme, qui garantit la liberté d’expression. Selon la jurisprudence de la Cour européenne des droits de l’homme, toute restriction à cette liberté doit être prévisible, nécessaire et proportionnée. Or, la non-reconduction d’une chaîne existant depuis 20 ans peut être perçue comme une atteinte excessive à la liberté des médias.

Par ailleurs, un nouveau règlement européen sur la liberté des médias, entré en vigueur le 8 novembre dernier, impose aux États membres de garantir l’accès du public à une pluralité de contenus médiatiques indépendants. Ainsi, un recours pourrait être envisagé non seulement devant la Cour européenne des droits de l’homme, mais aussi devant la Cour de justice de l’Union européenne.

Conclusion

La décision du Conseil d’État de ne pas renouveler l’autorisation de diffusion de C8 reste controversée. Outre son caractère potentiellement politique et le manque de transparence qui l’entoure, elle pose des questions sur la liberté d’expression et le pluralisme médiatique. L’avenir de cette affaire pourrait se jouer devant les juridictions européennes.

Merci d’avoir lu cette analyse. N’hésitez pas à partager cet article et à suivre nos prochaines publications.

L’invasion des Deep Fakes

L'INVASION DES DEEP FAKES : COMPRENDRE ET SE PROTEGER JURIDIQUEMENT

Bonjour et bienvenue dans cet article consacré à un phénomène inquiétant et en pleine expansion : les deep fakes. Nous devons être vigilants face à cette nouvelle forme d’invasion qui se multiplie avec l’essor de l’intelligence artificielle. Ces clones et avatars numériques, créés par des algorithmes sophistiqués, peuvent tromper et manipuler à des fins diverses.

Deep Fakes : entre divertissement et danger

Lorsque les deep fakes sont utilisés dans un but humoristique, comme dans le cas du président Emmanuel Macron, la situation reste sous contrôle. Ces montages sont facilement identifiables, et même les personnalités concernées peuvent en rire. Cependant, les deep fakes non identifiés et non transparents représentent une menace sérieuse.

Un exemple frappant est celui d’une femme qui a perdu plus de 830 000 € en croyant communiquer avec une fausse version de l’acteur Brad Pitt. Ce type d’escroquerie démontre les dangers des deep fakes lorsqu’ils sont utilisés de manière malveillante.

Quels recours juridiques en cas de deep fake ?

Si vous êtes une personnalité publique comme Brad Pitt, vous pouvez intenter une action en justice sur la base de l’infraction de montage, prévue à l’article 226-8 du Code pénal. Cet article interdit la création et la diffusion de montages utilisant l’image ou la voix d’une personne sans son consentement, sauf si l’on comprend immédiatement qu’il s’agit d’un montage. Depuis l’année dernière, cette disposition inclut explicitement les montages réalisés par intelligence artificielle.

Si vous êtes victime d’une escroquerie impliquant un deep fake, vous pouvez vous tourner vers l’article 313-1 du Code pénal, qui punit l’escroquerie. Cette infraction est passible de cinq ans de prison et d’une amende de 375 000 €, pouvant aller jusqu’à dix ans de prison et un million d’euros en cas d’escroquerie en bande organisée.

Le danger grandissant des deep fakes à caractère sexuel

Une autre forme inquiétante de deep fake se développe : les deep fakes à caractère sexuel. Récemment, une femme a témoigné sur France Info après avoir été transformée en objet sexuel par un montage frauduleux. Ce type de manipulation constitue une atteinte grave à la réputation et à la tranquillité des victimes.

Dans ce cas, plusieurs recours sont possibles :

  • L’usurpation d’identité (article 226-4-1 du Code pénal) : passible d’un an de prison et de 15 000 € d’amende.
  • L’infraction de montage à caractère sexuel (article 226-8-1 du Code pénal), créée récemment, qui est plus adaptée à ce type de cas et prévoit jusqu’à trois ans de prison et 75 000 € d’amende.

Pourquoi bien choisir le fondement juridique ?

Il est essentiel de choisir le bon fondement juridique pour maximiser l’efficacité des poursuites. Par exemple :

  • L’usurpation d’identité entraîne des peines plus légères.
  • Le montage frauduleux, quant à lui, peut mener à des sanctions plus sévères (deux ans de prison et 45 000 € d’amende).
  • Un montage à caractère sexuel est encore plus répréhensible avec des peines allant jusqu’à trois ans de prison.
  • En cas d’escroquerie, les sanctions sont encore plus lourdes, surtout si elle est réalisée en bande organisée.

Conclusion : Un cadre juridique adapté pour lutter contre les deep fakes

Face à cette nouvelle menace numérique, le cadre juridique s’adapte progressivement. Si vous êtes victime d’un deep fake, il est crucial de réagir rapidement et d’engager les procédures adéquates. Nous sommes juridiquement armés pour contrer ces abus, alors n’hésitez pas à vous défendre.

Merci d’avoir lu cet article. Si vous souhaitez en savoir plus, abonnez-vous et restez informés sur ces questions cruciales. À bientôt pour un nouvel article !

minia-deep

La condamnation de Deepseek

LA CONDAMNATION DE DEEPSEEK : UNE NOUVELLE AFFAIRE EN EUROPE

En janvier dernier, l’intelligence artificielle chinoise Deepseek a été lancée et a rapidement fait parler d’elle. Concurrençant directement ChatGPT sur le plan technique et économique, cette IA a impressionné de nombreux observateurs. Cependant, son développement ne respecte pas les normes juridiques européennes.

Quelques jours seulement après son lancement, la CNIL italienne (la Garante) a déclaré illicite le traitement des données personnelles par Dipsic et a ordonné sa fermeture temporaire en Italie, le temps de l’enquête. L’application n’est donc plus disponible sur le territoire italien.

Les raisons de la condamnation de Dipsic

La CNIL italienne s’est appuyée sur le RGPD pour justifier sa décision. Plusieurs manquements ont été relevés :

  1. Manque de coopération : Les sociétés chinoises exploitant Dipsic n’ont pas répondu aux demandes d’information de l’Autorité italienne sur leur traitement des données personnelles.
  2. Politique de confidentialité non conforme : Le document n’étant disponible qu’en anglais, les utilisateurs italiens n’étaient pas suffisamment informés de leurs droits et des modalités de traitement de leurs données.
  3. Données hébergées en Chine : L’Autorité a jugé que cet hébergement constituait une violation de l’obligation de sécurité du traitement des données.
  4. Absence de représentant en Europe : Dipsic aurait dû désigner un représentant légal dans l’UE, ce qui n’a pas été fait.

Une interdiction qui pourrait s’étendre

Cette affaire démontre qu’une autorité nationale peut interdire une application ne respectant pas les réglementations européennes. L’Italie n’en est pas à son premier coup, ayant déjà bloqué ChatGPT en 2023 avant de condamner OpenAI à 15 millions d’euros d’amende en novembre dernier.

Si Dipsic ne se conforme pas au droit européen, elle risque une interdiction définitive en Italie et potentiellement dans toute l’Union européenne. Cette décision met en évidence la capacité des régulateurs à réagir rapidement et à faire respecter les droits des citoyens européens.

Une leçon pour les nouvelles technologies

Cette condamnation envoie un message clair : innover sur le plan technique et économique ne suffit pas, il faut également se conformer aux réglementations en vigueur. L’Europe n’a pas à subir les conséquences des nouvelles technologies qui ne respectent pas ses lois.

Merci d’avoir lu cette analyse. Si elle vous a intéressé, n’hésitez pas à partager et à suivre nos prochaines publications sur l’évolution de la régulation de l’intelligence artificielle.

Condamnation de chatgpt

CONDAMNATION DE CHATGPT : UN TOURNANT POUR L'INTELLIGENCE ARTIFICIELLE EN EUROPE

L’intelligence artificielle, avec ChatGPT en tête, a marqué une avancée technologique majeure depuis son lancement par OpenAI le 30 novembre 2022. Toutefois, cette innovation soulève des questions cruciales d’ordre économique, juridique et éthique. Si l’IA offre de nombreuses opportunités, elle représente aussi des risques significatifs, notamment en matière de destruction d’emplois et de diffusion de fausses informations à grande échelle.

L’Italie a été l’un des premiers pays à réagir face aux problématiques soulevées par ChatGPT. En mars 2023, l’Autorité italienne de protection des données (Garante per la protezione dei dati personali) a pris une décision historique en bloquant temporairement le service en raison de violations du RGPD (Règlement Général sur la Protection des Données).

Une sanction exemplaire pour OpenAI

Pour se conformer aux exigences réglementaires et reprendre ses activités en Italie, OpenAI a dû mettre en place des mesures correctives. Cependant, malgré ces ajustements, l’entreprise a été condamnée à une sanction significative :

  • 15 millions d’euros d’amende
  • Obligation de mener une campagne d’information sur les droits des utilisateurs en matière de protection des données personnelles pendant six mois

Cette décision revêt une importance capitale. Elle démontre que l’Europe n’est pas impuissante face aux géants technologiques et qu’elle dispose de leviers pour encadrer ces nouvelles technologies.

Les motifs de condamnation d’OpenAI

Plusieurs infractions ont conduit à cette sanction :

  1. Violation de données personnelles
    • Un bug dans ChatGPT a exposé les prompts des utilisateurs ainsi que certaines informations personnelles (nom, prénom, numéro de téléphone et, dans certains cas, données bancaires).
    • OpenAI n’a pas immédiatement signalé cette violation à la CNIL italienne, comme l’exige le RGPD.
  2. Absence de base légale pour le traitement des données
    • OpenAI n’avait pas clairement précisé sur quelle base juridique elle s’appuyait pour collecter et traiter les données personnelles.
    • L’entreprise aurait dû indiquer si elle se fondait sur le consentement des utilisateurs ou sur un intérêt légitime, et détailler cet intérêt.
  3. Manque de transparence
    • Les utilisateurs n’étaient pas informés qu’ils pouvaient s’opposer au traitement de leurs données personnelles.
    • Cette information était d’autant plus cruciale que personne ne s’attendait à ce que ses conversations soient collectées et utilisées.
  4. Absence de vérification d’âge
    • ChatGPT est censé être interdit aux moins de 13 ans, mais OpenAI n’avait mis en place aucun système de vérification pour s’assurer du respect de cette restriction.
  5. Non-respect d’une campagne d’information imposée
    • OpenAI n’a pas correctement mené la campagne de sensibilisation exigée par la CNIL italienne sur la protection des données.

Une infraction continue : le problème des données inexactes

Un autre point de friction concerne la capacité de ChatGPT à générer des informations fausses ou des données personnelles erronées. L’Italie n’a pas sanctionné OpenAI sur ce point, considérant qu’il s’agit d’une infraction continue et que ce dossier relève désormais de la CNIL irlandaise, où OpenAI a établi son siège européen.

Une amende symbolique par rapport aux GAFAM

Bien que 15 millions d’euros puissent sembler une somme importante, cette sanction reste modeste par rapport à d’autres amendes infligées aux grandes entreprises technologiques. En comparaison, Meta (Facebook) a été condamnée en 2023 à plus d’un milliard d’euros d’amende par la CNIL irlandaise.

Toutefois, cette condamnation représente un avertissement clair pour OpenAI et pour toutes les entreprises développant des systèmes d’intelligence artificielle.

Un enjeu global : protéger les utilisateurs tout en innovant

Cette affaire illustre un défi majeur : réguler l’intelligence artificielle sans freiner l’innovation. L’UE cherche à établir un cadre clair et équilibré pour garantir la protection des citoyens tout en permettant aux entreprises de se développer.

Quels recours pour les citoyens ?

En France, il est possible pour toute personne concernée :

  • De saisir la CNIL pour faire valoir ses droits (accès, rectification, suppression des données personnelles)
  • De porter l’affaire devant les tribunaux, ce qui permet également de demander des dommages et intérêts en cas de préjudice.

Conclusion : un tournant dans la régulation de l’IA

Cette condamnation d’OpenAI marque un tournant dans la régulation de l’intelligence artificielle. Elle envoie un signal fort aux développeurs de systèmes d’IA : le respect des règles de protection des données est une obligation, non une option.

Face à ces technologies puissantes, nous ne devons pas être de simples spectateurs. Il est essentiel d’agir en consommateurs éclairés, en comprenant nos droits et en exigeant leur application. L’avenir de l’intelligence artificielle dépendra de notre capacité à trouver un équilibre entre innovation et responsabilité.

Merci de votre attention, et à bientôt pour une nouvelle analyse !

AdobeStock_337981391 (1)

Le droit des influenceurs

LE DROIT DES INFLUENCEURS

La loi du 9 juin 2023[1], modifiée récemment par l’Ordonnance du 6 novembre 2024[2], a créé des obligations pour les influenceurs. Mais cette loi ne doit pas occulter le fait que ces derniers bénéficient, avant tout, de droits et libertés.

  • Liberté d’expression

Comme tout un chacun, les influenceurs bénéficient de droits et libertés fondamentales dont la liberté de s’exprimer, et de protéger leur réputation.

La liberté d’expression d’un influenceur repose sur le droit de partager ses opinions, idées et contenus sur des plateformes publiques, comme les réseaux sociaux.

En cas de censure par la plateforme, ils bénéficient de droits sur le fondement du Règlement DSA[3]: droit d’être clairement informé de ce qui leur est reproché, et droit de contester la décision prise par la plateforme.

Ils peuvent contester la suppression ou la restriction apportée à leur contenu, soit en agissant en interne contre la plateforme, soit en effectuant une action judiciaire ou extra-judiciaire.

Dans ce cas, il est nécessaire de recourir à un avocat afin qu’il défende au mieux vos intérêts.

  • Limites

 La liberté d’expression n’est cependant pas absolue et doit respecter certaines limites, dont le fait de ne pas provoquer ou inciter à la haine.

Un « influenceur» a par exemple été condamné cette année à 12 mois de prison avec sursis pour avoir incité sur Tiktok aux émeutes à Brest après la mort de Nahel.[4]

Il est donc extrêmement important pour les influenceurs de bien connaître la loi applicable à leur activité s’ils ne veulent pas se voir sanctionnés par la plateforme, ou condamnés à de lourdes peines.

  • Protection de la réputation

Les influenceurs, en raison de leur notoriété, sont en outre particulièrement exposés aux attaques, et en particulier aux atteintes à leur réputation.

Ils sont régulièrement victimes de diffamation, d’injure, de dénigrement, et peuvent faire l’objet de discrimination et de harcèlement.

Ils disposent néanmoins de droits pour se défendre et peuvent recourir à la justice pour protéger leur réputation et leur sécurité.

L’influenceur Jeremstar a par exemple obtenu la condamnation à de la prison ferme d’un journaliste qui l’avait harcelé sur internet[5].

Il a également obtenu la condamnation d’un autre influenceur (Aquababe) pour diffamation et injure à lui verser la somme de 12 000 euros de dommages et intérêts, et 2 000 euros d’amende[6].

L’affaire Booba contre Magali Berda est un autre exemple frappant d’atteinte à la réputation, et en particulier de cyberharcèlement : Des peines de prison ont été prononcées allant de 4 à 18 mois pour les 28 prévenus condamnés sur le fondement du harcèlement en ligne.[7]

  • Deepfake

Outre ces attaques, certains influenceurs sont confrontés à des pratiques telles que les deepfakes, utilisées pour manipuler leurs images et tromper leurs communautés.

Heureusement, la loi SREN prévoit des sanctions en cas d’abus[8].

A ce sujet, nous vous renvoyons à notre vidéo consacrée aux DeepFake[9].

  • Piratage

D’autres, plus rares, sont victimes de home jacking ou de braquages, en raison de leur visibilité publique.

Enfin certains font l’objet de piratage de leurs comptes via de faux signalements.

Ils peuvent alors agir sur le fondement du code pénal, ou tout simplement en concurrence déloyale s’il s’avère, après identification, que l’attaque provient d’un concurrent.

Afin d’identifier l’auteur de l’infraction, compte de la complexité de la procédure, il est nécessaire de s’adresser à un avocat.

  • Préjudice

Le préjudice que subissent les influenceurs ne se limite pas au financier : il est aussi moral.

En Italie dernièrement un jeune influenceur s’est suicidé à la suite d’une campagne de cyberharcèlement à son encontre[10].

Les influenceurs peuvent donc être victimes d’infractions, mais ils ont comme tout citoyen des droits pour se faire respecter.

  • La loi du 9 juin 2023, modifiée par l’Ordonnance du 6 novembre 2024

La loi du 9 juin 2023 a instauré un cadre juridique précis pour encadrer certaines pratiques des influenceurs, en définissant leurs obligations en matière de transparence et de responsabilité. Afin d’assurer une parfaite conformité avec le droit de l’Union européenne, cette législation vient d’être modifiée par l’Ordonnance du 6 novembre 2024.

Un texte essentiel pour les influenceurs, mais aussi pour les professionnels du droit, qui doivent suivre de près l’évolution de ce secteur en pleine expansion.

  • Définition de l’influenceur

Au sens large, l’influenceur, selon le dictionnaire Larousse, est une personne qui, grâce à sa position sociale, sa notoriété ou son exposition médiatique, exerce un pouvoir d’influence sur l’opinion publique.

Au sens strict, la loi du 9 Juin 2023 relative à l’influence commerciale définit l’influenceur comme les « personnes physiques ou morales qui, à titre onéreux, mobilisent leur notoriété auprès de leur audience pour communiquer au public par voie électronique des contenus visant à faire la promotion, directement ou indirectement, de biens, de services ou d’une cause quelconque exercent l’activité d’influence commerciale par voie électronique ».

Cette définition soulève plusieurs interrogations.

A quoi fait référence le terme de « notoriété » :  Au nombre d’abonnés, de « followers » ? Au taux d’engagement ? Au nom ? Le seul fait d’être rémunéré en promouvant des biens et des services en ligne suffit-il à caractériser la notoriété de l’influenceur ?

De plus, on peut se demander si cette loi s’applique uniquement aux publicités effectuées par les influenceurs ou également à l’influenceur qui fait la promotion de ses propres produits ou services.

Cette définition manque ainsi de précision laissant place à une certaine insécurité juridique.

  • Renvoi à la règlementation déjà applicable en matière de publicité

La loi de 2023 renvoi ensuite à la réglementation déjà applicable à la publicité en ligne.

L’article 3 de la loi de 2023 précise en effet que les règles relatives à la publicité et à la promotion des biens et services en ligne s’appliquent également à l’influence commerciale.

Ces règles couvrent plusieurs domaines, tels que les allégations nutritionnelles, la santé publique, les finances, ainsi que le sport.

  • Interdictions

L’article 4 da loi du 9 Juin 2023 interdit quant à lui la promotion de certains produits ou services par les influenceurs : le tabac, les produits contenant de la nicotine, les abonnements à des conseils ou à des pronostics sportifs, ou encore certains produits financiers à risque pouvant engendrer des pertes importantes comme l’offre de jetons, de bitcoin ou de contrats financiers.

Les promotions impliquant des animaux sont également interdites, sauf lorsqu’elles proviennent des établissements autorisés à en détenir.

Les publicités en ligne pour les jeux d’argent et de hasard sont autorisées uniquement sur des plateformes qui permettent d’exclure les mineurs (moins de 18 ans). Ces publicités doivent inclure une mention claire indiquant cette interdiction.

Quant au domaine médical, l’interdiction de promouvoir des actes, procédés techniques ou méthodes à visée esthétique s’applique uniquement à ceux pouvant présenter un risque pour la santé. De plus, la loi interdit désormais de promouvoir des produits ou pratiques « non thérapeutiques » présentés comme étant aussi efficaces ou même meilleurs que des traitements médicaux reconnus.

Enfin l’article L335-2 et L513-4 Code de la propriété intellectuelle interdit la promotion des produits ou services contrefaits, qu’il s’agisse de vêtements, de cosmétiques, logos etc… La contrefaçon enfreint les droits de propriété intellectuelle, ce qui peut entraîner de lourdes sanctions.

            ➢ Sanction

            En cas de non-respect de ces interdictions publicitaires, l’influenceur encourt une peine de cinq ans d’emprisonnement et une amende de 750 000 euros. L’Ordonnance du 6 novembre 2024 est venue renforcer les sanctions initialement prévues par la loi du 9 juin 2023, qui prévoyait jusque-là une peine de deux ans d’emprisonnement et une amende de 300 000 euros.

  • Information – obligation de transparence

            L’Ordonnance du 6 novembre 2024 assouplit les règles concernant les mentions obligatoires pour les influenceurs. Avant cette Ordonnance, il était prévu que, lorsqu’un influenceur faisait de la publicité ou une collaboration rémunérée, il devait obligatoirement indiquer les mots « publicité » ou « collaboration » de manière claire et compréhensible.

Avec cette nouvelle ordonnance, l’influenceur peut désormais utiliser une mention équivalente, plus adaptée à son activité et au type de contenu qu’il publie (article 5 de loi). Si cette mention est absente, cela sera considéré comme de la publicité trompeuse (omission commerciale trompeuse, sanctionnée par le Code de la consommation). Cette évolution permet de mieux tenir compte de la diversité des formats utilisés par les influenceurs.

L’Ordonnance facilite aussi l’utilisation des mentions suivantes : « image retouchée » (en cas de modification visant à affiner la silhouette, modifier l’apparence du visage etc…) ; « image virtuelle » (visant à représenter un visage ou une silhouette par intelligence artificielle).

Enfin, lorsqu’un influenceur promeut une formation professionnelle, il doit informer ses abonnés sur le financement, les engagements liés à la formation, ainsi que sur l’identification des prestataires responsables.

Tout cela est mis en place pour protéger les utilisateurs et garantir une transparence dans les pratiques de promotion.

            Sanction

            En cas de manquement, l’influenceur s’expose désormais à une peine d’un an de prison et à une amende de 4500 euros. Sur ce point, l’Ordonnance du 6 novembre 2024 a assoupli les sanctions relatives aux promotions commerciales qui étaient initialement fixées à deux ans de prison et 300 000 euros d’amende.

  • Le drop shipping

            L’article 6 de la loi de 2023 régule le recours au drop shipping par des influenceurs. Le dropshipping, ou « livraison directe », désigne un modèle de vente en ligne dans lequel le vendeur se charge uniquement de la commercialisation et de la vente des produits, c’est le fournisseur qui expédie directement les marchandises au consommateur final. En général, le consommateur n’est pas informé de l’existence du fournisseur, ni de son rôle dans le processus (définition du site du gouvernement).

Ledit article prévoit que, en cas de dropshipping, l’influenceur est responsable vis-à-vis de l’acheteur, notamment en ce qui concerne la qualité du produit et la bonne exécution de la transaction.

La loi exige le respect de plusieurs conditions :

Tout d’abord, le produit doit être conforme à la législation française et européenne. Ensuite, l’acheteur doit pouvoir connaître l’identité du fournisseur. Enfin, les informations relatives au produit, telles que le prix, les caractéristiques et les conditions de vente, doivent être clairement affichées.

  • L’agent d’influenceur

            L’article 7 de la loi de 2023 régule l’activité d’agent d’influenceur. Cela consiste à « représenter, à titre onéreux, les personnes physiques ou morales qui exercent une activité d’influence commerciale par la voie électronique (voir définition), avec des personnes physiques ou morales et le cas échéant, leurs mandataires, dans le but de promouvoir, à titre onéreux, des biens, des services ou une cause quelconque ».

L’article 8 précise qu’un contrat entre un influenceur et son agent doit être rédigé par écrit, sous peine d’être annulé. Il doit inclure des informations essentielles comme l’identité des deux parties, le montant de la rémunération, les missions de l’influenceur et les droits et obligations de chacun. Si des dommages sont causés à des tiers pendant l’exécution du contrat, l’influenceur et son agent seront tous les deux responsables.

  • L’influenceur étranger

L’article 9 de la loi dispose que les influenceurs étrangers (c’est-à-dire ceux qui ne sont pas basés dans l’UE, en Suisse ou dans l’Espace économique européen) doivent désormais désigner un représentant légal et souscrire une assurance responsabilité civile professionnelle dans l’UE, en Suisse ou dans l’EEE.

Cette règle s’applique aux influenceurs qui ciblent un public en France, même s’ils ne sont pas établis sur le territoire français.

Cela permet de garantir la conformité de leurs contrats au regard du droit français et de répondre aux demandes des autorités.

Un influenceur basé à l’étranger verra ses contenus bloqués s’il ne respecte pas la loi française, notamment sur le caractère commercial de ses publications ou la promotion de produits interdits ou réglementés. Les plateformes sont responsables si elles ne retirent pas ces contenus après en avoir été informées par signalement.

  • Le mineur influenceur

À l’ère où les jeunes sont de plus en plus présents sur les réseaux sociaux, la loi de 2023 encadre les activités des mineurs influenceurs.

Si un influenceur a moins de 18 ans, un contrat écrit avec l’annonceur est obligatoire. Si l’influenceur a moins de 16 ans, il doit obtenir une autorisation administrative en plus du contrat avec l’annonceur pour pouvoir exercer cette activité.

Si une personne de moins de 16 ans exerce une activité d’influenceur, son employeur doit se conformer à la loi du 19 octobre 2020 relative à l’exploitation de l’image des enfants de moins de 16 ans sur les plateformes en ligne.

Le revenu perçu par le mineur est protégé jusqu’à sa majorité.

L’article 2, 3° de la loi précise que les modalités applicables au contrat entre l’annonceur et le représentant légal du mineur sont identiques à celles régissant la relation entre l’agent de l’influenceur et l’influenceur, comme indiqué à l’article 8.

Cela inclut l’obligation d’établir un contrat écrit, d’y mentionner l’identité des parties, la nature des missions confiées, la rémunération, ainsi que les droits et obligations des parties, la soumission du contrat au droit français.

  • Plateformes

            Les plateformes qui hébergent les contenus des influenceurs sont soumises à une réglementation stricte. Elles doivent permettre aux utilisateurs de signaler facilement tout contenu illicite (via un formulaire) et le retirer rapidement si le signalement est justifié.

Dès lors que les contenus des influenceurs respectent les conditions de la plateforme (CGU) et la loi française, celle-ci n’a aucune raison de les bloquer ou de les limiter. Elle ne peut pas non plus les modifier sans l’accord de l’influenceur. En cas de censure, il est nécessaire de prendre attache avec un avocat afin qu’il défende au mieux vos intérêts.

Les plateformes doivent coopérer activement avec les autorités, ce qui place les influenceurs sous une certaine surveillance, renforçant ainsi le contrôle sur les contenus diffusés.

Il est possible de signaler des contenus trompeurs ou qui ne respectent pas les règles de promotion de certains produits sur le site de la DGCCRF (www.signal.conso.gouv.fr). Des associations appelées « signaleurs de confiance » permettent aussi de signaler des comportements nuisibles en ligne.

 

  • Amendes – DGCCRF

            En 2023, plus de la moitié des 300 influenceurs contrôlés par la DGGCRF se sont retrouvés en infraction. La peine encourue par les influenceurs varie en fonction de l’infraction : cela peut aller d’une peine d’amende à une peine de prison dans les cas les plus graves.

Par exemple, en 2021, Nabilla a été condamnée à une amende de 20 000 € pour pratiques commerciales trompeuses, en raison de la promotion sur Snapchat d’un site de formation au trading en ligne.

De son côté, Poupette Kenza a écopé d’une amende de 50 000 €, après avoir été reconnue coupable de pratiques commerciales trompeuses. Elle a notamment omis d’indiquer la véritable nature commerciale de certains contenus sponsorisés et a donné l’impression que la vente d’un blanchisseur de dents, interdit en France, était légale.

A titre comparatif, nous sommes loin de l’amende d’1 million de dollars infligée à Kim Kardashian aux États-Unis pour avoir frauduleusement promu une cryptomonnaie, et très éloigné des redressements fiscaux de certains influenceurs, avec des montants pouvant dépasser les 400 000 euros.

Dans le cadre de leurs activités, les influenceurs s’exposent à diverses sanctions, pouvant aller de la fermeture de leur compte à l’obligation d’afficher leur condamnation sur leurs réseaux sociaux, voire au paiement de dommages-intérêts.

Face à ces risques, il est essentiel pour eux de maîtriser les lois qui régissent leur domaine d’activité, afin d’éviter des peines sévères et protéger leur réputation.

Arnaud DIMEGLIO

Avocat à la Cour, Docteur en droit, Titulaire des mentions de spécialisation en droit du numérique, de la communication, et de la propriété intellectuelle. Bureau principal : 8 place St. Côme, 34000 Montpellier, Bureau secondaire : 10 avenue de l’Opéra, 75001 Paris,Tel : 04.99.61.04.69, Fax : 04.84.88.75.81

http://www.dimeglio-avocat.com

[1] https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047663185

[2] https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000050456412

[3] https://www.village-justice.com/articles/reglement-dsa-quels-benefices-risques,47132.html

[4] https://www.lefigaro.fr/faits-divers/mort-de-nahel-un-influenceur-condamne-a-douze-mois-de-prison-avec-sursis-pour-avoir-incite-aux-emeutes-a-brest-20240220

[5] https://tvmag.lefigaro.fr/programme-tv/jeremstar-fait-condamner-un-journaliste-a-de-la-prison-ferme-pour-cyberharcelement_977fd706-d35e-11eb-bb56-c93fd74ea56a

[6] https://www.leparisien.fr/faits-divers/jeremstar-obtient-la-condamnation-du-blogueur-aqababe-pour-diffamation-02-06-2022-EHOY565ZIBEMTNONEWBZQNK3LM.php

[7] https://www.lemonde.fr/pixels/article/2024/03/19/cyber-harcelement-contre-magali-berdah-des-peines-de-prison-allant-de-quatre-a-dix-huit-mois-pour-les-28-prevenus_6222877_4408996.html

[8] https://www.village-justice.com/articles/loi-sren-les-principales-mesures,49487.html

[9] https://youtu.be/4xEBBi3uP_I?si=TBti5JTc0rKXEpd6

[10] https://www.ouest-france.fr/europe/italie/victime-dhomophobie-et-de-depression-un-influenceur-italien-de-21-ans-met-fin-a-ses-jours-dd24fcf0-96ba-11ef-aa5b-49745cfc6671

Droit du deepfake

Alors que le Parlement Européen vient d’adopter la proposition de règlement sur l’intelligence artificielle[1], tour d’horizon de la règlementation du deepfake.

Pour lire la suite, cliquez ici

Règlements DSA / DMA : c’est parti !

Après l’entrée en application du règlement DSA, c’est au tour du règlement DMA : à compter du 6 mars 2024, les « contrôleurs d’accès », dont les fameux GAFAM, devront le respecter[i].

Pour lire la suite, cliquez ici

La fin du droit (numérique) ?

En ce début d’année, on peut légitimement se demander si on n’assiste pas à une forme d’extinction de notre droit, en particulier dans le domaine de l’internet. Pour lire la suite, Cliquer ici

Projet de loi SREN

Le projet de Loi visant à Sécuriser et à Réguler l’Espace Numérique (SREN) est en cours d’adoption par le Parlement.Pour lire la suite, cliquez ici