Alors que le Parlement Européen vient d’adopter la proposition de règlement sur l’intelligence artificielle[1], tour d’horizon de la règlementation du deepfake.
1/Liberté :
Le mot « deepfake », traduit par hypertrucage en français, est formé à partir des termes « deep learning » (apprentissage profond[1]) et fake (faux). Il désigne une technique qui permet de réaliser, grâce à l’intelligence artificielle, des montages d’images, de vidéo, et de son.
Il a par exemple permis de créer de :
- Fausses images du pape François en Doudoune blanche, de Emmanuel Macron en éboueur, de Donald Trump en état d’arrestation, de Taylor Swift à caractère sexuel,
- Fausses vidéos de Barak Obama qualifiant Trump de « sombre merde », de Tom Cruise en train de jouer au golf, de Marine le Pen revêtue d’un foulard islamique et parlant l’arabe etc…
A cette liste, nous devrions aussi ajouter la création de faux textes générés par l’IA, mais curieusement l’écrit échappe pour l’instant à la définition de Deepfake. En effet, dans la proposition de règlement sur l’IA telle qu’adoptée par le parlement européen[2], la définition de l’hypertrucage ne fait référence qu’à l’audio et à la vidéo[3].
Par analogie, nous devrions pourtant considérer ce contenu comme faux puisqu’il est généré artificiellement.
Ensuite le terme de deep fake est à rapprocher de celui de « Fake news ». Un mot relie en effet les deux : celui de « fake », lequel traduit la fausseté, le mensonge.
De là à penser qu’il s’agit d’une pratique illégale, illicite, il n’y a qu’un pas. Pourtant le « deepfake », à l’instar des « fakenews » [4], n’est pas en principe illégal.
Il ne faut pas en effet confondre la morale avec le droit. Ce qui est moralement interdit ne l’est pas nécessairement d’un point de vue juridique. Or ce qui est faux, mensonger n’est pas en soi juridiquement interdit.
Ce n’est que dans certains cas que le faux, le mensonge est illégal[5]. Hélas, en ces temps un peu trouble, la tendance est à la confusion. Il est donc nécessaire de rappeler que le principe est la liberté[6], et la restriction, l’exception.
Afin de préserver nos libertés, ne faudrait-il pas au contraire reconnaître que l’intelligence artificielle en générale, et le « deepfake » en particulier, sont libres ?
Cette technique peut en effet être utilisée de manière parfaitement licite :
- Pour générer un texte à partir d’un autre texte (prompt) (du type ChatGPT)
- Pour générer des contenus audios ou vidéos
Grâce au deepfake, il est désormais possible de se cloner numériquement en utilisant son image et sa voix (Cf. notre vidéo). Ce qui peut être utilisé comme un moyen au service de la liberté d’expression comme l’a été l’imprimerie, la radio, la télé, le téléphone, et aujourd’hui l’Internet.
Mais il existe une telle crainte vis-à-vis des nouvelles technologies que la tendance est à la méfiance, à la crainte, à la règlementation, à la restriction, plutôt qu’à la liberté.
Il convient par conséquent de reconnaître le principe de liberté applicable au deepfake.
Ce qui n’exclut pas de l’encadrer.
2/Limites :
Il existe plusieurs limites à la création d’un deepfake :
- Obligation de transparence
Il n’existe pas actuellement une obligation générale d’indiquer le caractère artificiel d’un deepfake. Il existe néanmoins des obligations spécifiques.
La loi du 9 juin 2023[7] prévoit l’obligation pour les influenceurs diffusant des contenus commerciaux comprenant des visages ou des silhouettes ayant fait l’objet de modification par traitement d’image d’indiquer la mention « images retouchées ».
En cas de création de cette image par l’intelligence artificielle, ils doivent ajouter la mention « Images virtuelles ». Ces mentions doivent être claires, lisibles et identifiables sur l’image ou sur la vidéo, sous tous les formats, durant l’intégralité du visionnage.
De façon analogue, une obligation de transparence existe pour les mannequins[8].
Par ailleurs, le caractère artificiel du contenu doit apparaître en cas de montage réalisé avec les paroles ou l’image d’une personne sans son consentement. (Cf. ci-après l’infraction de montage).
Enfin, l’absence de mention sur le caractère artificiel du contenu ne doit pas avoir pour objet de tromper les consommateurs. A défaut, l’infraction de publicité trompeuse[9] pourrait être constituée.
En revanche, la proposition de règlement européen sur l’intelligence artificielle va considérablement élargir cette obligation de transparence.
En effet, elle crée une obligation de transparence[10] pour les fournisseurs et les utilisateurs[11] de certains systèmes d’IA.
Concernant les fournisseurs de systèmes d’IA qui permettent de générer des deep fake, ou des textes générés par IA, ils devront marquer techniquement les contenus produits (Article 50.2)[12]. Si le deepfake est interactif, ils devront en plus en informer les personnes concernées sauf si cela apparaît évident ou dans le cas de lutte contre les infractions pénales (Article 50.1).
S’agissant des utilisateurs, ils devront mentionner le caractère artificiel du deepfake (Article 50.4). Cependant, cette obligation ne leur sera pas applicable :
- S’ils font un usage strictement personnel à caractère non professionnel de l’IA ou,
- Si l’utilisation est autorisée par la loi à des fins de lutte contre des infractions pénales
Le texte européen distingue ensuite les contenus textuels des contenus audio, image, et vidéo :
- Lorsque le contenu est audio et/ou visuel, l’utilisateur devra indiquer son caractère artificiel. Le texte européen prévoit néanmoins un assouplissement en cas d’utilisation à des fins artistiques[13]: la mention pourra être effectuée de façon à ne pas entraver l’affichage ou la jouissance de l’œuvre.
- Lorsque le contenu produit est textuel, l’utilisateur devra indiquer son caractère artificiel uniquement s’il vise à informer le public sur des questions d’intérêt public. Cette obligation est néanmoins écartée quand le contenu généré par l’IA a fait l’objet d’un contrôle humain et qu’une personne assume la responsabilité éditoriale de la publication du contenu.
Avec le règlement sur l’IA, l’obligation de transparence va ainsi fortement s’élargir au risque peut être de freiner la création. Sans compter que ce texte prévoit des règles générales ainsi que des interdictions qui pourraient s’appliquer aux systèmes d’IA permettant la création de deepfake.
En attendant, seul notre droit national est applicable.
- L’infraction de montage :
Selon l’article 226-8 du code pénal :
« Est puni d’un an d’emprisonnement et de 15 000 euros d’amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention. »
L’infraction de montage paraît sans difficulté s’appliquer au deepfake.
Avec cette infraction, ce qui est illégal, c’est d’effectuer, d’une part, un montage sans le consentement de la personne, et d’autre part, de le dissimuler.
A contrario, le montage réalisé avec les paroles ou l’image d’une personne consentante, ou de manière explicite, fusse-t’il avec l’IA, n’est pas en soi illicite.
Le projet de loi LSREN[14] prévoit d’adapter cette infraction à l’hypothèse spécifique du deepfake en l’élargissant au contenu porté à la connaissance du public ou d’un tiers, ce qui inclut non seulement la diffusion mais aussi le partage.
Il prévoit également d’aggraver la peine à deux ans d’emprisonnement et à 45 000 euros d’amende lorsque le délit a été réalisé en utilisant un service de communication au public en ligne.
- L’infraction d’usurpation d’identité :
Selon l’article 226-4-1 du Code pénal,
« Le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération, est puni d’un an d’emprisonnement et de 15 000 € d’amende. »
Avec cette infraction, le seul fait d’utiliser les données d’une personne ne suffit pas à caractériser l’infraction. Encore faut-il « troubler sa tranquillité » ou encore « porter atteinte à son honneur ou à sa considération ».
- L’infraction d’atteinte à la vie privée
Les infractions de montage et d’usurpation d’identité apparaissent ainsi applicables à certains deepfake.
L’infraction d’atteinte à la vie privée (article 226-1 du code pénal) est aussi envisageable. En revanche celle de « Revenge porn »[15] (226-2-1 du code pénal) est mal adaptée.
Pour que cette infraction soit constituée, il faut en effet que soit utilisé un contenu à caractère sexuel réel. Ce qui n’est généralement pas le cas lorsqu’un deepfake est créé. Ces données sont en effet générées de façon artificielle avec l’IA.
À ce sujet, la création par le projet de loi LSREN d’un nouvel article 226-8-1 du code pénal apparaît pleinement justifiée[16].
- La contrefaçon
L’infraction de contrefaçon au droit d’auteur est aussi parfois invoquée à l’encontre de l’IA. Un contenu protégé peut en effet être réutilisé par l’intelligence artificielle, soit en amont, soit en aval.
Plusieurs procès en cours concernent l’utilisation en amont de tels contenus par les systèmes d’IA[17]. En défense, il est soulevé la possible application d’exceptions aux droits d’auteur : « fair use » aux Etats-Unis, exception de fouille (data mining)[18], ou d’échantillonage (sampling)[19] en Europe.
A ce sujet, la proposition de règlement européen sur l’IA reconnaît la possible application de l’exception de fouille[20]. Elle crée en outre une obligation pour les fournisseurs de modèles d’IA à usage général de mettre en place une politique visant à respecter la législation européenne sur le droit d’auteur, et de mettre à la disposition du public un résumé du contenu utilisé pour l’entraînement[21].
La question de la contrefaçon se pose également, en aval, lorsqu’un contenu protégé par droit d’auteur est utilisé pour réaliser un deepfake. Si le contenu est réutilisé comme tel, ou de manière dérivée, la contrefaçon s’applique. Il convient néanmoins, là aussi, de vérifier si des exceptions au droit d’auteur ne sont pas applicables telles que la courte citation, la parodie, le pastiche et la caricature. Un genre qui semble bien se prêter au deepfake.
D’autres limites pourraient être mentionnées, comme l’infraction de faux, l’atteinte aux données personnelles, au respect de la réputation[22], ou encore l’escroquerie, et le parasitisme.
Il conviendra d’analyser, au cas par cas, chaque deepfake. Ces limites ne doivent pas néanmoins être l’arbre qui cache la forêt. Avant de suspecter d’illicéité un deepfake, il conviendra de vérifier s’il ne peut bénéficier du principe de liberté.
Arnaud DIMEGLIO,
Avocat à la Cour, Docteur en droit, Titulaire des mentions de spécialisation en droit du numérique, de la communication, et de la propriété intellectuelle.
Bureau principal : 8 place St. Côme, 34000 Montpellier,
Bureau secondaire : 10 avenue de l’Opéra, 75001 Paris,
Tel : 04.99.61.04.69, Fax : 04.99.61.08.26
http://www.dimeglio-avocat.com
[1] Apprentissage automatique qui utilise un réseau de neurones artificiels composé d’un grand nombre de couches dont chacune correspond à un niveau croissant de complexité dans le traitement et l’interprétation des données. Vocabulaire de l’intelligence artificielle (liste de termes, expressions et définitions adoptés)
[2] https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_FR.pdf
[3] Article 3 – définition (60) de la proposition de Règlement : « « hypertrucage », une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou événements existants et pouvant être perçu à tort comme authentique ou véridique »
[4] Sur les Fakenews cf notre vidéo : Qu’est-ce qu’une fausse information ? https://www.youtube.com/watch?v=gsm5O3X9pt8 et notre article sur les fausses informations : https://dimeglio-avocat.com/fake-news-ou-fausses-informations/
[5] Infraction de faux, dénonciation calomnieuse, diffamation, usurpation d’identité, montage, escroquerie, etc….
[6] Liberté de création, d’expression, d’entreprendre, de communication, de publication, d’édition etc..
[7] Article 5 II de la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux
[8] L’article L. 2133-2 du Code de la santé publique, prévoit en effet que les photographies à usage commercial de mannequins, dont l’apparence corporelle a été modifiée par un logiciel de traitement d’image afin d’affiner ou d’épaissir leur silhouette doivent être accompagnées de la mention : « Photographie retouchée « .
[9] Articles L. 121-1 et s. du code de la consommation
[10] Chapitre IV : Obligations de transparence pour les fournisseurs et les déployeurs de certains systèmes d’IA (article 50) de la proposition de Règlement IA
[11] Le texte actuel de la proposition utilise le terme de déployeur (Article 3 – définition (4) de la proposition de Règlement)
[12] Il existe néanmoins quelques exceptions : Fonction d’assistance de mise en forme, modification non substantielle, lutte contre les infractions pénales
[13] Article 50, 3 : « Lorsque le contenu fait partie d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue »
[14] Cf l’article 4 bis du projet de loi : https://www.assemblee-nationale.fr/dyn/16/dossiers/alt/DLR5L16N47884
[15] Utilisation d’image ou de parole à caractère sexuel, pornographique
[16] Cf l’article 5 ter du projet de loi : https://www.assemblee-nationale.fr/dyn/16/dossiers/alt/DLR5L16N47884
[17] A l’encontre de Open IA (ChatGPT), Microsoft ou encore à l’encontre des IA Midjourney, et Stability AI.
[18] Article L. 122-5 du Code de la propriété intellectuelle
[19] Pour la CJUE, « la technique de l’« échantillonnage » (sampling), qui consiste, pour un utilisateur, à prélever, le plus souvent à l’aide d’équipements électroniques, un échantillon d’un phonogramme, et à l’utiliser aux fins de la création d’une nouvelle œuvre, constitue une forme d’expression artistique qui relève de la liberté des arts ». (CJUE, gde ch., 29 juill. 2019, no C-476/17, Pelham)
[20] Considérant 105 de la proposition de Règlement IA
[21] Article 53 1 c) et d) de la proposition de Règlement IA
[22] Diffamation, injure, dénigrement, dénonciation calomnieuse, outrage etc…