minia_mineurs_02

Interdire les réseaux sociaux aux moins de 15 ans

Interdire les réseaux sociaux aux moins de 15 ans : une loi fragile… et potentiellement dangereuse

L’Assemblée nationale vient de voter une proposition de loi visant à interdire l’accès aux réseaux sociaux aux moins de 15 ans, y compris lorsque les parents donnent leur autorisation.

Même si le texte ne cite aucune plateforme officiellement, il est évident que les principaux réseaux sont visés : TikTok, Instagram, Facebook, X (Twitter), Snapchat, et plus largement toutes les plateformes utilisées quotidiennement par les adolescents.

Sur le papier, l’intention peut sembler louable : protéger les mineurs.
Mais juridiquement, ce projet apparaît extrêmement fragile… et pourrait même devenir un danger pour nos libertés fondamentales.


Une intention “protectrice”… mais un texte juridiquement instable

L’idée est simple : limiter l’exposition des mineurs à :

  • des contenus choquants

  • des mĂ©canismes addictifs

  • des algorithmes intrusifs

  • du cyberharcèlement

  • des contenus illĂ©gaux

Mais le problème, c’est qu’en droit, une loi ne se juge pas seulement à son intention. Elle se juge à sa solidité juridique, à sa faisabilité technique et à son impact réel.

Et sur ces trois points, le texte pose de sérieux problèmes.


Le précédent : la vérification d’âge sur les sites pornographiques

Pour comprendre pourquoi cette loi risque d’être inefficace (et contestée), il suffit de regarder ce qui se passe déjà avec la vérification d’âge sur les sites pornographiques.

Depuis 2024, ces sites sont censés vérifier l’âge des utilisateurs, selon un protocole technique strict défini par l’ARCOM.

Mais en pratique :

  • plusieurs grands sites ont bloquĂ© l’accès depuis la France

  • une grande partie des utilisateurs utilisent un VPN

  • la loi est massivement contournĂ©e

  • le dispositif est contestĂ© devant les tribunaux

Le Conseil d’État a même posé une question centrale à la Cour de justice de l’Union européenne (CJUE) :

👉 La France peut-elle imposer une vĂ©rification d’âge Ă  des sites Ă©tablis dans d’autres pays europĂ©ens ?

Problème : la CJUE n’a toujours pas répondu.

Autrement dit : même pour un contenu clairement interdit aux mineurs, la base juridique n’est pas totalement sécurisée.


Si ça ne marche pas pour la pornographie… pourquoi ça marcherait pour les réseaux sociaux ?

C’est là que le projet devient encore plus fragile.

Un site pornographique diffuse un contenu illégal pour les mineurs.
Un réseau social, lui, ne diffuse pas “un contenu interdit” : il diffuse de l’expression, de l’information, du débat et de la socialisation.

Bien sûr, il existe des dérives :

  • cyberharcèlement

  • contenus illĂ©gaux

  • exploitation commerciale des mineurs

  • mĂ©canismes addictifs

Mais dans l’écrasante majorité des cas, les contenus présents sur les réseaux sociaux sont licites.

👉 Interdire l’accès aux rĂ©seaux sociaux n’est donc pas comparable Ă  l’interdiction d’un site porno.


Le problème technique majeur : pour vérifier l’âge des mineurs… il faut vérifier l’âge de tout le monde

Et c’est LE point central.

Concrètement, comment empêcher un mineur de créer un compte ?

La réponse est simple :
➡️ il faut mettre en place une vĂ©rification d’âge gĂ©nĂ©ralisĂ©e, pas seulement pour les mineurs… mais aussi pour les majeurs.

Donc on arrive à une conséquence directe :

📌 Pour protĂ©ger les mineurs, on met en place un contrĂ´le massif de l’identitĂ© numĂ©rique de toute la population.

Et juridiquement, ça pose au moins trois problèmes majeurs.


Problème n°1 : la liberté d’expression et le droit à l’information

Pour les mineurs, interdire les réseaux sociaux revient à une forme directe de censure.

Mais même pour les majeurs, cela crée un effet bien connu en droit :

Le “chilling effect”

C’est un phénomène où les gens s’autocensurent, parce qu’ils pensent être surveillés, tracés, identifiés.

Autrement dit :
mĂŞme si on ne censure pas officiellement, on change le comportement des citoyens.


Problème n°2 : le RGPD et le principe de minimisation des données

Le RGPD repose sur un principe fondamental :

✅ la minimisation des donnĂ©es

C’est-à-dire : ne collecter que ce qui est strictement nécessaire.

Or une vérification d’âge généralisée implique :

  • une collecte massive de donnĂ©es personnelles

  • des systèmes d’identification ou de preuve d’âge

  • un risque de centralisation ou de fuites

Et dans la plupart des cas, ce type de traitement est difficile à justifier comme étant proportionné.


Problème n°3 : le DSA et l’interdiction de surveillance généralisée

Le DSA (Digital Services Act) repose sur un principe clair :

📌 Les plateformes n’ont pas d’obligation gĂ©nĂ©rale de surveillance.

Or imposer une vérification d’âge permanente revient à instaurer une forme de contrôle systématique.

Donc il existe un risque sérieux d’incompatibilité avec le droit européen.


Une loi réellement applicable… ou un outil de communication politique ?

La conclusion est assez brutale :

Ce projet ressemble davantage à un outil de communication politique qu’à un texte juridiquement solide.

Sur le papier, il rassure.
Dans les faits, il est :

  • difficilement applicable

  • très facilement contournable

  • juridiquement contestable

  • potentiellement dangereux pour les libertĂ©s

Et surtout : il ne règle pas réellement les problèmes de fond.


La vraie question : comment protéger les mineurs sans sacrifier les libertés de tous ?

C’est probablement le cœur du sujet.

Après les fake news, il ne faudrait pas faire du “faux droit” :
des lois symboliques, inefficaces, mais qui créent des précédents dangereux.

Plutôt que d’empiler de nouveaux textes, ne faudrait-il pas simplement :

  • appliquer rĂ©ellement le DSA

  • appliquer le RGPD

  • obliger les plateformes Ă  rĂ©duire les mĂ©canismes addictifs

  • renforcer la lutte contre le cyberharcèlement

  • exiger des systèmes de modĂ©ration plus efficaces


Conclusion

Interdire les réseaux sociaux aux moins de 15 ans peut sembler une bonne idée… mais le droit n’est pas un slogan.

Une loi fragile, contournable et juridiquement instable risque de produire l’effet inverse :

➡️ plus de surveillance, plus de collecte de donnĂ©es, plus d’atteintes aux libertĂ©s,
pour un résultat incertain sur la protection des mineurs.

La question reste donc entière :

👉 Comment protĂ©ger efficacement les mineurs sans porter atteinte aux libertĂ©s fondamentales de tous ?

2025 – Tous droits rĂ©servĂ©s

minia_macron_03

Faux coup d’État en France

Faux coup d’État en France : la vidéo virale qui a piégé Facebook… et la réaction de Macron

Depuis quelques jours, une vidéo circule massivement sur Facebook et d’autres plateformes, annonçant un prétendu coup d’État en France et la “chute” imminente du président Emmanuel Macron. Le contenu, présenté comme une séquence journalistique crédible, a généré des millions de vues et a provoqué des réactions jusque dans l’entourage présidentiel.

Mais derrière cette séquence sensationnaliste, une réalité beaucoup plus simple : il s’agit d’un deepfake, c’est-à-dire une vidéo truquée produite grâce à l’intelligence artificielle.

Alors que l’Élysée s’est emparé du sujet, cette affaire relance une question majeure : faut-il une nouvelle loi contre ce type de désinformation, ou le droit actuel est-il déjà suffisant ?


Une fausse vidéo virale annonçant un coup d’État

Le scénario de la vidéo est simple, mais efficace : une journaliste supposément en direct près de l’Élysée affirme qu’un colonel aurait pris le pouvoir, et que le président Macron serait sur le point d’être renversé.

Le message est construit pour ressembler à un flash info, avec un ton alarmiste, des détails précis… et un réalisme suffisant pour semer le doute chez certains internautes.

À ce stade, aucun communiqué officiel n’a évidemment confirmé un quelconque événement de ce type. Et pour cause : tout est faux.


Macron évoque une “ingérence étrangère”

Lors d’une conférence donnée au journal La Provence, Emmanuel Macron a évoqué cet épisode comme un exemple concret de désinformation et d’ingérence étrangère.

Il raconte notamment qu’un collègue africain lui aurait envoyé un message inquiet :

“Cher président, qu’est-ce qui se passe chez vous ? Je suis très inquiet.”

Le président explique ensuite que cette vidéo a été tellement virale qu’il a demandé à son équipe de tenter un retrait rapide auprès de la plateforme.

Et il conclut, avec une formule ambiguë :

“Alors nous ça nous fait marrer.”


Deepfake ou ingérence : une confusion juridique ?

Le problème, selon plusieurs observateurs, c’est que Macron présente cette vidéo comme une “ingérence étrangère”, alors qu’il s’agirait plutôt d’un deepfake créé par un jeune au Burkina Faso, simplement pour faire connaître son activité de création de vidéos IA.

Autrement dit : pas forcément une opération politique coordonnée, mais plutôt une démonstration virale… qui a dépassé son auteur.

Cette nuance est importante, car elle pose une question centrale :

👉 Une vidĂ©o IA faite depuis l’étranger est-elle automatiquement une ingĂ©rence ?
Pas forcément.


Licite ou illicite : un discours contradictoire ?

Autre point soulevé : le président semble hésiter entre deux positions.

D’un côté, il affirme que la vidéo est tellement absurde qu’elle fait rire :

“Nous ça nous fait marrer.”

Mais de l’autre, il affirme qu’elle représente un danger pour la démocratie et la sécurité publique.

Or, juridiquement, la question est essentielle :

  • Si c’est un contenu “évidemment faux”, il est difficile de justifier une rĂ©pression lourde.

  • Si c’est un contenu dangereux, alors il faut pouvoir agir rapidement.

Cette contradiction alimente un débat : où placer la limite entre la satire, la désinformation et le risque réel ?


PHAROS, Facebook, et le retrait refusé

Emmanuel Macron affirme également avoir demandé un retrait via PHAROS, la plateforme de signalement française.

Mais selon plusieurs analyses, PHAROS n’est pas compétent pour demander le retrait de ce type de contenu, car son champ d’action concerne principalement :

  • les contenus pĂ©dopornographiques

  • les contenus terroristes

  • certaines infractions graves

Il n’est donc pas surprenant que Facebook (Meta) ait répondu que la vidéo :

“ne contrevient pas aux règles d’utilisation”

Résultat : refus de retrait, malgré la viralité.


Macron propose une nouvelle loi pour retirer plus vite ce type de contenu

Suite à cette affaire, Emmanuel Macron propose l’idée d’une nouvelle loi permettant de retirer rapidement les contenus manifestement faux qui :

  • dĂ©stabilisent le dĂ©bat public

  • mettent en danger la sĂ©curitĂ© publique

  • provoquent un chaos informationnel

L’objectif affiché : ne pas laisser les plateformes décider seules, et mettre en place une procédure claire, votée par le législateur, au niveau français et européen.


Pourtant, des lois existent déjà en France et en Europe

C’est là que le débat devient intéressant.

Car contrairement à ce que laisse entendre le président, il existe déjà un arsenal juridique conséquent :

✅ En France

  • L’infraction de “montage” prĂ©vue dans le code pĂ©nal (adaptĂ©e aux contenus truquĂ©s)

  • Les textes contre les fausses nouvelles troublant l’ordre public

✅ En Europe

  • Le code de conduite contre la dĂ©sinformation

  • Le règlement europĂ©en sur l’intelligence artificielle (AI Act)

Ce dernier prévoit notamment qu’à partir d’août 2026, les contenus générés ou modifiés par IA devront être accompagnés d’une forme de transparence, indiquant qu’il s’agit d’un contenu artificiel.


Une nouvelle loi : utile… ou dangereuse ?

Certains estiment qu’une nouvelle infraction serait inutile.

Pourquoi ?

Parce que si un contenu est “manifestement faux”, alors en théorie, personne n’y croit.

Et surtout, le droit français prévoit déjà une exception importante :

👉 il n’y a pas d’infraction si le montage est Ă©vident.

Donc une nouvelle loi pourrait créer un doublon, voire un flou juridique.


Le vrai risque : limiter la liberté d’expression sous le coup de l’émotion

Le point le plus sensible reste celui-ci : en voulant lutter contre les deepfakes, on risque de créer une loi trop large qui pourrait :

  • censurer des contenus satiriques

  • limiter la libertĂ© d’expression

  • renforcer le pouvoir de retrait administratif

  • donner un outil dangereux en cas d’abus politique

Le tout sous prétexte de “sécurité publique”.


Conclusion : faut-il une loi anti-deepfake en plus ?

Cette affaire montre surtout une chose : la désinformation via IA est déjà là, et elle peut devenir virale en quelques heures.

Mais elle révèle aussi une autre réalité :

📌 Le problème n’est pas forcĂ©ment l’absence de lois, mais l’application rapide et claire des règles existantes, ainsi que la responsabilitĂ© des plateformes.

La question reste ouverte :

👉 Faut-il vraiment une nouvelle loi… ou simplement mieux utiliser celles qui existent dĂ©jĂ  ?

2025 – Tous droits rĂ©servĂ©s