La censure des plateformes

Fermeture de comptes par Facebook et Twitter, bannissement de publicités par Google, déréférencement dans Google News, démonétisation ou suppression de vidéos dans Youtube : Les Gafa s’arrogent de plus en plus le droit de censurer des contenus sur leur plateforme. 

En ont-elles le droit ? quelles sont leurs obligations ? Tour d’horizon des règles applicables.

 

Le principe : la liberté d’expression

Il convient tout d’abord de rappeler que le principe est la liberté d’expression, et la restriction l’exception : il ne peut être porté atteinte à la liberté qu’en cas d’abus prévu par la loi.
Plusieurs textes prévoient des limites à la liberté d’expression dont :

– La loi de 1881 relative à la liberté de la presse laquelle définit notamment les infractions d’injure, de diffamation, et de provocation.
– Le code civil : atteinte à la vie privée, dénigrement, présomption d’innocence etc…
– Le code pénal : usurpation d’identité, harcèlement, dénonciation calomnieuse etc…

Sous réserve de ces limites, la liberté d’expression est interprétée de manière large pas les juridictions :

« Elle vaut non seulement pour les informations ou les idées accueillies avec faveur, ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l’Etat ou une fraction quelconque de la population » (CEDH, Handyside c/ Royaume-Uni, 7 décembre 1976).

Selon la Cour Européenne, même les informations qui « pourraient être fausses » participent de la liberté d’expression :

« L’article 10 de la Convention en tant que tel ne met pas obstacle à la discussion ou à la diffusion d’informations reçues, même en présence d’éléments donnant fortement à croire que les informations en question pourraient être fausses. En juger autrement reviendrait à priver les personnes du droit d’exprimer leurs avis et opinions au sujet des déclarations faites dans les mass médias et ce serait ainsi mettre une restriction déraisonnable à la liberté d’expression consacrée par l’article 10 de la Convention. » (CEDH, Cour (Deuxième Section), 6 sept. 2005, n° 65518/01, §113).

Enfin la Cour européenne précise dans un autre arrêt relatif à un sujet de santé publique qu’on ne peut limiter la liberté d’expression aux idées communément admises :

« Dans un domaine où la certitude est improbable, il serait particulièrement excessif de limiter la liberté d’expression à l’exposé des seules idées généralement admises ». (CEDH, 25 août 1998, Hertel/Suisse, §50)

Sur les plateformes, transitent aussi bien des informations licites qu’illicites.

 

Une obligation légale de suppression

Concernant les contenus manifestement illicites, les plateformes sont tenues de les supprimer promptement. Elles sont en effet généralement qualifiées de fournisseur d’hébergement.
A ce titre, elles doivent supprimer tout contenu manifestement illicite qui leur est signalé.

A défaut, leur responsabilité peut être engagée tant sur le plan civil que pénal (Article 6 de la LCEN).
Il en résulte que la responsabilité des hébergeurs est atténuée par rapport à celle des éditeurs de contenu : leur responsabilité n’est engagée qu’à défaut de ne pas avoir promptement retiré le contenu manifestement illicite.

Pour les infractions les plus graves, leur obligation de suppression peut également résulter d’une injonction administrative (article 6-1 de la LCEN).

Lorsque cela est justifié, les plateformes doivent également respecter le droit à l’effacement (droit à l’oubli) des personnes concernées par le traitement de leurs données personnelles (Article 17 du RGPD).

 

Un droit contractuel de suppression

A côté de ces obligations légales de suppression, les plateformes se sont octroyé le droit de censurer le contenu qu’elles hébergent ou référencent.
Elles prévoient ainsi des règles qui doivent être respectées par les éditeurs, et tout fournisseur de contenu.

Par exemple, concernant les questions liées au COVID, les règles de Youtube indiquent :

« YouTube n’autorise pas les contenus qui propagent des informations médicales incorrectes contredisant celles des autorités sanitaires locales ou de l’Organisation mondiale de la Santé (OMS) concernant le COVID-19. » (…)

Sont notamment interdits par le règlement YOUTUBE les « Contenus qui contredisent le consensus des experts d’autorités sanitaires locales ou de l’OMS au sujet du vaccin contre le COVID-19 »
Si une information sur le COVID n’est pas conforme au « consensus », YOUTUBE peut ainsi la supprimer.

Concernant Google News (Actualité), le moteur indique « Les sites qui contredisent les consensus scientifiques ou médicaux et les bonnes pratiques de médecine factuelle ne sont pas autorisés. »
Concernant Google ADS, le moteur indique que sont interdites les « annonces susceptibles de tirer profit ou d’exploiter » un événement sensible comme l’« urgence de santé publique » autrement dit, liées au COVID.

Ces clauses limitant la liberté d’expression des fournisseurs de contenu se pose la question de leur validité.

En effet, selon la jurisprudence, toute clause restreignant la liberté d’expression doit être proportionnée par rapport au but poursuivi lequel doit être légitime.
Est il légitime et proportionné de censurer des contenus qui critiquent le « consensus » scientifique, médical lié au COVID ?

A fortiori lorsque les questions sont d’intérêt général, comme celles liées au COVID, et qu’il n’existe pas toujours de « consensus » scientifique ne faut-il pas admettre un large débat ?

La validité même de ces conditions fixées par les plateformes apparaît donc discutable.

 

L’affaire PragerU /Google

Dans cette affaire, Prager University a agi en justice contre Google, et sa plateforme Youtube.

Prager est une association américaine qui diffuse sur sa chaîne Youtube des contenus conservateurs notamment critiques à l’égard des médias « mainstream ».
Elle reprochait à Youtube d’avoir restreint la diffusion de certaines vidéos de sa chaîne, considérées par la plateforme comme pouvant porter atteinte à un jeune public.
Youtube se fondait sur les conditions d’utilisation de son site lesquelles prévoient la possibilité dans ce cas de restreindre la diffusion de la vidéo, et de la démonétiser.
De son côté, PragerU invoquait notamment l’atteinte au 1er amendement de la Constitution lequel interdit aux autorités de limiter la liberté d’expression.

Mais la justice américaine a estimé que Youtube était un forum privé et non public, et que donc PragerU ne pouvait invoquait le Premier amendement (United States Court Of Appeals For The Ninth Circuit, Prager University v. Google LLC, Youtube LLC, No. 18-15712, 26 Février 2020).

Une solution discutable quand on voit la place, le pouvoir que Youtube occupe sur le marché de l’information, et du fait même de son appartenance à GOOGLE en position dominante.
D’autant que la Cour suprême des Etats Unis qualifie elle-même les réseaux sociaux de « places publiques » (Packingham v. North Carolina, 137 S. Ct. 1730, 1733–34 (2017)).

L’affaire PragerU revient ainsi à reconnaître un droit pour Google de restreindre, et même de supprimer tout contenu qui contreviendrait à ses règles.

Une solution qui pourrait être discutée en Europe au regard non seulement de la validité des clauses restreignant la liberté d’expression, que des règles tendant à protéger les utilisateurs de plateforme, tant professionnels que consommateurs.

 

Information

Depuis la loi du 7 octobre 2016 pour une République Numérique, les plateformes sont tout d’abord tenues de communiquer au public une information loyale, claire et transparente sur :

1° Leurs conditions générales d’utilisation, et sur les modalités de référencement, de classement et de déréférencement des contenus ;
2° L’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à leur profit, dès lors qu’ils influencent le classement ou le référencement des contenus, des biens ou des services proposés ou mis en ligne.
(Article L 111-7 II 2e du code de la consommation)

Cette obligation est renforcée pour les plateformes dont le seuil est supérieur à 5 millions de visiteurs par mois. (Article L 111-7-1 du code de la consommation)
Or il n’est pas toujours facile de s’y retrouver dans le maquis des conditions, règlements, et autres directives des plateformes en ligne.
Les informations sont notamment obscures sur leur méthode de modération de contenu en ligne : est-il uniquement algorithmique et/ou également humain ?

Pas toujours facile de répondre à cette question.

 

Les partenariats de fact checking

Des partenariats sont ensuite conclus entre les plateformes et des organismes pour vérifier la véracité des faits contenus dans les informations. Si un contenu s’avère totalement ou partiellement erroné, il peut alors être censuré par la plateforme.

Parmi ces vérificateurs, se trouvent généralement des médias orientés politiquement. Il arrive que certains articles ou vidéos soient alors censurés à tort. En août 2020, le service « Checknews » de Libération a reconnu avoir censuré de manière erronée un article du journal « La Vie » diffusé sur la plateforme Facebook. L’auteur de cet article relatif à l’IVG ne partageait pas en réalité le même point de vue que ses confrères.

Les « fact-checkeurs » partenaires sont généralement payés pour faire ce travail de vérification. En 2018, Libération révèle ainsi avoir perçu plus de 245 000 dollars de la part de Facebook.
En avril 2020, de son côté, GOOGLE annonce l’allocation de 6,5 millions de dollars à des prestataires de « fact-checking », dans le monde.

Ces partenariats ayant un effet sur le classement et le référencement des contenus, en application de l’article L 111-7 II 2e du code de la consommation, le public devrait en être clairement informé.
Or, là aussi, difficile de retrouver ce type d’informations sur les plateformes.

Au-delà de la question de l’information du public sur ces partenariats, se pose la question de leur qualification juridique.
Du rôle passif ou actif de ces plateformes dépend en effet leur statut d’hébergeur ou d’éditeur.

 

Editeur ou hébergeur ?

Les qualifications d’hébergeur et d’éditeur sont essentielles d’un point de vue juridique :

– Les hébergeurs sont en principe irresponsables du contenu qu’ils hébergent : ils n’engagent leur responsabilité que s’ils ne suppriment pas un contenu manifestement illicite dont ils ont connaissance ;
– Tandis que les éditeurs, qu’ils soient ou non professionnels, sont par principe responsables du contenu qu’ils diffusent, sauf preuve contraire.

Suivant que l’on est éditeur ou hébergeur, le régime de responsabilité est donc inversé.
Derrière ces qualifications se joue par conséquent le régime même de responsabilité des plateformes.
Si la plateforme définit, au travers de ses conditions générales, une ligne éditoriale, contrôle le contenu, et le supprime, la balance penchera en faveur d’une qualification d’éditeur.
En sens inverse, si elle joue un rôle purement passif, ne fait que répondre aux signalements des internautes, et ne supprime le contenu que « manifestement illicite », sa qualification sera celle d’hébergeur.

Le critère du rôle actif ou passif pour déterminer la qualité ou non d’hébergeur a été créé par la Cour de justice de l’Union Européenne dans un arrêt du 23 mars 2010 (Sté Google c/ Sté Louis Vuitton Malletier affaire. C-236/08 à C-238/08).

Or la tendance des plateformes est de contrôler toujours plus le contenu qu’elles hébergent, au travers de leurs conditions d’utilisation, devenues de véritables chartes éditoriales, et de leur service de « fact checking ».

Ces contrôles vont bien au-delà de ceux qui leur sont imposés pour lutter contre les contenus manifestement illicites puisque des contenus même licites peuvent être censurés au seul motif qu’ils ne respecteraient pas un certain « consensus ».

En toute logique, la qualification des plateformes devrait par conséquent évoluer de celle d’hébergeur vers celle d’éditeur.

 

Plateform to business

L’obligation d’information et de transparence des plateformes existe non seulement à l’égard des consommateurs mais aussi des professionnels qui utilisent leurs services.
Le Règlement 2019/1150 « Plateform to business » impose en effet aux plateformes des obligations d’information et de transparence quant à leurs décisions de suspension, ou de restriction de leurs services. (Article 3 1 c))
Les entreprises utilisatrices des plateformes en ligne bénéficient d’un véritable droit à l’information quant aux décisions prises à leur encontre venant restreindre ou suspendre leurs services. (Article 4).
Elles doivent pouvoir connaître l’exposé des motifs des décisions prises par les plateformes avec une référence aux faits ou circonstances spécifiques, y compris le contenu des signalements émanant de tiers. (Article 4.5)
Les plateformes, en ce compris les moteurs de recherche, doivent en outre préciser leurs principaux paramètres de classement. (Article 5)
Les moteurs de recherche sont quant à eux plus précisément tenus d’offrir la possibilité de consulter le signalement de tiers ayant modifié l’ordre de classement d’un site ou son déréférencement (article 5.4).
Les services d’intermédiation en ligne doivent enfin mettre en place des systèmes interne de traitement des plaintes (article 11), et de médiation (article12).
Les professionnels disposent donc de certains droits face au pouvoir des plateformes.
Mais dans le cadre de cette réglementation, semblent davantage protégés les professionnels qui fournissent un service au travers de ces plateformes que les fournisseurs de contenu.

 

Digital Service Act

C’est pourquoi est actuellement débattu un Règlement européen destiné à étendre ces règles à tous fournisseurs de contenu utilisant ces plateformes, qu’ils soient ou non professionnels.
A l’instar du Règlement P2B, les plateformes devront ainsi informer leurs utilisateurs des mesures de restrictions concernant les contenus.
Il prévoit en outre que ces mesures devront être objectives et proportionnées.

Un système de plainte interne est également prévu, et des garde-fous contre toute suspension abusive de leurs services.

Espérons que ce Règlement parviendra à mieux clarifier le rôle actif (éditeur) et passif (hébergeur) de ces plateformes.
Il ne faudrait pas en effet qu’elles puissent bénéficier d’un régime de responsabilité atténuée tout en s’octroyant le droit de censurer des contenus même licites.

 

Concurrence

Enfin, au-delà de ces questions d’information, de transparence, et d’équité, se posent aussi des problèmes de concurrence.
Les plateformes peuvent en effet abuser de leur pouvoir face à des professionnels dépendants. Les sociétés GOOGLE ont ainsi été condamnées à plusieurs reprises pour avoir abusé de leur pouvoir.

A titre d’exemple :

– GOOGLE ADS :
Google a été condamné pour avoir suspendu les annonces d’une société relatives à ses services de renseignement téléphonique fonctionnant grâce à des numéros surtaxés. Google prétextait que ces numéros surtaxés pouvaient faire l’objet d’activité frauduleuse. Une motivation que le Tribunal de commerce a rejetée en considérant que les règles de Google n’étaient pas suffisamment claires et transparentes, qu’elles manquaient d’objectivité, et de proportionnalité. (Tribunal de commerce de Paris, 8e ch., jugement du 10 février 2021, Oxone Technologies, AJUP et Me Serrano / Google Ireland Ltd).

– GOOGLE NEWS :
Google a aussi été condamné pour avoir implicitement contraint les éditeurs de presse à lui octroyer une licence gratuite de leur contenu alors qu’ils bénéficient d’un droit à rémunération (droit voisin). Google est ainsi condamné à négocier avec tout éditeur de presse qui en ferait la demande, et à ne pas affecter l’indexation, le classement, et la présentation de son contenu dans le moteur. (Cour d’appel de Paris, 8 octobre 2020, sociétés GOOGLE contre SPEM, AFP, APIG)

 

Nous voyons ainsi se profiler un droit venant contrecarrer de plus en plus le pouvoir des plateformes. Mais ce droit avance lentement, laborieusement, et en ordre dispersé face à l’assaillant. Notre système judiciaire manque en outre de moyens. Pour relever le défi face aux GAFA, il nous faudra par conséquent davantage investir dans notre justice, simplifier nos règles et procédures, et surtout innover.

 

Arnaud DIMEGLIO
Avocat à la Cour, Docteur en droit, Titulaire des mentions de spécialisation en droit de la propriété intellectuelle, droit des nouvelles technologies, droit de l’informatique et de la communication.
Bureau principal : 8 place St. Côme, 34000 Montpellier,
Bureau secondaire : 10 avenue de l’Opéra, 75001 Paris,
Tel : 04.99.61.04.69, Fax : 04.99.61.08.26
http://www.dimeglio-avocat.com

Partager ou imprimer cet article :