Devant la CJUE, l’obligation de retrait des discours haineux par Facebook
Cuick
Le 04 juin 2019 à 13h55
7 min
Droit
Droit
Un important dossier a été ausculté ce matin devant la Cour de justice de l’Union européenne. L'enjeu ? Déterminer l’étendue de l’obligation de retrait pesant sur un hébergeur comme Facebook. L’avocat général vient de souffler ses pistes. L’arrêt consécutif est attendu dans quelques mois.
Les lecteurs se souviendront de ce cas déjà évoqué dans nos colonnes l'an passé. Eva Glawischnig-Piesczek, députée autrichienne membre du parti des Verts, avait été épinglée par un internaute sur Facebook. « Sale traîtresse du peuple », « idiote corrompue », membre d’un « parti de fascistes », les noms d’oiseaux fusaient ce 3 avril 2016 alors qu’étaient en cause ses positions sur la politique migratoire.
Le 7 juillet 2016, l’élue demandait à Facebook de supprimer ces contenus. Le refus du réseau social a naturellement conduit le dossier devant les tribunaux. Si l’entreprise américaine a finalement reconsidéré ses positions, le dossier s’est enlisé devant les juridictions nationales. Et pour cause, l’élu n’a pas seulement tenu à ce que ces contenus soient effacés, mais en substance, que ce funeste sort soit réservé également aux « contenus équivalents ». Et ce, s'il-vous-plaît, au niveau mondial.
On voit rapidement le problème posé à la lecture de la directive de 2000 sur le commerce électronique. Son article 15 interdit en effet les mesures de surveillance généralisée imposées à un hébergeur. Or, demander à Facebook de supprimer un contenu, puis de traquer et dézinguer ceux similaires ou équivalents nous fait rapidement glisser vers un tel panoptique.
Dans ses conclusions rendues ce matin, destinées à éclairer la cour, l’avocat général est revenu sur les obligations pesant sur les hébergeurs.
La vaste obligation de retrait des contenus identiques
Si l’article 15 interdit d'abord toute obligation de surveillance généralisée, l’article 14 organise un régime de responsabilité conditionnelle, supposant une notification et la passivité de l’intermédiaire pourtant averti. La même disposition, dans un alinéa, permet enfin à une juridiction ou une autorité d’adresser une injonction visant à prévenir la réitération d’une violation. Voilà pour les bases.
Dans son arrêt l’Oreal du 12 juillet 2011, la CJUE a déjà expliqué que ces mesures de prévention spécifiques ne pouvaient s’appliquer qu’à l’égard des atteintes de même nature auprès du même destinataire des droits (ici celui des marques). Une surveillance active est donc envisageable, sans violer la prohibition de l'article 15, si elle est spécifique, limitée à un objet et une durée déterminée.
Appliqué à l’affaire en cours, l’avocat général estime qu’un hébergeur peut effectivement être contraint de prévenir toutes les atteintes identiques diffusées par un internaute, mais également par d’autres internautes (notamment les partages).
Non sans un certain malaise : « je suis conscient du fait que ce raisonnement conduit à ce que la portée personnelle d’une obligation en matière de surveillance englobe tout utilisateur et, partant, l’intégralité des informations diffusées au moyen d’une plateforme » estime-t-il. Seulement, pour limiter les risques, il prend soin d’empiler les conditions.
Ces mesures doivent d'abord être suffisamment spécifiques et limitées dans le temps, en l’espèce jusqu’à la clôture d’un référé.
De plus, « la reproduction du même contenu par tout utilisateur d’une plateforme de réseau social me semble, en règle générale, détectable à l’aide d’outils informatiques, et ce sans que l’hébergeur soit obligé d’avoir recours à un filtrage actif et non automatique de l’intégralité des informations diffusées au moyen de sa plateforme ». En somme, un tribunal ne pourra ordonner un filtrage actif et automatisé de tous les contenus.
Enfin, remarque-t-il, cette obligation de rechercher et d’identifier « toutes les informations identiques à celle ayant été qualifiée d’illicite permet d’assurer un juste équilibre entre les droits fondamentaux en présence ». Si l'équilibre s'écroule, la mesure ne pourra donc être ordonnée.
Il ajoute au passage des considérations procédurales. Les internautes tiers doivent toujours avoir la possibilité de « contester, devant un juge, les mesures d’exécution adoptées par un hébergeur sur la base d’une injonction, cette possibilité ne devant pas être conditionnée par le fait d’être qualifié de partie à une procédure principale ». Une petite remarque qui pourrait être exploitée à l’avenir par ceux dénonçant les mécanismes de liste noire, inaccessibles comme en France, au commun des mortels.
L'obligation relative de retrait des contenus équivalents
S’agissant des informations cette fois équivalentes à un contenu diffamatoire et donc illicite, sont surtout visées celles qui comportent « une erreur de frappe » ou « une syntaxe ou ponctuation nuancée ».
Facebook peut-elle être tenue de supprimer ces modulations et autres variations ? Une obligation de les identifier pourrait, selon lui, tout autant s’envisager si elles proviennent du même utilisateur.
Nuances de rigueur : d’une part, la juridiction à l’origine de la décision devrait toujours « respecter le principe de sécurité juridique et garantir que les effets de cette injonction sont clairs, précis et prévisibles ». D’autre part, l’utilisateur doit toujours pouvoir contester les mesures prises par l’hébergeur dans le sillage de cette décision. Un jugement trop vague, des mesures de restrictions sans possibilité de recours seraient en conséquence hors des clous du droit européen.
L’avocat général réfute cependant la possibilité d’étendre cette obligation à l’ensemble des utilisateurs. En effet, un tel mécanisme imposerait cette fois l’usage de « solutions sophistiquées » et donc coûteuses.
Pire, « non seulement le rôle d’un prestataire exerçant une surveillance générale ne serait plus neutre, en ce sens qu’il ne serait pas seulement technique, automatique et passif, mais ce prestataire, en exerçant une forme de censure, deviendrait un contributeur actif de cette plateforme ». Autant de qualités aux antipodes du statut d’hébergeur qui conduiraient à une censure, opposée à la protection de la vie privée, à celle de la liberté d’entreprise et celle de la liberté d’expression et d’information.
La portée mondiale de ces obligations de retrait
Reste la question de la portée territoriale de la décision de retrait. Là encore, l’avocat général fait preuve d’une certaine prudence. L’article 15 de la directive de 2000, en raison de son silence sur cette question, « ne s’oppose pas à ce qu’un hébergeur soit contraint de retirer des informations diffusées au moyen d’une plateforme de réseau social au niveau mondial ».
Il remarque cependant qu’un tel retrait pourrait avoir des effets extraterritoriaux dans des États où les mêmes propos pourraient être jugés comme licites. Il suggère en conséquence que les juridictions nationales fassent preuve d’une certaine retenue, d’une « autolimitation » pour éviter tout désagrément international, par exemple en optant pour un géoblocage, une solution nettement plus satisfaisante à ses yeux.
L’arrêt de la CJUE est attendu dans quelques mois. La cour est libre de suivre ou d’aller à l’opposé du sens de ces conclusions. Autant dire qu’elle devrait nourrir les prochains débats autour de la proposition de loi contre la cyberhaine, qui veut justement lutter contre les contenus illicites sur les plateformes.
Devant la CJUE, l’obligation de retrait des discours haineux par Facebook
-
La vaste obligation de retrait des contenus identiques
-
L'obligation relative de retrait des contenus équivalents
-
La portée mondiale de ces obligations de retrait
Commentaires (11)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 04/06/2019 à 14h06
Quand tu vois que de la haine et de la violence IRL n’est que rarement sanctionné même si les auteurs sont multirécidivistes il est vain de penser qu’il sera possible de réguler la haine et la violence sur internet. Et je ne parlerais même pas de l’appel à la violence via ses fameux “rappeurs” qui ce fight dans un aéroport ( pub gratuite ), ou de ceux qui veulent bruler la france et tuer des bébé blancs ( 3000€ d’amende ).
Le 04/06/2019 à 16h02
Oui enfin en attendant il y a très peu de bébés qui se font manger par des rappeurs. Il faut être juge ou flic pour ne pas voir le second degré dans la chanson du gars. A ce tarif il aurait fallu bruler les Rastas (Garvey) et les féministes (Scum Manifesto-solanas) pour les mêmes raisons. C’est idiot de prendre ça en exemple de violence alors qu’on a des stats un peu précises sur le sujet dans la vraie vie.
La plupart des morts et violences IRL ce sont des hommes entre 18 et 40ans qui règlent leurs comptes pour le business ou leur mâle fierté et les autres violences évitables car entretenues par des discours de haine elles font moins de cent morts par an (moins de 200 si on inclue les femmes tuées par leur mari dedans et le sexisme et la religion comme discours de haine…).
Alors on peut déplorer que ça ne s’attaque au sujet que par la bande mais déjà en période de crise les victimes de discours de haine le bilan a tendance à considérablement s’alourdir et ensuite ça joue beaucoup sur l’ambiance générale dans la société.
Le 04/06/2019 à 16h36
Même si je trouve son empilement de conditions tout sauf “clairs, précis et prévisibles”, en revanche l’interdiction faite à l’hébergeur d’entrée dans une surveillance active de la plateforme est très intéressante et pourrait faire capoter la philosophie du projet de Loi sur la cyberhaine.
Le 04/06/2019 à 17h48
Article très intéressant. Mais plutôt que de tenter d’imposer la recherche et la suppression de tous les posts identiques, pourquoi ne pas imposer la publication d’un post correctif à l’émetteur des propos diffamatoires, comme cela se fait dans la presse (après jugement) ?
Le 04/06/2019 à 21h14
Espérons que les juges de la CJUE balayeront cette interdiction ridicule de discours haineux, histoire de faire ENFIN preuve d’un minimum de compétences en droit.
Le 05/06/2019 à 07h34
Le 05/06/2019 à 10h41
Il n’aurait pas utilisé le mot “chanson” dans ce cas " />
Le 05/06/2019 à 12h12
Le 05/06/2019 à 12h41
Je parlais de Nick Conrad, moins connu, moins con tout court a priori.
Le 05/06/2019 à 13h00
Le 06/06/2019 à 21h54
Tout à fait d’accord.
Le “prototype” de la loi de 1881 est la seule option “positive” disponible. Sinon c’est le panoptique par défaut… " />