Loïc Rivière (TECH IN France) : le procès fait aux réseaux sociaux « est à notre sens excessif »
On Line vs Off Line
Le 23 octobre 2020 à 13h53
11 min
Droit
Droit
Après l’attentat de Conflans-Sainte-Honorine, Loïc Rivière revient dans nos colonnes sur la mise en cause des réseaux. Le délégué général de TECH IN France, organisation qui représente les intérêts des professionnels du numérique (Facebook, Google France, Oracle, etc.), suggère différentes pistes, essentiellement du côté de la justice.
Que vous inspire la mise en cause des réseaux sociaux après ce nouvel attentat ?
Le procès qui est fait aux réseaux sociaux dans cet attentat abominable est à notre sens excessif parce qu’il était en l’occurrence impossible pour ces derniers de qualifier le contenu en cause de contenu haineux au sens du droit, ou de le relier avec un risque d’attentat.
Les contenus mis en cause rentrent en outre précisément dans ces contenus gris, pour lesquels il est difficile pour les plateformes de juger sans délai et en dehors de tout contexte. On est ici très loin ici du « manifestement illicite ».
En réalité, ce que démontre plutôt cette affaire – et de nombreux juristes le soulignent – c’est que s’il y a un vide juridique, il est surtout dans la réponse pénale à apporter aux contrevenants aux lois de la République, qui diffusent des appels à la haine dans un véritable sentiment d’impunité.
Pour reprendre les termes de Thierry Breton, ce qui est interdit offline est interdit online. S’il est légitime que les plateformes assument leur part online, il ne faut pas se bercer d’illusions, le vrai combat est dans la « vraie vie » offline !
Par ailleurs, les autorités reconnaissent que les plateformes ont mis en œuvre des outils assez efficaces pour traiter de façon proactive ces contenus gris, comme la désactivation temporaire de la fonction de recommandation ou leur démonétisation, etc.
Les plateformes ont aussi démontré que sans attendre la justice, et peut être de façon plus rapide que la justice elle-même, elles pouvaient prendre des décisions de suppression de comptes ou de chaînes YouTube, comme cela a été le cas pour Alain Soral et Dieudonné par exemple. Ce sont des décisions qui rappellent aussi que, si elles ne peuvent pas se substituer au juge, les plateformes disposent de leurs propres règles d’utilisation et qu’elles sont confrontées, comme le législateur, à la recherche d’équilibre entre la liberté d’expression et le respect d’autrui.
Il y a donc quand même une forme d’hypocrisie dans ce débat. Manifestement la société, dans son traitement judiciaire de ces faits, n’arrive pas, en l’état actuel du droit et surtout des moyens qui lui sont consacrés, à circonscrire et faire cesser ces appels à la haine sous toutes ses formes. Et on semble vouloir faire croire que c’est le déréférencement d’un site ou la déprogrammation d’un compte qui va faire cesser cette haine et ce sentiment d’impunité…
Le Global Internet Forum to Counter Terrorism (GIFCT) a indiqué que les hébergeurs ont partagé les données de la photo de la victime pour éviter son partage. Comment cela s’est passé techniquement ?
Je n’ai pas les détails techniques, mais je sais qu’il a été considéré par tout le monde que cette forme de collaboration a été efficace. Et visiblement cela a été reconnu comme tel du côté des pouvoirs publics. Ce forum, qui comprend des représentants de l’État et d’Europol, est un outil tourné vers l’action, avec une collaboration quotidienne avec les services de police et les plateformes.
Les entreprises comme Google publient des « Transparency reports ». Il est probable que la qualité des données publiées puisse être encore améliorée. Mais on sait tout de même que 80 % des réquisitions sont suivies d’effet. La vraie question sur laquelle chaque citoyen aimerait sans doute avoir des informations, c’est quid des procédures judiciaires éventuelles suivant ces demandes de réquisition ? Quelles condamnations effectives ? Quels sont les moyens dont dispose la justice sur ces sujets ? Quid de la protection des victimes ?
Par ailleurs, il est quand même incroyable qu’en France, on ait d’un côté une Hadopi qui puisse faire ses réquisitions, contacter directement les contrevenants pour des faits de contrefaçons présumés, et de l’autre, sur des éléments qui portent atteinte à des victimes dans leur identité, en ce qu’elles ont de plus intime, nous n’ayons pas d’administration disposant des mêmes moyens.
Il y a cependant un parquet numérique qui est annoncé...
On ne connait pas ses moyens, on n’a pas l’impression qu’il disposera de lignes budgétaires spécifiques en 2021…bref on a l’impression finalement qu’on ne se saisit pas en termes de moyens de ce problème, qu’on se défausse sur les plateformes en sachant pertinemment qu’elles ne sauront pas s’attaquer au nœud du problème, à savoir ce sentiment d’impunité. La création de ce parquet reste pourtant un élément clé pour autant qu’il participe à remédier au manque de moyen alloué au traitement judiciaire du problème de la haine en ligne.
Dans la proposition de loi Avia, il y a notamment celle consistant à faire connaitre les moyens mis en œuvre pour lutter contre les contenus haineux ou donc désigner un représentant en France. Cédric O plaide en outre pour des obligations de moyens sur les plateformes. Que pensez-vous en particulier de la désignation d’un représentant en France qui servirait de courroie de transmission ?
Sauf erreur, la question du représentant légal se heurte au droit européen. Mais est-ce vraiment le sujet ? Quelle entreprise n’était pas représentée dans le bureau de Marlène Schiappa cette semaine ? Je crois savoir que tout le monde était là et que la qualité de la collaboration n’est pas remise en cause. Quand on voit que 80 % des réquisitions judiciaires sont suivies d’effets en termes de traitement par les plateformes, quand on voit que des outils proactifs visant même les contenus gris sont employés et démontrent leur efficacité, quand on voit qu’il y a une collaboration avec les autorités étatiques qu’elles incarnent dans le GIFCT ou le groupement de contact permanent, on pense que la question de l’obligation de moyens doit peut être désormais se déplacer sur le terrain de la réponse judiciaire, encore une fois.
Il faut en outre avoir à l’esprit les derniers débats sur la loi allemande dans sa version amendée en juin dernier. Dans une perspective de renforcement des obligations de moyens, la constitution d’une base de données des signalements a été considérée en Allemagne comme contrevenant aux règles constitutionnelles en matière de respect de la vie privée.
On sait aujourd’hui ce que l’exemple de la NetzDG, qui a inspiré la loi Avia mais également d’autres pays comme le Brésil, la Turquie ou la Russie, pouvait faire dans certains pays où les gardes fous constitutionnels soulevés en France ou en Allemagne ne sont pas pris en comptes. Et que finalement, on se retrouve avec des lois permettant de censurer les journalistes proches de l’opposition et de contraindre les réseaux sociaux à s’aligner sur les motivations du pouvoir en place.
Quelles seraient les pistes que vous accepteriez, envisageriez, suggéreriez à l’égard des plateformes pour mieux aiguiser ces questions ?
Fluidifier le lien entre signalement et dépôt de plainte, ce qui suppose une obligation de moyens réciproque des services judiciaires et des plateformes, viendrait certainement au bénéfice des victimes pour les aider à mieux se défendre et obtenir réparation. On comprend que cela devrait reposer sur une administration dédiée à ce type d’entorses avec des moyens judiciaires adaptés.
C’est incroyable qu’en France, un contrevenant au Code de la route puisse passer en comparution immédiate, et que quelqu’un qui lance des appels à la haine ou au meurtre puisse attendre plusieurs mois voire années pour répondre de ses actes devant la justice. Prenons l’exemple d’Alain Soral. Il a été condamné entre 15 et 20 fois, cela ne l’empêche absolument pas de poursuivre son commerce. Et pourtant sans que cela soit à l’issue d’une décision judiciaire, YouTube a décidé de fermer sa chaîne.
Certains vous diraient que les plateformes se font juges à la place du juge…
Ce sont des décisions qui peuvent être interprétées comment ayant évidemment un caractère politique, toutefois les plateformes ont des conditions générales d’utilisation, maintes fois discutées. À partir du moment où les utilisateurs contreviennent aux règles d’utilisation, et si le respect d’autrui et la lutte contre la haine font partie des CGU, les plateformes sont en droit, dans ce qui demeure un espace privé, de sanctionner ceux qui y contreviennent.
Les publications concernant les théories complotistes qAnon ont fait l’objet de même décision. Cela démontre que cela correspond à une philosophie générale, non à des contextes nationaux ou politiques particuliers.
Mais est-ce que cela ne brouille pas les pistes, entre une plateforme qui va appliquer sèchement ses CGU dans son espace privé et une application jugée mitigée des obligations de retrait de la LCEN ?
Il faut reconnaitre que sur ce sujet-là, beaucoup de plateformes avancent de façon empirique, avec un principe de base, celui de la liberté d’expression. Les plateformes ont revu leurs positions historiques sur ces sujets et cela suit l’évolution de la société.
Elles savent aussi qu’elles sont désormais entre le marteau et l’enclume, entre l’accusation de laxisme d’un côté et celle de censure de l’autre… accusations qui se concrétisent en procédures à leur encontre. En voulant les forcer à réguler a priori les contenus gris, ces contenus soumis à interprétation, certains représentants politiques adoptent une approche maximaliste, qui se retournera in fine contre la pertinence et l’efficacité de la mesure.
Qu’attendez-vous du Digital Services Act ?
Pour commencer un niveau de fragmentation européen le plus réduit possible. On attend que le DSA satisfasse ce principe d’harmonisation, et d’autre part qu’il tienne compte aussi des éléments rappelés avec force par les autorités constitutionnelles sur la frontière qui sépare la liberté d’expression et la façon dont on peut la circonscrire sur les plateformes pour protéger ceux qui pourraient en être les victimes indirectes.
Cela implique notamment que les contenus non manifestement illicites, dans l’hypothèse vraiment maximaliste où ils seraient intégrés dans le texte, ne fassent absolument pas l’objet d’une régulation semblable à celle des contenus manifestement illicites.
Évoquons aussi le fait qu’on demande, de texte en texte, aux plateformes d’être de plus en plus proactives dans le traitement des contenus. Il serait vraiment dommageable de considérer du coup que ce traitement leur offre la connaissance effective des contenus et remette en cause le régime de responsabilité sur lequel elles opèrent. La future réglementation doit en tenir compte.
On ne peut demander aux plateformes d’être de plus en plus proactives dans le traitement des contenus dont elles sont censées ne pas avoir connaissance, et dans le même mouvement, leur dire que, puisqu’elles les traitent de façon proactive, considérer qu’elles en ont connaissance et donc remettre en cause leur régime de responsabilité.
En somme, ne pas punir les meilleurs élèves…
C’est ça, exactement.
Loïc Rivière (TECH IN France) : le procès fait aux réseaux sociaux « est à notre sens excessif »
-
Que vous inspire la mise en cause des réseaux sociaux après ce nouvel attentat ?
-
Le Global Internet Forum to Counter Terrorism (GIFCT) a indiqué que les hébergeurs ont partagé les données de la photo de la victime pour éviter son partage. Comment cela s’est passé techniquement ?
-
Il y a cependant un parquet numérique qui est annoncé...
-
Dans la proposition de loi Avia, il y a notamment celle consistant à faire connaitre les moyens mis en œuvre pour lutter contre les contenus haineux ou donc désigner un représentant en France. Cédric O plaide en outre pour des obligations de moyens sur les plateformes. Que pensez-vous en particulier de la désignation d’un représentant en France qui servirait de courroie de transmission ?
-
Quelles seraient les pistes que vous accepteriez, envisageriez, suggéreriez à l’égard des plateformes pour mieux aiguiser ces questions ?
-
Certains vous diraient que les plateformes se font juges à la place du juge…
-
Mais est-ce que cela ne brouille pas les pistes, entre une plateforme qui va appliquer sèchement ses CGU dans son espace privé et une application jugée mitigée des obligations de retrait de la LCEN ?
-
Qu’attendez-vous du Digital Services Act ?
-
En somme, ne pas punir les meilleurs élèves…
Commentaires (8)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/10/2020 à 14h08
Comme à l’accoutumée, l’article est bon et certains des arguments avancés sont intéressants, mais je crois que le titre et l’introduction suffisent à résumer assez bien :
Bon, les marchands de chocolats trouvent que Noel, Paques et la St Valentin devraient avoir lieu plusieurs fois par an. Jusque là, rien que de très normal et ça s’appelle du lobbying, si je ne dis pas n’importe quoi.
Qu’ils mettent en place l’interopérabilité qu’on réclame depuis des années. Ca les dédouanera d’une bonne part du contenu à modérer et les gens seront moins sollicités pour voir du contenu choquant/putaclic.
Enfin… Encore faudrait-il que les politiques s’en mêlent au lieu d’avoir à surfer sur et développer un pseudo “sentiment d’insécurité”.
Le 23/10/2020 à 15h11
En quoi le fait que les données utilisateurs soient interopérables a de rapport avec la modération au forceps que certains réclament de leurs vœux ?
Le 23/10/2020 à 15h16
Je l’ai trouvé plutôt faible en propositions, je m’attendais à quelque chose de plus détaillé pour quelqu’un qui est censé être représentant de ces groupes (debrief réunion eux vs l’Etat,ce qu’ils proposent, ce qui leur a été refusé,leurs projets/jalons à venir, etc…)
Il me donne l’impression de faire “bon on attend..”
Le 23/10/2020 à 15h26
Bah déjà le gouvernement leur demande de faire la justice ils ne vont pas faire le travail des politiques
Le 24/10/2020 à 09h04
il ne faut pas se bercer d’illusions, le vrai combat est dans la « vraie vie »….
ah…quand-même !!!
a recherche d’équilibre entre la liberté d’expression et le respect d’autrui…
‘no comment’ !
Le 24/10/2020 à 10h56
Au nom de la liberté d’expression , ils vont tout interdire. C’est marrant )
Le 24/10/2020 à 11h48
“Pour commencer un niveau de fragmentation européen le plus réduit possible. On attend que le DSA satisfasse ce principe d’harmonisation…”
Par contre aux niveaux des impôts à payer par les entreprises, là l’harmonisation surtout pas …impôts qui servent entre autre à donner à la justice les moyens qu’il réclame
Le 25/10/2020 à 05h33
Dès la première question j’ai décroché: On parle d’attentat, je vois un meurtre politisé pour permettre de nouveaux tours de vis sécuritaire. Le cadavre encore chaud du prof est déjà devenu un objet politique. L’ampleur de la mise en scène exigée autour de cette affaire nous donne la mesure de la récupération politique.
Sinon entièrement d’accord avec les commentaires précédents sur la question des impôts ou du lobbying.