[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France
Liberté d'expression et justice privée
Le 03 juillet 2019 à 09h12
8 min
Droit
Droit
Tech In France, par la voix de son délégué général Loic Rivière, revient sur les inquiétudes soulevées par la proposition de loi contre la cyberhaine. Comme l’Asic et Syntec Numerique, ce représentant des acteurs du numérique craint des atteintes à la liberté d’expression et d’information.
La proposition de loi Avia entamera son examen en séance aujourd’hui à 15 h à l’Assemblée nationale. Deux piliers dans ce dispositif. Le premier, une vaste liste de contenus illicites que devront supprimer les plateformes en 24 heures, sous peine d’amende pénale pouvant atteindre 1,25 millions d’euros. Sont concernés Twitter, Facebook, Dailymotion, YouTube, mais également les moteurs de recherches, notamment.
Le second, des pouvoirs étendus au profit du CSA qui va devenir leur régulateur. L'autorité administrative pourra même leur infliger des sanctions d’un montant maximum de 4 % de leur chiffre d’affaires mondial en cas de mauvaise coopération, en particulier si ces intermédiaires n'appliquent pas à la lettre ses recommandations.
Hier, Tech In France, association représentant 400 entreprises du secteur du numérique, a cosigné un appel avec l’Asic et Syntec Numérique pour exprimer ses inquiétudes. Loïc Rivière, son délégué général, nous en explique les raisons.
Comment les entreprises du secteur que vous représentez accueillent cette proposition de loi ?
Nous n’avons aucune opposition de principe, bien au contraire, sur le fait qu’un texte législatif organise un nouveau dispositif de protection des victimes de la haine en ligne. Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave.
En revanche, l’accueil est bien plus frileux au regard des dernières évolutions du texte. Elles en changent complètement la perspective et la portée. D’un texte spécial initialement centré sur la haine en ligne, on aboutit à une proposition de loi de portée beaucoup plus générale.
Que visez-vous en particulier ?
Le périmètre de départ, notamment couplé à ce retrait en 24 heures, innovation majeure de ce texte, a été considérablement élargi en commission des lois en se référant à la LCEN.
Nous sommes passés d’un texte qui visait spécifiquement la cyberhaine – un registre où on peut identifier les victimes, les coupables, dans un univers sémantique relativement défini qui sécurisait en partie les plateformes – à des éléments qui relèvent davantage de la morale publique, des mœurs, de conceptions de la société.
Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.
Quand on cumule ce périmètre étendu à des questions relevant de la morale publique, le retrait en 24 heures, le fait que les moteurs de recherche, qui sont le visage public d’internet, soient intégrés… tout cela fait peser un risque sur la liberté d’expression et d’information, en confiant des responsabilités exorbitantes aux plateformes.
Peut-on craindre la dérive vers une forme de justice privée, accentuée par cette évolution ?
On peut le craindre en effet. Les plateformes risquent de se retrouver prises dans un étau. D’un côté, la menace de sanctions considérables si elles n’assument pas efficacement ces nouvelles responsabilités. Et de l’autre, la tentation d’appliquer un principe de précaution de retrait sur un certain nombre de contenus dont elles pourraient craindre qu’ils ne soient in fine qualifiés de manifestement illicites et qu’il leur soit donc reproché de ne pas l’avoir retiré.
La viabilité de ce texte ne repose que sur un équilibre fin, un compromis juste entre les responsabilités nouvelles qu’on confie à ces plateformes et les capacités qu’elles auront à les assumer. En étendant considérablement le périmètre, au-delà de l’objet initial de la loi, qui je le rappelle justifiait un régime spécial de retrait, on crée de facto une disproportion entre ces responsabilités et les moyens de les assumer.
Un exemple concret : avec la définition retenue de la « plateforme » et le périmètre nouvellement étendu, des sites spécialisés dans la haine en ligne, qui ont aujourd’hui pignon sur Web, vont probablement ne pas rentrer dans le périmètre parce qu’ils n’atteindront pas le seuil de connexions défini, ou encore parce qu’ils ne pourront être qualités de « plateformes » au regard de la définition posée.
En revanche, les sites pornographiques, qui eux sont des plateformes dont le succès ne s’est pas démenti à travers l’histoire…entreront de facto dans la catégorie couverte. On peut tout à fait imaginer que des associations, pour des raisons de conception de la morale publique qui est la leur, demandent leur interdiction et déréférencement au motif que leur accès est trop aisé pour certains publics.
On pourrait opposer aux plateformes d’augmenter leurs moyens, de démultiplier leurs équipes de modérateurs…
Ce n’est pas seulement une question quantitative, et c’est pour cela que les plateformes demandent à être accompagnées. Plus on va du manifestement illicite vers l’illicite, ou vers des contenus qui relèvent d’autre chose que de la haine en ligne, c’est-à-dire de la morale publique, plus cela exige une appréciation qualitative fine et avertie du sujet.
Cette approche exigera une capacité d’appréciation qui dépasse celles d’un algorithme, voire d’un modérateur parfaitement formé, pour déboucher sur une décision rapide de retrait.
Laetitia Avia nous répondrait à juste titre que dans un tel cadre, nous ne serions pas dans le manifestement illicite et donc dans le cadre de la loi…Mais que dira le juge a posteriori ? Comment se fera le tri dans le traitement massif de données ?
A-t-on une idée des coûts que génère une telle proposition de loi ?
Non, car les situations vont être différentes d’une plateforme à l’autre. Dans leur obligation de moyens, celles-ci devront documenter les investissements consentis pour faire face au sujet. Il est évidemment normal dans le cadre de nouvelles responsabilités que ces entreprises consacrent les ressources nécessaires.
Néanmoins, elles seront loin d’être en capacité de résoudre tous les problèmes. En raison de ses subtilités, la langue française est plus complexe que d’autres à entrer dans les canons de la traduction automatique, de l’intelligence artificielle. On sait aussi très bien qu’il est difficile pour un algorithme ou un modérateur de faire la différence rapidement entre un commentaire qui relève de la haine et celui évidemment critique de cette haine en ligne. Il y aura donc une phase d’apprentissage qui doit être accompagnée.
Nous attendons aussi un investissement des pouvoirs publics. La problématique du RGPD, qui a créé de nouvelles obligations, ne s’est pas traduite par une augmentation des moyens de la CNIL. Elle s’en est plainte à plusieurs reprises. Nous ne voudrions pas que les pouvoirs publics n’investissent pas eux aussi pour renforcer les compétences et moyens humains des régulateurs amenés à traiter de ces sujets, en l’occurrence le CSA.
Que plaidez-vous finalement ?
Pour satisfaire l’objectif initial du texte auquel nous souscrivons pleinement, nous plaidons pour un resserrement du périmètre de ce qui relève vraiment de la haine en ligne. Certaines choses n’ont en fait rien à faire dans ce texte.
Nous avons adressé également des commentaires visant les sanctions. On va faire peser une épée de Damoclès s’agissant de l’obligation de moyens (une sanction de 4 % du chiffre d’affaires mondial, décidée par le CSA). Or, y a-t-il un lien entre le chiffre d’affaires mondial des entreprises et le fait qu’elles aient mal assumé la responsabilité qu’on attendait d’elles en matière de régulation des contenus qui puisse fonder cette évaluation de la sanction ?
Enfin, au vu des effets collatéraux potentiels sur la liberté d’expression et le droit à information, autant d’éléments du bloc de constitutionnalité, il nous paraitrait de bon aloi que le gouvernement saisisse le Conseil constitutionnel, une fois le texte adopté.
[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France
-
Comment les entreprises du secteur que vous représentez accueillent cette proposition de loi ?
-
Que visez-vous en particulier ?
-
Peut-on craindre la dérive vers une forme de justice privée, accentuée par cette évolution ?
-
On pourrait opposer aux plateformes d’augmenter leurs moyens, de démultiplier leurs équipes de modérateurs…
-
A-t-on une idée des coûts que génère une telle proposition de loi ?
-
Que plaidez-vous finalement ?
Commentaires (19)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 03/07/2019 à 10h38
Curieux qu’eux-mêmes affirment une telle contrevérité : “Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave”.
La mécanique de responsabilité existe et permet d’aller jusqu’au déréférencement et le blocage de site si on ne peut pas sanctionner l’auteur (cf. par exemple:https://www.nextinpact.com/news/107348-le-jugement-blocage-site-raciste-et-homop… )
S’il y a un reproche qui peut être fait, c’est le temps nécessaire pour arriver à une telle décision de condamnation, mais le régime de responsabilité n’est pas en cause.
Le problème vient des moyens laissés à la Justice pour trancher l’affaire, de sorte qu’il n’est pas rare que l’avocat se coltine un maximum d’actes (constat en ligne demandé à l’huissier, ordonnance autorisant ce dernier à entrer dans tel lieu pour récupérer telle info, analyse des whois pour tenter d’identifier les responsables juridiquement etc…) en amont (ce qui a un coût pour le client) et dépose le tout avec la plainte ou la citation, sachant que les Juges ne consacreront pas tous les moyens nécessaires aux investigations, pour ne pas en disposer eux-mêmes sinon que sur le papier. (Et sans parler des procédures civiles où là le demandeur doit tout réaliser seul et donc en réalité son Conseil).
A l’inverse, élargir les cas où la plateforme doit juger de ce qui est “manifestement” illicite, fait peser une responsabilité très aléatoire sur la tête de la plateforme, délègue des pouvoirs qui ne doivent pourtant être exercés que par un Juge, et va inévitablement pousser à la censure automatique par peur de complications.
Le 03/07/2019 à 10h43
Effectivement c’est une atteinte manifeste à la liberté d’expression pornographique " />
Sinon je lis avec plaisir que selon lui le traitement automatique des contenus haineux est simple à mettre en place. " />
Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.
Je suis agréablement surpris de voir que le proxénétisme et la diffusion de contenus pornographiques aux mineurs ne sont plus manifestement illicites.
Le 03/07/2019 à 10h44
J’ajoute que la “cour suprême” de Facebook est une illustration parfaite de la dérive que représente cette proposition de Loi.
Le Monde
Le 03/07/2019 à 10h48
Le 03/07/2019 à 10h59
Le 03/07/2019 à 11h14
carbier - Le mercredi 3 juillet 2019 à 12:43:33#2Effectivement c’est une atteinte manifeste à la liberté d’expression pornographique " />
Si tu connais un peut y peu les histoires de censures dans les œuvres littéraires pour cause de pornographie ou de licence, ce sont des sujets qui sont loin d’être manifestes au point où des œuvres jugée pornographique à leur époque sont aujourd’hui des classiques.
Rien que l’origine du monde montre que la pornographie est loin d’être manifeste puisque le tableau aurait été fait à partir d’une photo pornographique de l’époque qui s’échangée sous le manteau avec cette nouveauté qu’était la photographie. Et si le tableau est aujourd’hui exposée, cette fameuse photo serait aujourd’hui traitée comme une œuvre pornographique.
Non, même la pornographie n’est pas quelque chose de manifeste et comme le montre les différents jugements sur les deux cent dernière année ayant trait à l’édition que cela reflète les idées d’une période.
Pleins de classiques ont quitté le côté pornographique pour devenir des œuvres classique.
 http://www.allocine.fr/film/fichefilm_gen_cfilm=10677.html
Par exemple un film qui après avoir été classé X est devenu art et essai avec le temps même si il présente des scènes de sexe non simulées.
Le 03/07/2019 à 11h16
Si ça passe, les commentaires de 20mn et Le Parisien vont être ennuyeux " /> Ça concerne aussi les forums et les plateformes de jeux vidéos en ligne ?
Le 03/07/2019 à 11h37
« Victime de la haine » … C’est quoi ce pays de pignoufs là ? On est pas nécessairement victime de la haine… La haine c’est une émotion, avant d’être l’expression de quoi que ce soit. On est victime d’insultes, de harcèlement, d’agression physique, de racisme, de… Oh ! Bah tiens ! C’est marrant, tout ça c’est déjà interdit et légiféré !
Le 03/07/2019 à 12h11
Le 03/07/2019 à 12h26
Le 03/07/2019 à 12h28
Le 03/07/2019 à 12h38
Le 03/07/2019 à 12h43
Le 03/07/2019 à 14h03
Je comprends ce que tu veux dire, mais tu peux le tourner comme tu veux, mais Facebook, Google, Next Inpact ou tout autre site sont des espaces privés, qui appartiennent à des entités privées, et donc ceux qui veulent utiliser ces espaces sont tenus d’y respecter les règles définies par les propriétaires - comme tu as le droit de définir qui a le droit de venir dans ton jardin, qui peut y camper ou qui peut s’installer dans le canapé de ton salon, jusqu’à nouvel ordre ce n’est pas le maire de ta commune et encore moins le Président de la République. Et c’est heureux (quoique, pour ce qui se passe dans ton jardin, la réglementation en France peut être plutôt stricte…)
Le 03/07/2019 à 14h17
Le 03/07/2019 à 16h44
Je suis d’accord avec le constat actuel, les plateformes privées imposent ce qu’elles veulent à leur utilisateur par leurs CGU dans les limites de la loi. J’expliquais comment, pour moi, ça devrait être dans le meilleur des mondes où un hébergeur se limite à son rôle d’hébergeur et ne s’occupe pas de dire ce qui est moralement accepté ou pas sur sa plateforme. Ou alors, il ne peut plus se réfugier derrière l’irresponsabilité conféré aux hébergeurs puisqu’il n’est plus neutre.
Le 03/07/2019 à 20h45
Le 03/07/2019 à 21h09
Quant à NXi, au vu de leur activité, je pense qu’ils ne peuvent pas être considéré comme un simple hébergeur devant la justice, ils rentrent plus dans la case d’éditeur à mon avis. Et pour les sites pour enfants, il y a des règles spécifiques concernant la protection des mineurs qui s’appliquent en plus. Donc c’était deux mauvais exemples à prendre. Ensuite quant au fait de se demander si Google ou Facebook sont toujours de simples hébergeurs du point de vue de la LCEN, c’est une autre question.
Ah mais si il était décidé (pour le cas de G ou F), de parler d’incitation au partage ce serait déjà plus simple ! " />
Le 04/07/2019 à 09h29
là, je te rejoins complètement : Facebook n’est pas neutre, ne l’a jamais été et n’a pas vocation à l’être. Ceci dit, à partir du moment où on en est conscient, est-ce que c’est un problème ? Je ne sais pas s’ils ont jamais communiqué sur le fait qu’ils délivraient une information neutre et non biaisée - au contraire, à la base ils disent fournir ce qui est conforme aux centres d’intérêts de leur “clientèle”, ou à ce qu’ils considèrent comme tel.