Pré-transcription du DSA : une réforme critiquée, mais adoptée en commission au Sénat

Pré-transcription du DSA : une réforme critiquée, mais adoptée en commission au Sénat

Senat portnawak

Avatar de l'auteur
Marc Rees

Publié dans

Droit

24/03/2021 10 minutes
1

Pré-transcription du DSA : une réforme critiquée, mais adoptée en commission au Sénat

D’une « extrême fragilité juridique ». Voilà comment la commission des lois au Sénat a accueilli la pré-transcription du Digital Services Act (DSA). Les sénateurs ont néanmoins pris le pari : ils ont adopté cette disposition issue du projet de loi Séparatisme qui concernera Facebook, Twitter et les autres plateformes.

Dans un amendement révélé sur Next INpact, enregistré sans étude d’impact ni d’avis du Conseil d’État,  le gouvernement a souhaité anticiper une grande réforme en cours au niveau des instances européennes : le règlement sur les services numériques. Ce projet de règlement dévoilé par la Commission européenne le 15 décembre dernier est destiné à imposer de nouvelles obligations aux plateformes.

En somme, le texte français vient anticiper une législation européenne encore dans l’œuf, en prévoyant deux grands chapitres : une longue liste d’obligations de moyens pour les principales d’entre-elles. De l’autre, des compétences nouvelles mises entre les mains du Conseil supérieur de l’Audiovisuel.

Déjà énumérée dans nos colonnes, la liste des obligations est longue. Très longue :

  • Ils mettent en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :
    1. D’informer, dans les meilleurs délais, les autorités judiciaires ou administratives des actions qu’ils ont mises en œuvre à la suite des injonctions reçues
    2. D’accuser réception sans délai des demandes des autorités judiciaires ou administratives tendant à l’identification des utilisateurs
    3. De conserver temporairement les contenus signalés qu’ils ont retirés
  • Ils désignent un point de contact unique
  • Ils mettent à la disposition du public, de façon facilement accessible, leurs CGU où «  ils y décrivent en termes clairs et précis leur dispositif de modération visant à détecter, le cas échéant, à identifier et à traiter ces contenus, en détaillant les procédures et les moyens humains ou automatisés employés à cet effet ainsi que les mesures qu’ils mettent en œuvre affectant la disponibilité, la visibilité et l’accessibilité de ces contenus »
  • Ils rendent compte au public des moyens mis en œuvre et des mesures adoptées pour lutter contre la diffusion des contenus haineux
  • Ils mettent en place des dispositifs d’alertes
  • Ils mettent en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :
    1. D’accuser réception sans délai des notifications visant au retrait d’un contenu
    2. De garantir l’examen approprié de ces notifications dans un prompt délai
    3. D’informer leur auteur des suites qui y sont données
    4. D’en informer l’utilisateur à l’origine de sa publication, si ces acteurs décident de retirer (même si le contenu est pédopornographique ou terroriste…). Les raisons sont données et il est informé des voies de recours
      Ils mettent en œuvre des dispositifs de recours interne permettant de contester les décisions relatives aux contenus (retrait ou non)
  • Ils exposent dans leurs conditions d’utilisation, en des termes clairs et précis, ces procédures de retrait, pouvant conduire à des résiliations de compte pour les cas les plus graves (car répétés)
  • Les acteurs dépassant un seuil de connexion devront évaluer les risques systémiques liés à leurs services. Ils devront mettre en place des mesures destinées à atténuer les risques de diffusion des contenus illicites rattachés à la liste.
  • Ils doivent rendre compte au CSA des procédures et moyens

« L'extrême fragilité juridique de la méthode suivie par le Gouvernement »

La commission des lois du Sénat rappelle pour sa part que le Conseil sera pour l’occasion doté de nouveaux moyens de contrôle, avec possibilité de sanctions pécuniaires pouvant aller jusqu'à 6 % du chiffre d'affaires mondial.

Ce nouveau régime prévoit une date de fin de vigueur anticipée de ses dispositions, ²au 31 décembre 2023, en attendant l'adoption à venir du Digital Services Act, face auquel le droit national devra nécessairement être conforme.

Cependant, l’art et la méthode ne satisfont pas vraiment les rapporteures du texte, Jacqueline Eustache-Brinio et Dominique Vérien. Elles dénoncent en effet « l'extrême fragilité juridique de la méthode suivie par le Gouvernement ».

Pourquoi ? la raison est simple : l’article 19 bis, porté par le gouvernement et la majorité LREM, « prétend anticiper et "pré-transposer" en droit français le futur cadre juridique européen issu du "Digital Service Act" alors que ce dernier commence à peine à être négocié, tout en violant la directive "e-commerce" actuellement en vigueur, en espérant parvenir à convaincre la Commission européenne de sa bonne foi ».

Quel est le souci exactement ? L’article 19 bis intégrant ces nouvelles obligations s’applique que les plateformes « soient ou non établi[e]s sur le territoire français », dixit l’un des alinéas.

Une possible violation de la directive de 2000 

Or, l’article 3 de la directive e-commerce de 2000, encore compétente aujourd'hui pour encadrer les plateformes, est beaucoup plus nuancé ! Il prévoit que chaque État membre puisse réguler les prestataires établis sur son territoire, tout en leur interdisant de réguler (ou « restreindre la libre circulation des services de la société de l'information ») ceux installés dans un autre État membre.

Des exceptions européennes sont bien prévues, mais que dans des cas très limités et suivant une procédure au cordeau.

Les États membres peuvent ainsi adopter des mesures dérogatoires à l’encontre des intermédiaires étrangers dans des secteurs comme l'ordre public, « en particulier la prévention, les investigations, la détection et les poursuites en matière pénale, notamment la protection des mineurs et la lutte contre l'incitation à la haine pour des raisons de race, de sexe, de religion ou de nationalité et contre les atteintes à la dignité de la personne humaine », ou encore en matière de « sécurité publique, y compris la protection de la sécurité et de la défense nationales ».

Ces mesures ne peuvent cependant intervenir qu’en cas de « risque sérieux et grave » et seulement si elles sont « proportionnelles ».

Sur le terrain de la procédure, à suivre la directive de 2000, la France aurait dû vainement demander aux États membres où sont installés chaque plateforme, de prendre les mesures nécessaires, tout en notifiant la Commission européenne.

Les justifications gouvernementales, sur fond d'attentats 

Interrogé par les rapporteures, « le Gouvernement, pour justifier sa position, a avancé que cette procédure n'était pas adaptée à la régulation d'entreprises établies pour l'essentiel dans des pays, comme l'Irlande, qui n'ont pas adopté de législation en matière de haine en ligne ».

L'exécutif se prévaut en outre « de la procédure d'urgence prévue par la directive e-Commerce. Elle impose « seulement une notification à l'État d'établissement et à la Commission européenne, sans passer par un constat de carence ».

Voilà pourquoi dans sa notification adressée mi-mars, Les autorités françaises ont justifié cette législation dérogatoire par la série d’attentats qui a frappé le pays, « dont le dernier (attentat de Conflans-Sainte-Honorine) a illustré à nouveau le rôle majeur joué par la dissémination, sur certaines grandes plateformes, de contenus de provocation à la violence et à la haine en ligne ». Paris a donc indiqué qu’elle jugeait « urgent d’agir pour mettre en responsabilité ces acteurs vis-à-vis de la place qu’ils occupent désormais dans l’espace public et compte tenu des risques systémiques que leurs modèles de fonctionnement peuvent induire ».

Les craintes...et le pari des sénateurs

Des arguments suffisants ? La commission des lois craint « que les actes réglementaires d'application de l'article 19 bis (décret fixant les seuils, modalités d'application des obligations de moyens) et les décisions du CSA (lignes directrices, contrôles et sanctions) soient rapidement contestés et considérablement fragilisés par cette éventuelle contrariété au droit européen ».

Cependant la commission des lois, plutôt que de plaider pour une suppression de cette disposition, n’a pas été au bout de sa logique. Elle a préféré prendre un « pari risqué » en tentant « d'améliorer le dispositif proposé » et déjà adopté par l’Assemblée nationale.

Un texte retravaillé

La commission a d'abord exclu du périmètre de la régulation du CSA, les moteurs de recherche, au motif que « la nouvelle régulation des plateformes doit se concentrer sur les réseaux sociaux à fort trafic, principaux vecteurs d’échanges de propos haineux illicites ». Elle considère en outre que « ni le projet de règlement européen "DSA" (que cet article prétend "pré-transposer") ni l’actuelle loi allemande "NetzDG" n’incluent les moteurs de recherche dans leur périmètre ».

De même, elle a exclu les encyclopédies en ligne à but non lucratif puisqu’ « une plateforme comme Wikipédia repose ainsi pour l'essentiel sur le travail de millions de contributeurs bénévoles. Elle n'est absolument pas confrontée aux mêmes problèmes de diffusion massive de la haine en ligne que les grands réseaux sociaux ».

Elle a renforcé l’obligation pour les grandes plateformes de désigner des « signaleurs de confiance ». Les acteurs bénéficiant de ce statut, déterminés selon des modalités définies par le CSA, verront leurs notifications traitées prioritairement. Ils devront disposer « d’une expertise et de compétences particulières aux fins de la détection, de l’identification et du signalement des contenus illicites ».

Le CSA se voit confier la mission d’encourager les opérateurs de plateformes à «mettre en place des outils de partage d'information dans un format ouvert sur les contenus haineux illicites (bases de données de "hash" d'images illicites, bonnes pratiques de modération, listes noires d'adresses de sites illicites, etc.) », mais également « à lutter plus efficacement contre la viralité de certains contenus haineux en limitant le partage et l'exposition du public aux contenus illicites qui leurs sont notifiés » et enfin, à « favoriser l'interopérabilité des grandes plateformes ».

L’idée ? Fluidifier la migration de l'une à l'autre pour que les utilisateurs «puissent réellement choisir celles ayant les politiques de modération des contenus qui leur conviennent le mieux».

De même, les sénateurs ont modifié l’obligation pour la plateforme d’alerter l’auteur d’un contenu dénoncé comme haineux, « lorsqu'une autorité publique le demande pour des raisons d'ordre public ou à des fins de prévention et de détection des infractions pénales, ainsi que d'enquêtes et de poursuites en la matière ». Histoire de préserver l’efficacité des procédures en cours.

Enfin, la commission des lois a prévu un déport de la mise en œuvre de cet article 19 bis : il entrera en vigueur trois mois après la publication du décret fixant le seuil au-delà duquel une « plateforme » devient « grande plateforme ».

L’examen en séance est programmé entre le 30 mars et le 8 avril prochain.

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« L'extrême fragilité juridique de la méthode suivie par le Gouvernement »

Une possible violation de la directive de 2000 

Les justifications gouvernementales, sur fond d'attentats 

Les craintes...et le pari des sénateurs

Un texte retravaillé

Fermer

Commentaires (1)


Joli sous-titre :)



Je vois pas l’intérêt de proposer un texte retravaillé, puisqu’ils ont eux-même jugé qu’établir un texte national est prématuré. C’est un peu schizo comme démarche.



Aussi, sur la question de l’interopérabilité : quand bien même ça serait envisageable techniquement, et si l’objectif est de lutter contre la “haine en ligne”, est-ce vraiment judicieux de permettre aux haineux de changer de plateforme à chaque fois qu’ils se font bannir ?