Connexion
Abonnez-vous

DSA, plateformes et moteurs : le projet d’amendement du gouvernement

L’après Avia, l’avant DSA

DSA, plateformes et moteurs : le projet d'amendement du gouvernement

Le 15 janvier 2021 à 06h00

L’annonce a été faite par Cédric O notamment : le gouvernement veut « pré-transcrire » dans notre droit, le futur Digital Services Act. Next INpact diffuse en exclusivité son projet d'amendement, accompagné de nos commentaires.

La destitution numérique de Donald Trump « pose des questions », selon Cédric O. Le secrétaire d'État ne s’est pas privé de critiquer ces réseaux sociaux qui « peuvent décider de censurer quelqu'un suivi par 88 millions de personnes de manière complètement unilatérale », non sans regretter l’absence de « supervision démocratique, sans action de la justice ». 

Réaction similaire de Bruno Le Maire : « ce qui me choque c’est que c'est Twitter qui ferme le compte de Trump. La régulation des géants du numérique ne peut pas et ne doit pas se faire par l’oligarchie numérique elle-même. Elle est nécessaire, mais elle doit se faire par les États et par la Justice ».

Ces critiques s'expliquent dans les coulisses. Le gouvernement prépare en effet une réforme intrépide, dont la couleur fut annoncée par Cédric O pas plus tard que le 6 janvier dernier à l’Assemblée nationale : pré-transcrire dans notre droit, des pans entiers du futur Digital Services Act proposé par la Commission européenne.

Derrière cet anglicisme, un dépoussiérage profond de toute la législation encadrant la responsabilité des plateformes et autres réseaux sociaux. Notre décryptage, ligne par ligne, du texte européen en gestation :

Qu’entend faire le gouvernement dans le détail ? Nous nous sommes procuré l’amendement en préparation. Selon le plan de bataille, il sera déposé pour la séance au tour du projet de loi « confortant le respect des principes de la République » (autrefois baptisée PJL « Séparatisme »).

Au menu, deux grands piliers : d’un côté, des obligations de moyens pour les grands et très grands services en ligne. De l’autre, des compétences nouvelles dévolues au Conseil supérieur de l’Audiovisuel.

Des obligations de moyens imposées même aux acteurs étrangers

Précision introductive : l’amendement ne vise pas l’ensemble des intermédiaires techniques, les fameux « hébergeurs », mais plus précisément les seules plateformes de partage de contenus et les moteurs de recherche, ceux du moins dont l’audience dépasse un seuil de connexion qu’un futur décret définira.

Une certitude, les réseaux sociaux comme Facebook ou Twitter et les plateformes de partage de vidéos ou d’images comme YouTube ou Instagram sont bien concernés.

Ces acteurs, même installés à l’étranger, devront concourir à la lutte contre la diffusion de contenus raccrochés à une série d’infractions (qu'on trouve déjà dans la loi sur la confiance dans l'économie numérique de 2004). L’amendement cible un vaste éventail :

  • l’apologie des crimes [d’atteintes volontaires à la vie, à l’intégrité de la personne, ou au vol], des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage
  • les provocations à la « discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée »
  • les provocations « à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou auront provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225 - 2 et 423 - 7 du code pénal
  • le harcèlement sexuel,
  • la traite d’êtres humains,
  • le proxénétisme,
  • la pédopornographie,
  • l’apologie ou provocation au terrorisme
  • et… le fait de donner accès aux mineurs à des messages violents ou pornographiques

Deux remarques : ces contenus ne devront pas nécessairement être manifestement illicites, contrairement à ce qu’exige régulièrement le Conseil constitutionnel depuis 2004. Et c’est donc désormais la loi du pays de destination qui s’appliquera, non celle du pays d’origine.

Pour lutter contre ces infractions placées dans le haut du panier, Facebook, Snapshat, Twitter, Instagram, YouTube, Dailymotion et autre Google seront astreints à une série d’obligations de moyens. Un socle de base inspiré de la loi Avia (censurée par effet domino par le Conseil constitutionnel) et du futur règlement européen Digital Services Act.

La liste elle-même de ces obligations est très longue, occupant près de deux pages de l’amendement diffusé ci-dessous. 

Une longue liste d’obligations de moyens

Dans cet inventaire, retenons qu’ils devront mettre en oeuvre « des procédures et des moyens humains et technologiques proportionnés » dans toute une série d’hypothèses.

Par exemple, afin d’ « informer dans les meilleurs délais les autorités judiciaires ou administratives des actions qu’ils ont mises en oeuvre à la suite des injonctions émises par ces dernières », et relatives aux contenus « haineux ».

Les grandes plateformes et principaux moteurs devront également accuser réception sans délai des demandes adressées par ces autorités visant à transmettre les données d’identification des internautes à l’origine de contenus illicites. Ces mêmes intermédiaires devront informer ces mêmes autorités « dans les meilleurs délais des suites données à ces demandes ». Signe que ces réseaux ne sont pas vraiment l'antre de l'anonymat... 

Une fois retirés, les contenus illicites devront être conservés en mémoire « aux fins de les mettre à disposition de l’autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ». Un décret pris après avis de la CNIL en définira les modalités pratiques.

Un point de contact unique

Ce n’est pas tout. Facebook, Twitter, YouTube et les autres auront l’obligation de désigner un point de contact, chargé « de la communication avec les autorités publiques » pour la mise en œuvre de ces dispositions. Les CGU à l’avenir, devront être facilement accessibles et intégrer l’interdiction de mettre en ligne ces contenus illicites. Un point qui ne devrait pas entraîner de grande révolution.

Néanmoins, Donald Trump apprendra peut-être que la France veut aussi que les plateformes et moteurs concernés y décrivent « en termes clairs et précis leur dispositif de modération visant à détecter, identifier et traiter ces contenus ».

Seront également détaillés, les procédures, les moyens humains ou automatisés employés outre les mesures mises en oeuvre « affectant la disponibilité, la visibilité et l’accessibilité de ces contenus ». Les recours internes et judiciaires devront tout autant être indiqués.

En suivant les lignes directrices définies par le CSA, ils auront à rendre des comptes sur les moyens et les mesures adoptées pour lutter contre la diffusion de ces contenus. Comme dans le DSA, des tiers de confiance disposeront d’une voie prioritaire pour le traitement des notifications.

La procédure de signalement

N’importe quel internaute pourra signaler la présence d’un contenu raccroché selon lui, à ces mêmes infractions. Cet internaute pourra signaler l’emplacement (l’URL spécifiquement), les raisons pour lesquelles il estime ce contenu illégal, et les informations permettant de la contacter. Ce signalement pourra se faire en conséquence de manière anonyme.

Ces plateformes et moteurs devront mettre en œuvre les moyens proportionnés à leur taille pour accuser réception de ce signalement (s’ils disposent du mail), garantir un examen approprié et rapide et informer l’internaute des suites qu’ils entendent donner et des voies de recours.

S’ils retirent, l’auteur des contenus sera si possible informé des raisons. Il saura même si la décision « a été prise au moyen d’un outil automatisé » et se verra informer là encore des voies de recours internes et judiciaires. Il sera tout autant alerté « des sanctions civiles et pénales sont encourues pour la publication de contenus illicites ».

Des recours internes obligatoires

Les recours internes vont donc devenir obligatoires. L’internaute à l’origine d’un signalement ou d’un contenu litigieux pourra contester la décision de l’opérateur (refus de retrait, retrait).

Plateformes et moteurs auront à veiller « à ce que ces dispositifs soient aisément accessibles et faciles d’utilisation et à ce qu’ils permettent un traitement approprié des recours dans les meilleurs délais, qui ne soit pas uniquement fondé sur l’utilisation de moyens automatisés »

Suspension, bannissement

Les intermédiaires concernés pourront, s’ils le veulent, mettre en place un bannissement temporaire ou définitif. Cette exclusion frappera soit « le compte des utilisateurs qui ont mis en ligne de manière répétée des contenus » raccrochés aux infractions précitées. Soit « des utilisateurs qui ont soumis, de manière répétée, des notifications manifestement infondées relatives » à ces mêmes contenus.

Remarquons que l’adverbe « manifestement » n’est utilisé que dans ce second cas, laissant craindre un sérieux déséquilibre dans les mesures de rétorsion.

Dans une logique très hadopienne, la plateforme ou le moteur devra d’abord adresser un avertissement de l’utilisateur. Pas plus de détails ne sont donnés sur ce point. 

Des obligations supplémentaires pour les très grandes plateformes

Pour les très grandes plateformes et les plus grands moteurs, dont le seuil sera défini là encore par décret, d’autres obligations s’ajoutent, à l’instar de ce que prévoit la proposition de réforme de la Commission européenne.

Ces opérateurs devront :

  • évaluer des risques systémiques liés au fonctionnement et à l’utilisation de leurs services en matière de diffusion des contenus « haineux » et en matière d’atteinte aux droits fondamentaux, notamment à la liberté d’expression
  • mettre en œuvre des mesures « raisonnables, proportionnées et efficaces visant à atténuer les risques de diffusion de ces contenus »
  • rendre compte au public de l’évaluation de ces risques systémiques et des mesures d’atténuation des risques mises en oeuvre.

Ces mesures « raisonnables » pourront porter sur des procédures et des moyens humains et technologiques destinés à « détecter, identifier et traiter ces contenus », mais sans se lancer dans une surveillance généralisée, interdite par le droit de l'UE.

Dans tous les cas, ces intermédiaires devront veiller « à prévenir les risques de retrait non justifié au regard du droit applicable et de leurs conditions générales d’utilisation ». Last but not least, ils rendront compte au Conseil Supérieur de l’Audiovisuel « des procédures et des moyens mis en œuvre ».

Les clefs de la régulation confiées au CSA

Comme la loi Avia, le gouvernement entend en effet profiter de ce projet de loi pour donner les clefs de la régulation des contenus dits « haineux » au Conseil supérieur de l’Audiovisuel. À ce titre, la loi 30 septembre 1986 relative à la liberté de communication est revue et corrigée. C’est le CSA qui veillera au respect de ces nouvelles normes pesant sur les plateformes et les moteurs.

Puisque les dispositions s’appuient sur une obligation de moyens, c’est encore lui qui jaugera la proportionnalité des mesures mises en œuvre, selon les caractéristiques de chaque service en ligne.

Pour parfaire ses connaissances, il se voit reconnaître un droit d’information. Les opérateurs devront lui donner « accès aux principes de fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l’évaluation et l’amélioration de leur performance, ainsi qu’à toute autre information ou donnée lui permettant d’évaluer leur efficacité ».

C’est enfin toujours le CSA qui dressera la liste des indicateurs chiffrés qui devront apparaître dans les rapports de transparence, ainsi que « les modalités et la périodicité » de ces publications.

La phase sanction

Le Conseil supérieur de l’audiovisuel pourra mettre en demeure un opérateur de se conformer, dans le délai qu’il fixe, à ces nouvelles obligations de moyens. Si ce dernier ignore ces mises en demeure ou ne la respecte pas entièrement, il pourra se voir infliger une sanction jusqu’à 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial total de l’exercice précédent (le montant le plus élevé étant retenu).

Quand le même manquement a fait l’objet dans un autre État « d’une sanction pécuniaire calculée sur la base de cette même assiette », alors le montant de cette sanction sera pris en compte pour la détermination de la sanction française.

Quand une plateforme ou un moteur refusera de communiquer une information demandée par le CSA, ou donnera des données fausses ou trompeuses, l’amende pourra atteindre cette fois 1 % du chiffre d’affaires annuel mondial total de l’exercice précédent. Ces décisions pourront être rendues publiques, selon la gravité du manquement.

Le gouvernement veut que ces dispositions entrent en vigueur jusqu’au 31 décembre 2023. Et ce, « pour tenir compte des négociations en cours sur l’adoption d’un règlement européenne sur les services numériques (« Digital Services Act ») dont l’adoption devrait intervenir avant cette date, et qui a vocation à se substituer à terme au présent dispositif ».

L’idée est donc que le régime de responsabilité bientôt examiné au Parlement français, soit revu et accompagné de nouvelles obligations pour les gros et les très gros intermédiaires, et de nouvelles compétences au profit du CSA, en attendant la fin du chantier européen.

Commentaires (14)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

“Amusant”, à aucun moment dans l’article je ne vois le mot “Justice” sauf dans la sortie de Le Maire.

votre avatar

Comment le CSA va pouvoir gérer les contenus haineux, est-ce sur signalement ou directement depuis leur bureau ou autre ?

votre avatar

Egamihrza a dit:


Comment le CSA va pouvoir gérer les contenus haineux, est-ce sur signalement ou directement depuis leur bureau ou autre ?


En fait le job est laissé aux plateformes et moteurs, qui devront déployer les moyens suffisants. Le CSA sera là pour jauger de la proportionnalité taille/moyens

votre avatar

Merci de m’avoir répondu, c’est un plus clair maintenant :D

votre avatar

Le secrétaire d’État ne s’est pas privé de critiquer ces réseaux sociaux qui « peuvent décider de censurer quelqu’un suivi par 88 millions de personnes de manière complètement unilatérale », non sans regretter l’absence de « supervision démocratique, sans action de la justice ».
Réaction similaire de Bruno Le Maire : « ce qui me choque c’est que c’est Twitter qui ferme le compte de Trump. La régulation des géants du numérique ne peut pas et ne doit pas se faire par l’oligarchie numérique elle-même. Elle est nécessaire, mais elle doit se faire par les États et par la Justice ».


Rigolo, quand il y a à peine qques mois ils défendaient la loi Avia qui oblige à faire la même chose voire va encore plus loin…

votre avatar

Patch a dit:


Rigolo, quand il y a à peine qques mois ils défendaient la loi Avia qui oblige à faire la même chose voire va encore plus loin…


Je me suis fais la même réflexion. Mais bon, une personnalité politique qui fait preuve d’hypocrisie, c’est pas comme si c’était un scoop 😐



Sinon, je me dis que par rapport à la PPL Avia, ce projet me parait bien moins c#n.
Maintenant, est-ce que j’aurais eu le même avis sans cette PPL ? Surement que non. Est-ce que son échec annoncé n’était pas justement destiné à nous faire passer la pilule du DSA ? Ça me parait à la fois plausible et complotiste. Argh je bug 😵 Bon je vous laisse, je vais rebooter …

votre avatar

C’est du contenu illégal, mais ils vont envoyer un avertissement… j’ai du mal à suivre leur logique.

votre avatar

Si je résume vite fait :



“C’est dégueulasse que les plateforme fassent la pluie et le beau temps sous prétexte qu’on leur demande depuis 15 ans ! Du coup on va leur demander de faire la pluie et le beau temps pour empêcher ça !”



Et ben on n’est pas sorti du sable…

votre avatar

Arkeen a dit:


Je me suis fais la même réflexion. Mais bon, une personnalité politique qui fait preuve d’hypocrisie, c’est pas comme si c’était un scoop 😐



Sinon, je me dis que par rapport à la PPL Avia, ce projet me parait bien moins c#n. Maintenant, est-ce que j’aurais eu le même avis sans cette PPL ? Surement que non. Est-ce que son échec annoncé n’était pas justement destiné à nous faire passer la pilule du DSA ? Ça me parait à la fois plausible et complotiste. Argh je bug 😵 Bon je vous laisse, je vais rebooter …


Fenêtre d’Overton. Ils ont balancé un truc le plus gros et le plus trollesque qui soit en sachant que ca ne passerait jamais, ce qui a permis d’élargir le cadre, ce qui permet ensuite d’accepter des trucs qu’avant on aurait refusé sans même réfléchir…

votre avatar

J’ai bien peur que ce mouvement de pensée législatif et politique visant à réguler les RS, qui a commencé il y a bien longtemps, a atteint un premier seuil avec la RGPD et tente de gravir un escalier de plus avec le DSA / DPA… n’arrive que bien, bien trop tard !



La haine est déjà bien profondément installée dans nos têtes, grâce à une opération de conquête habilement menée - depuis qu’internet existe - par les plus extrémistes d’entre nous, et ne se laissera pas déloger de si tôt…



Ce mouvement vers le fascisme, le nationalisme et l’autoritarisme, qui est non seulement présenté comme une norme de pensée mais aussi comme la seule solution “pour nous sauver”, ce mouvement vers le rejet massif de tout ce qui est “étranger” ou pas conforme à une norme idéalisée, ce mouvement de retour à l’oppression des femmes et des lgbtq+++ est là et bien là, jusqu’aux plus hautes têtes de certains gouvernements, jusqu’aux plus hautes instances dirigeantes du monde en général…



Et l’aboutissement de ce mouvement ne peut être que la guerre, sous différentes formes, qu’elle soit civile ou militaire… Le terreau riche et fertile est là et bien là, prêt à faire éclore, partout, de terribles fleurs de sang…

votre avatar

(reply:1849090:DantonQ-Robespierre)


C’est ironique comme position, bonne petite déshumanisation de “ses” gens là, faudrait faire quoi ? les envoyer dans des camps ?. ça vas même plus loin avec du catastrophisme et une prédiction d’une fin du monde si rien n’est fait. Même une petite touche de conspiration aussi. ça me change pas des plus fifous des Q-Anon. Ce genre de position c’est aussi être dans l’extrémisme, ne voir le monde qu’a travers le prisme d’une idéologie. On peut aller loin avec des “moi j’ai raison”.

votre avatar

Est-ce que j’ai désigné des gens en particulier ? Non, je parle d’une vague de fond qui est déjà bien installée dans les têtes, il suffit de lire les messages ici et ailleurs, d’être attentif aux mots et d’avoir une idée relativement claire du bien et du mal pour s’en rendre compte… Et peut-être d’avoir un coeur…



Concernant le prisme idéologique, pas besoin, perso je me tiens éloigné de toutes les idéologies quelles qu’elles soient. En fait si tu réfléchis bien, toute idéologie ou religion est inutile, c’est juste une cause d’aveuglement, la seule chose qui devrait compter c’est l’être humain.



Et l’être humain n’a rien à gagner à entretenir la haine, la division et le rejet, ces trois tendances de fond sont non seulement une perte d’efficacité dramatique pour nos sociétés, parce qu’ils nous empêchent d’avancer sereinement, mais aussi un facteur d’effondrement fatal.

votre avatar

Patch a dit:


Rigolo, quand il y a à peine qques mois ils défendaient la loi Avia qui oblige à faire la même chose voire va encore plus loin…


Relis bien la citation : à aucun moment il ne s’insurge contre le blocage lui-même. Ce qui le choque, c’est que ce blocage ait été décidé unilatéralement par Twitter, sans décision “souveraine” - que ce soit par la Justice, qu’il mentionne sans doute pour faire bien, ou par une “hotorité administrative” démocratique car prévue dans une loi votée conformément à la Constitution du pays (volonté française, la Justice étant trop aléatoire).

votre avatar

anagrys a dit:


Relis bien la citation : à aucun moment il ne s’insurge contre le blocage lui-même. Ce qui le choque, c’est que ce blocage ait été décidé unilatéralement par Twitter, sans décision “souveraine” - que ce soit par la Justice, qu’il mentionne sans doute pour faire bien, ou par une “hotorité administrative” démocratique car prévue dans une loi votée conformément à la Constitution du pays (volonté française, la Justice étant trop aléatoire).


Et justement dans la loi Avia faut qu’il y ait blocage unilatéral sous peine d’amende administrative. Absolument aucune différence dans la méthode, les faits et le résultat…
Et je ne vois pas en quoi la Justice est trop aléatoire. Surtout face à une autorité administrative, qui sanctionnera soit totalement au pif soit systématiquement, sans jamais regarder plus loin s’il y avait justification de la procédure qui a amené à la sanction ou pas.

DSA, plateformes et moteurs : le projet d’amendement du gouvernement

  • Des obligations de moyens imposées même aux acteurs étrangers

  • Une longue liste d’obligations de moyens

  • Un point de contact unique

  • La procédure de signalement

  • Des recours internes obligatoires

  • Suspension, bannissement

  • Des obligations supplémentaires pour les très grandes plateformes

  • Les clefs de la régulation confiées au CSA

  • La phase sanction

Fermer