Le Digital Services Act expliqué ligne par ligne (articles 1 à 24)
#clementines
Notre dossier sur le DSA :
Le 04 janvier 2021 à 10h36
28 min
Droit
Droit
Comme pour le RGPD, Next INpact vous propose une présentation ligne par ligne du fameux DSA. 74 articles précédés de 106 considérants introductifs. En coulisse, se dévoile le futur de la régulation des intermédiaires en ligne, plateformes et hébergeurs compris. Voilà donc notre première partie.
La directive sur le commerce électronique ? Un texte poussiéreux, datant d’avant Facebook, Twitter et tous les autres, plus du tout adapté aux enjeux actuels… Et quels enjeux : l’essor des plateformes, la profusion de contenus pas toujours licites, la haine en ligne, la désinformation, l’impérieuse protection de la liberté d’expression… Conseil comme Parlement européens ont déjà affirmé la péremption du texte de 2000. La Commission constate elle aussi sans mal que « le paysage des services numériques est sensiblement différent de ce qu'il était il y a 20 ans, lorsque la directive sur le commerce électronique a été adoptée ».
Depuis vingt ans, la démocratisation de l’accès et la dépendance de nos sociétés à ce web qui va au-delà du stade 2.0 ont donc convaincu les instances européennes à prendre le chemin de la réforme.
Cette directive sur le commerce électronique (ou e-commerce) fut le tremplin de nombreux acteurs en ligne, avec en tête de rayon les fameux hébergeurs. Le régime choisi, qui s’applique toujours à Facebook, Snapchat, YouTube ou Twitter, fut celui d’un équilibre subtil entre cette belle liberté d’expression, la nécessaire protection de la liberté d’entreprendre et la tout aussi impérieuse lutte contre les infractions.
En substance, ces intermédiaires sont depuis contraints de retirer les contenus illicites qui leur sont notifiés. Et s’ils retirent, tout va bien, mais s’ils les maintiennent en ligne, ils engagent alors leur responsabilité. Un régime jugé trop simple aujourd’hui et qui fut transposé en France en 2004 dans la loi sur la confiance dans l’économie numérique.
Le corps de règles présenté le 15 décembre dernier remet à jour cette législation de manière « horizontale ». Un seul règlement, d’application directe, en vigueur à terme dans tous les États membres, afin d’éviter l’effet mosaïque et la vile technique du forum shopping. Cette pratique qui consiste à installer son principal établissement dans l’État membre où la législation est la plus avantageuse, douce et opportune pour ses intérêts.
Le grand jour du DSA, qui entame désormais son long processus législatif, est certes un texte horizontal, mais le règlement laisse intactes les législations verticales, celles relatives à certains secteurs. On pense déjà à la directive sur le droit d’auteur ou le futur texte contre les contenus terroristes.
Le texte accompagne une autre législation en devenir, celle sur les marchés numériques. Elle pilotera notamment les marketsplace, mais aussi tous les autres « contrôleurs d’accès », ces « plateformes qui ont une forte incidence sur le marché intérieur [et] qui constituent un point d'accès important des entreprises utilisatrices pour toucher leur clientèle » (nous y reviendrons).
Pour Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l'ère du numérique, « les deux propositions servent un même but : faire en sorte que nous ayons accès, en tant qu'utilisateurs, à un large choix de produits et services en ligne, en toute sécurité. Et que les entreprises actives en Europe puissent se livrer à la concurrence en ligne de manière libre et loyale tout comme elles le font hors ligne. Ce sont les deux facettes d'un même monde. Nous devrions pouvoir faire nos achats en toute sécurité et nous fier aux informations que nous lisons. Parce que ce qui est illégal hors ligne est aussi illégal en ligne.»
Selon la Commission, « certains très grands acteurs sont devenus des espaces quasi publics de partage d'informations et de commerce en ligne. Ils ont acquis un caractère systémique et présentent des risques particuliers pour les droits des utilisateurs, les flux d'information et la participation du public ». Ces propositions « visent à organiser notre espace numérique pour les prochaines décennies », commente Thierry Breton, le commissaire au marché intérieur. Autant dire des blocs essentiels.
La structure du DSA se décompose en cinq chapitres, découpés en plusieurs sections, elles-mêmes divisées en 74 articles. Le tout est précédé de 106 considérants, qui n’ont certes pas de portée juridique, mais sont utiles pour éclairer le juge lorsque, de sa main tremblante, il affronte une difficulté d’interprétation.
Plongeons-nous maintenant dans ce nouvel océan qui encadrera demain les contenus échangés en ligne.
- Le Digital Services Act expliqué ligne par ligne (articles 1 à 24)
- Le Digital Services Act expliqué ligne par ligne (article 25 à 74)
Chapitre 1 - Dispositions générales
Article 1 - L’objet et le champ du DSA
Cet article décrit les enjeux du DSA, à savoir l’établissement d’une série de règles harmonisées dans l’ensemble des États membres. Le texte s’appuie sur un règlement, qui est donc d’application directe, contrairement à une directive qui exige le passage par une loi de transposition.
Il encadre l’ensemble des services d’intermédiations, en définissant un nouveau régime de responsabilité, des obligations de diligences spécifiques, le tout chapeauté par des règles de coopérations entre les autorités. « Un comportement responsable et diligent des prestataires de services intermédiaires est essentiel pour un environnement en ligne sûr, prévisible et fiable et pour permettre aux citoyens de l'Union et d'autres personnes d’exercer leurs droits fondamentaux garantis par la Charte des Droits fondamentaux de l’Union européenne » témoignent les considérants.
L’objectif est donc d’assurer un bon fonctionnement du marché intérieur, avec des règles uniformes, sans faire l’impasse sur les droits et libertés fondamentaux inscrits dans la Charte.
Le texte purge une difficulté qui a parfois émaillé des affaires plaidées devant les tribunaux. Celui de son application géographique : le règlement s'appliquera à tous les services intermédiaires fournis aux internautes ayant leur lieu d'établissement ou de résidence dans l'Union. Le lieu d'établissement du prestataire lui-même est donc sans conséquence. Il n’y aura donc pas de discrimination puisque le règlement fait sienne la logique du « pays de destination », au dépens de celle du « pays d’origine ».
Dit autrement, qu’une entreprise soit belge, française, mexicaine ou étasunienne, peu importe : elle devra respecter ces normes si elle cible le public européen. Cette logique, qu’on retrouve dans le RGPD, enclenchera par effet domino la propagation des valeurs du Digital Services Act à l’ensemble de la planète.
Avant, il faudra néanmoins démontrer l’existence d’un lien « substantiel » avec l’Union : nombre significatif d’utilisateurs européens, ciblage du Vieux continent par le choix de la langue, par le biais de publicités « locales », … Les indices possibles seront nombreux pour justifier de ce lien de filiation. Un considérant prévient en tout cas que la simple accessibilité d’une plateforme ne suffira jamais à vérifier cette condition.
Le texte préserve les autres règlements et directives sectoriels. Il s’appliquera sans préjudice de la directive sur le droit d’auteur, la régulation en matière de sécurité des produits notamment, mais aussi la directive 2000/31 sur le commerce électronique. En clair, celle-ci, quoique poussiéreuse, reste en l’état, du moins s’agissant des dispositions qui ne sont pas annulées par le DSA.
Article 2 - Définitions
La liste des définitions est importante : quand viendra le temps des contentieux, elle permettra au juge de déterminer les droits et obligations des personnes concernées. Le champ lexical du texte dépasse le rôle d’un simple dictionnaire pour comprendre les termes utilisés. « Services de la société de l’information », « destinataire du service » (ou utilisateurs), « consommateur », etc. chacune de ces expressions, traduites juridiquement, aura des effets lourds, inclusifs ou exclusifs, sur le règlement.
C’est dans cet article qu’on découvre aussi la signification d’« offrir des services dans l’Union », levier qui permet d’appliquer le DSA à l’échelle de la planète. La définition sera vérifiée dès lors que le service en ligne concernera un nombre significatif d’utilisateurs en Europe, ou ciblera des activités vers un ou plusieurs États membres.
Autre notion phare, celle de « services intermédiaires ». Très vaste, elle embrasse :
- les services dédiés dans la transmission d’informations fournies par un utilisateur ou la fourniture d’accès à un réseau de communication.
- les services de mise en cache, soit des technologies de stockage temporaire destinées à rendre plus efficace la transmission d’informations.
- les hébergeurs, comme YouTube ou Facebook, ou Twitter.
Qu’est-ce qu’un « contenu illégal » ? Il s’agit cette fois de toute information qui, en elle-même ou par référence à une activité, « n'est pas conforme avec le droit de l'Union ou le droit d'un État membre ». En somme, la législation en gestation ne dit pas quels sont les contenus qui sont illicites, mais encadre leur traitement en renvoyant aux autres législations, notamment nationales, le soin de fixer la frontière entre licite et illicite.
La « plateforme en ligne » sera cette fois un fournisseur d'un service d'hébergement qui stocke et diffuse au public des informations à la demande d’un des utilisateurs. La notion est là aussi très large, et dépasse celle actuellement en vigueur en France dans le Code de la consommation.
La diffusion ou « dissémination au public » sera l’acte par lequel des informations sont fournies à un nombre illimité de tiers.
Les définitions étant posées, le chapitre suivant embraye sur les responsabilités respectives.
Chapitre II - Responsabilité des fournisseurs de services d’intermédiation
Article 3 - Simple transport
L’article 3 est le miroir de l’article 12 de la directive sur le commerce électronique de 2000. Ces opérations de simple transmission d’informations chères aux fournisseurs d’accès n’entraîneront pas la responsabilité de cet intermédiaire. Cette non-responsabilité est toutefois conditionnée, par une série de conditions négatives. Le fournisseur :
- ne devra pas avoir initié cette transmission
- ne devra pas avoir sélectionné son destinataire
- ne sélectionnera ni ne modifiera les informations faisant l'objet de la transmission
En somme, s’il reste tiers passif, il n’est pas responsable des activités des utilisateurs. Comme dans la directive sur le commerce électronique, l’article 3 ouvre la possibilité pour une juridiction ou une autorité administrative, d'exiger du prestataire de mettre un terme ou de prévenir et donc d’empêcher une infraction (blocage curatif, blocage préventif).
Article 4 - Le « caching » ou cache
Là encore le prestataire n’est pas responsable à l’occasion du stockage automatique, intermédiaire et temporaire d’une information illicite. Là aussi, plusieurs conditions cumulatives pour épargner les services de cache de la moindre responsabilité. Par exemple, il ne devra pas modifier l’information, Et là aussi, une juridiction ou une autorité administrative, pourront exiger de ce prestataire qu'il mette fin ou qu'il prévienne une violation.
Article 5 - L’hébergement (ou « hosting »)
Même influence de la directive de 2000 sur le commerce électronique (article 14). Lorsqu’un hébergeur stocke des données d’un utilisateur, ce prestataire n’est pas responsable de leur illicéité éventuelle à condition qu’il n'ait pas effectivement connaissance de l'activité ou de l'information illicite ou, dès le moment où il en prend connaissance, il les retire promptement ou en rend l'accès impossible.
Toujours dans le règlement DSA, une juridiction ou une autorité administrative peut exiger des mesures pour mettre un terme à une violation ou prévenir un tel acte.
Une mesure est ajoutée, en plus de celles déjà prévues dans la directive de 2000 : ce régime de responsabilité conditionnelle ou atténuée ne s’applique pas dans une hypothèse concernant le droit de la consommation. Celle où une plateforme de vente permet à des internautes d’acheter des produits ou services auprès de professionnels, tout en faisant croire, auprès des consommateurs « moyens », que ces biens ou services sont fournis par la plateforme elle-même. En cas de problème, le consommateur pourra se retourner contre l’intermédiaire, lequel ne bénéficiera pas de la protection du statut d’hébergeur.
Article 6 - Enquêtes d'initiative volontaire et conformité légale
Ces régimes de responsabilité peuvent concerner de nombreux acteurs, dont les services de noms de domaine (DNS) ou les registries. En attendant, l’article 6 introduit la clause de bon samaritain selon laquelle un intermédiaire ne perd pas le bénéfice des exemptions de responsabilité prévues ci-dessus s’il mène des investigations pour détecter, identifier et éliminer ou désactiver des contenus illicites (notamment au regard de ses CGU, voir considérant 32).
Il restera protégé même s’il prend des mesures taillées pour se conformer au droit européen. Dit autrement, un hébergeur ne sera pas en situation de « connaissance » s’il scrute les fichiers afin de traquer les contenus hors des clous. On le comprend : une solution inverse aurait conduit finalement à sanctionner les meilleurs élèves, face aux intermédiaires totalement passifs.
Au passage, le considérant 26 indique que les intermédiaires ne doivent pas être les seuls à mener cette lutte. Il invite les tiers, comme les services de modération, à agir pour limiter voire éviter la dissémination des contenus illicites.
Article 7 - Pas de surveillance généralisée
C’est là le pendant de l’article 15 de la directive de 2000. Le texte prohibe une quelconque obligation générale de contrôler les informations que les intermédiaires transmettent ou stockent. Il n’y a pas davantage d’obligation de rechercher activement des faits qui seraient la trace d’une activité illégale.
« Le nouveau règlement interdit les obligations générales de surveillance, en ce qu’ils pourraient limiter de manière disproportionnée la liberté d’expression et la liberté pour les utilisateurs de recevoir des informations, tout en surchargeant les prestataires de services et ainsi interférer indûment sur la liberté d’entreprendre » détaillent les propos introductifs.
Bien entendu, tout dépendra comment les juridictions interprètent l’expression de « surveillance généralisée ». Par exemple, une surveillance limitée dans le temps, ou auprès de certains internautes seulement ou concentrée sur certains types de fichiers seulement… passerait-elle entre les gouttes de cette prohibition ?
La CJUE avait répondu par l’affirmative dans le passé. C’est la fameuse affaire Sabam, rendue pour la plus grande joie des producteurs de musique.
Le considérant 28 préserve bien la capacité pour une autorité nationale d’apporter des coups de bistouri ciblés, mais seulement dans des « cas particuliers ».
Article 8 - Injonctions d’agir contre les contenus illicites
Les autorités judiciaires (un tribunal) ou administratives (la Hadopi ou le CSA) qui viendraient par l’effet du droit national à adresser une injonction à un intermédiaire en visant un contenu illicite, devront être informées sans retard des suites mises en œuvres par la société.
Le règlement encadre cet échange entre les autorités et les fournisseurs. En amont, les injonctions devront systématiquement expliquer en quoi le contenu est illicite, préciser l’adresse de ce contenu, outre fournir des informations sur les recours dont disposent les fournisseurs et la portée territoriale de la décision. Sur ce point, détaille le considérant 31, cette portée devra ne jamais dépasser le cadre du « strictement nécessaire ». Ces injonctions devront d’une manière générale respecter le principe de proportionnalité : ne pas constituer une charge disproportionnée, ni n’affecter les intérêts des tiers.
L’injonction devra être impérativement adressée au fournisseur, dans sa langue, et au point de contact du pays concerné (voir article 10).
Selon la Commission, « le texte place la protection de la liberté d'expression au cœur même du dispositif. Cela inclut la protection contre l'ingérence de l'État dans la liberté d'expression et d'information des citoyens. Les règles horizontales contre les contenus illicites ont été soigneusement calibrées et sont assorties de garanties solides concernant la liberté d'expression et un droit de recours effectif — afin d'éviter que des contenus ne soient pas retirés ou que d'autres soient retirés à tort, dans les deux cas pour des motifs d'illégalité ».
Nouvel acteur enfanté par le DSA, le Coordinateur des services numériques de l'État membre de l’autorité judiciaire ou administrative qui émet l’injonction, devra transmettre copie de ces injonctions à tous les autres Coordonnateurs des services numériques, via un système centralisé orchestré par la Commission européenne (v. article 67)
Article 9 - Injonction de fournir une information
Une autorité pourra toujours réclamer d’un intermédiaire des informations relatives à un ou plusieurs utilisateurs. La société visée devra répondre promptement, donc sans retard. Cette demande se fera par le truchement de son représentant « Point de contact » dans le pays, et une copie sera adressée à l’ensemble des Coordinateurs de service numérique.
Pour être valable, la demande devra répondre à plusieurs conditions cumulatives : exposer les motifs et expliquer en quoi cette demande est nécessaire et proportionnelle (sauf si les données sont couvertes par le secret des procédures pénales). Elle devra aussi rappeler le droit au recours du fournisseur.
Ces injonctions devront se limiter aux données déjà collectées par l’intermédiaire et qui sont encore sous son contrôle. Enfin, la langue de la demande devra être celle déclarée par le fournisseur.
Chapitre III - Obligations de diligence raisonnable pour un environnement en ligne transparent et sûr
Des obligations concernent tous les services, d’autres, complémentaires, visent les hébergeurs et les plateformes, mais aussi les très grandes plateformes.
Section 1 - Dispositions applicables à l’ensemble des services intermédiaires
Article 10 - Les points de contact
Une nouveauté : les intermédiaires auront l’obligation de désigner un « Point de contact » en Europe. Sa mission est opérationnelle : jouer le rôle de correspondant direct avec les autorités, pour assurer des échanges « fluides et efficaces ». Il n’est pas nécessaire de lui accorder un emplacement physique déterminé, contrairement au représentant légal (article 11). Son identité sera néanmoins rendue publique, tout comme la ou les langues pouvant être utilisées pour les échanges. Ce sera au moins l’une des langues officielles de l'État membre où se trouve son établissement principal ou où le représentant légal réside.
Article 11 - Le représentant légal
Le parapluie de la distance ne pourra plus jouer dans les procédures. Les intermédiaires visés par le règlement et qui proposent leur service dans l’UE depuis un pays tiers, vont devoir désigner un représentant légal dans l’un quelconque des États membres où ils prestent.
Il sera mandaté pour « parler » à la place de l’intermédiaire et devra disposer de ressources suffisantes.
Sa mission est nettement plus nerveuse que celle des points de contact ou évidemment des services publicitaires ou marketing implantés ici et là par les géants du numérique.
Si le point de contact a une mission opérationnelle, le représentant pourra lui être tenu pour coresponsable des éventuelles violations du règlement. Et une action à son encontre n’éteindra pas celles pouvant être dirigées contre les intermédiaires eux-mêmes.
Il devra être désigné auprès du Coordinateur du Service Numérique, dans son pays européen de résidence ou d’établissement. Notons enfin qu’un représentant légal pourra aussi endosser la casquette de Point de contact.
Soulagement pour les gourmands de sandwich néerlandais et autres montages fiscaux : « la désignation d'un représentant légal (…) ne constitue pas un établissement dans l'Union ».
Article 12 - Les termes et conditions
Le règlement exige que les règles du jeu de chaque fournisseur soient facilement accessibles et établies dans un langage clair dans leurs CGU. « Ces informations comprennent les politiques, procédures, mesures et outils utilisés aux fins de modération, y compris s’agissant de la prise de décision par algorithme et examen humain ».
Les prestataires ne pourront plus faire n’importe quoi, armés de leurs fameuses conditions générales d’utilisation. Le point 2) de l’article prévient qu’ils devront toujours agir de manière diligente, objective et proportionnée, mais aussi tenir compte des autres intérêts en présence, notamment les droits fondamentaux prévus par la Charte, dont la liberté d’expression.
Article 13 - Obligation de transparence
Les rapports de transparence publiés par des acteurs comme Google, Facebook ou Twitter, gagnent plusieurs crans. D’une action volontaire, on passe ici à une véritable obligation. Ces rapports sur la modération des contenus devront désormais être clairs, compréhensibles et détaillés. Ils devront notamment comprendre :
- le nombre de demandes adressées par chaque autorité, classées par type de contenus illicites
- le temps de traitement
- le nombre de notification reçue sur le fondement de l’article 14, là aussi classées par type de contenus illicites, mais aussi de fondements (CGU ou loi)
- les modérations engagées de la propre initiative par le fournisseur en détaillant le type de mesures prises
- le nombre de plaintes reçues sur le fondement cette fois de l’article 17
Cette obligation de transparence concerne tous les fournisseurs, sauf les micros ou petites entreprises identifiées selon des critères européens établis en 2003 :
- Petite entreprise : entreprise qui occupe moins de 50 personnes et dont le chiffre d'affaires annuel ou le total du bilan annuel n'excède pas 10 millions d'euros.
- Microentreprise : entreprise qui occupe moins de 10 personnes et dont le chiffre d'affaires annuel ou le total du bilan annuel n'excède pas 2 millions d'euros
Section 2 - Dispositions additionnelles applicables aux hébergeurs, dont les plateformes
Article 14 - Les mécanismes de notification et d’action
Dans la doctrine de la Commission européenne, ces acteurs ont une place à part : ils stockent de nombreux contenus, qui sont ensuite mis à disposition d’une large population d’internautes. Leur rôle dans la lutte contre les contenus illicites est donc primordial. Le texte prévoit en conséquence une série d’obligations spécifiques visant l’ensemble de ces intermédiaires, peu importe leur taille.
Qu’est-il prévu ? Les hébergeurs devront mettre en place des mécanismes permettant à quiconque de signaler l’existence d’un contenu qu’il considère comme illicite. Ces outils électroniques devront être aussi accessibles que conviviaux. La notification devra néanmoins drainer plusieurs informations spécifiques, afin que l’intermédiaire normalement diligent puisse prendre la décision qui s’impose.
- Les raisons pour lesquelles le notifiant estime que le contenu est illicite
- L’URL de ce contenu
- L’identité du notifiant et son adresse email (sauf en matière d’abus sexuel, d’exploitation sexuelle et de pédopornographie)
- Une déclaration de bonne foi du notifiant
Ces règles sont harmonisées dans l’ensemble des États membres. Comme dans la loi sur la confiance dans l’économie numérique, le respect de ce formalisme entraînera de facto une présomption de connaissance du fait illicite signalé.
L’adresse mail permettra à l’hébergeur de remplir d’autres obligations : adresser sans retard une confirmation de bonne réception et lui fournir des informations sur les possibilités de recours.
Ces échanges permettront de sanctionner les hébergeurs trop peu réactifs dans le traitement des demandes. Le texte n’impose aucun délai de traitement, comme le rêvait Laetitia Avia avant la censure du Conseil constitutionnel de sa proposition de loi contre la haine en ligne. L’hébergeur devra néanmoins traiter les demandes en temps utile, de manière objective et avec diligence.
Avec ce recul, on comprend mieux pourquoi la Commission avait fustigé le texte d’Avia, qui tentait de faire cavalier seul alors que dans le box européen le pur-sang du règlement était sur les startings blocks. S’il n’y a pas de délai imparti aux hébergeurs pour retirer un contenu, c’est justement pour mener à bien une balance de proportionnalité de l’ensemble des intérêts en présence. Lutte contre les contenus illicites, mais aussi protection de la liberté d’expression ou des droits de propriété intellectuelle, etc. Tous ces poids pèseront sur la balance pour aboutir à la solution la plus adéquate possible.
Article 15 - L’exposé des motifs
L’utilisateur concerné devra être informé de la décision de retrait ou blocage. L’hébergeur devra lui adresser les motifs clairs et précis de sa décision.
Ce n’est pas tout, lui seront aussi indiqués :
- la portée territoriale de la désactivation
- les faits et circonstances qui fondent la décision
- l’existence de moyens automatisés en amont de cette décision
- les dispositions des CGU éventuellement en cause
- les possibilités de recours
Ces décisions seront par ailleurs anonymisées et tenues à disposition d’une base de données gérée par la Commission, qui aura un rôle important dans les éventuelles sanctions infligées aux intermédiaires peu respectueux de ces nouvelles normes.
Section 3 - Dispositions supplémentaires applicables aux plateformes en ligne
Article 16 - Exclusion des micros et petites entreprises
Cette section 3 ne concerne pas ces petites structures, qui pourront néanmoins toujours adopter ces mesures supplémentaires si elles le souhaitent, en particulier en s’inspirant du système de traitement des plaintes présenté comme efficace.
Article 17 - Système interne de traitement des plaintes
Pour la première fois là aussi, un règlement vient imposer l’existence d’un système de traitement des réclamations contre les décisions relative à des contenus illicites ou des violations des CGU.
Les plateformes devront proposer un tel mécanisme, gratuit et par voie électronique. Cela concernera les décisions relatives aux retraits des contenus, mais aussi à la suspension ou la clôture des comptes.
Ce système interne devra être simple d’utilisation et les recours devront être traités en temps utile, de manière diligente et objective.
Si l’utilisateur obtient finalement gain de cause, l’annulation de la décision initiale devra intervenir sans retard. Enfin, les plateformes devront veiller à ne pas traiter ces demandes « uniquement » par des moyens automatisés. Dans tous les cas, l’utilisateur disposera de la capacité de réclamer en justice réparation du préjudice subi par une décision trop cavalière.
Article 18 - Règlement extrajudiciaire des litiges
Cet article rend possible le traitement des différends par un organisme externe, impartial et indépendant. L’organisme choisi sera certifié par le Coordinateur des services numériques de l'État membre compétent.
Lorsque cet organisme tranche en faveur de l’internaute, celui-ci sera remboursé de l’intégralité des sommes engagées et autres dépenses. À défaut, ces sommes resteront à sa charge. Cet organisme facturera des honoraires, qui devront être « raisonnables ». La liste de ces organismes sera publiée sur un site, édité par la Commission européenne.
Article 19 - Les « Signaleurs » de confiance
Des « signaleurs » de confiance verront leurs notifications traitées en priorité et sans délai. Ce n’est pas la plateforme qui labellisera tel ou tel compte, mais là encore par le Coordinateur des services numériques de l’État membre concerné.
Pour pouvoir prétendre à un tel statut à part, il faudra démontrer expertises et compétences dans la détection, l’identification et la notification des contenus illicites. Il faudra être indépendant des plateformes et représenter des intérêts collectifs. On pense évidemment aux associations reconnues d’utilité publique, par exemple.
La liste de ces tiers de confiance sera publiée sur une base de données, accessible au public, tenue à jour par la Commission européenne.
En cas d’abus, par exemple si cet acteur adresse une pluie de notifications considérées comme insuffisamment précises ou justifiées, Twitter et les autres pourront le signaler au Coordinateur qui pourra alors révoquer son statut.
Article 20 - Mesures et protection contre les abus
Là encore une grande nouveauté : le texte impose aux plateformes de suspendre pendant une période « raisonnable » et après avertissement, les comptes ayant diffusé des contenus « manifestement illicites ».
Les utilisateurs ayant adressé trop de notifications infondées se verront privés de ce levier pendant un certain temps, et là encore après avertissement.
Pour apprécier ces abus, les plateformes devront tenir compte des données quantitatives, mais aussi qualitatives (gravités des abus, conséquences) et même subjectives (intentionnalité malveillante ? Ignorance ?).
Ces critères devront être détaillés dans les CGU, tout comme les durées de suspension.
Article 21 - Notification des possibles infractions pénales
Cette fois, c’est une obligation d’alerte qui va peser sur la plateforme. Quand elle prendra connaissance d’une possible infraction grave, mettant en danger la vie ou la sécurité des personnes, l’intermédiaire devra alerter les autorités de l’État membre concerné, tout en lui fournissant toutes les informations jugées pertinentes.
Article 22 - Traçabilité des commerçants
Cet article concerne les plateformes en ligne qui permettent aux consommateurs de l’UE de conclure des contrats avec des commerçants tiers. La plateforme devra s’assurer de l’identité et des coordonnées de ces commerçants (nom, adresse, numéro de téléphone et adresse de courrier électronique, copie de son document d'identification pro, les coordonnées bancaires du professionnel s’il est une personne physique, etc.).
Elles devront déployer des efforts raisonnables pour évaluer ces informations, notamment par l’utilisation de bases de données officielles (comme les registres du commerce, la base des numéros de TVA ou via des demandes de copie de pièces justificatives). En cas de documents incomplets, la prestation en ligne sera suspendue.
Les données seront conservées pendant toute la durée de la relation contractuelle, et tenues à disposition des tiers compétents, selon les lois en vigueur dans chaque État membre. Elles seront aussi tenues à disposition des utilisateurs.
Enfin, les plateformes devront organiser leur interface en ligne de manière à permettre aux commerçants de respecter leurs obligations en matière d’information précontractuelle et sur la sécurité des produits.
Article 23 - Obligations de rapport de transparence pour les opérateurs de plateformes en ligne
En plus des obligations de transparence vues à l’article 13, les plateformes concernées devront ajouter dans le rapport différentes informations comme le nombre de suspensions imposées, le nombre de différends soumis à règlement extrajudiciaire, l’existence de moyens automatiques pour la modération des contenus.
Cette dernière information devra détailler les objectifs, les moyens utilisés pour les atteindre, des indicateurs d'exactitude, et les garanties appliquées.
Ces données seront transmises sur demande au coordinateur.
La Commission pourra établir des modèles pour aider les plateformes à rédiger ces rapports complémentaires.
Article 24 - Transparence de la publicité en ligne
Sur les plateformes, ces publicités devront être présentées comme telles (l’obligation existe déjà dans la LCEN de 2004). Les utilisateurs devront pouvoir identifier la personne physique ou morale au nom de laquelle l’annonce est diffusée ainsi que les principaux paramètres utilisés pour déterminer les destinataires de ces pubs. L’ombre de Cambridge Analytica n’est évidemment pas éloignée de cette disposition, lorsque par le biais de Facebook des acteurs avaient pu cibler telle catégorie de populations pour peser sur les élections présidentielles américaines.
Le Digital Services Act expliqué ligne par ligne (articles 1 à 24)
-
Chapitre 1 - Dispositions générales
-
Article 1 - L’objet et le champ du DSA
-
Article 2 - Définitions
-
Chapitre II - Responsabilité des fournisseurs de services d’intermédiation
-
Article 3 - Simple transport
-
Article 4 - Le « caching » ou cache
-
Article 5 - L’hébergement (ou « hosting »)
-
Article 6 - Enquêtes d'initiative volontaire et conformité légale
-
Article 7 - Pas de surveillance généralisée
-
Article 8 - Injonctions d’agir contre les contenus illicites
-
Article 9 - Injonction de fournir une information
-
Chapitre III - Obligations de diligence raisonnable pour un environnement en ligne transparent et sûr
-
Section 1 - Dispositions applicables à l’ensemble des services intermédiaires
-
Article 10 - Les points de contact
-
Article 11 - Le représentant légal
-
Article 12 - Les termes et conditions
-
Article 13 - Obligation de transparence
-
Section 2 - Dispositions additionnelles applicables aux hébergeurs, dont les plateformes
-
Article 14 - Les mécanismes de notification et d’action
-
Article 15 - L’exposé des motifs
-
Section 3 - Dispositions supplémentaires applicables aux plateformes en ligne
-
Article 16 - Exclusion des micros et petites entreprises
-
Article 17 - Système interne de traitement des plaintes
-
Article 18 - Règlement extrajudiciaire des litiges
-
Article 19 - Les « Signaleurs » de confiance
-
Article 20 - Mesures et protection contre les abus
-
Article 21 - Notification des possibles infractions pénales
-
Article 22 - Traçabilité des commerçants
-
Article 23 - Obligations de rapport de transparence pour les opérateurs de plateformes en ligne
-
Article 24 - Transparence de la publicité en ligne
Commentaires (20)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 04/01/2021 à 10h51
Je crois que Marc n’a pas très bien compris le sens du concept de « vacances »…
Le 04/01/2021 à 11h37
Merci pour cette explication de texte.
Le 04/01/2021 à 11h42
On peut dire que ça a demandé du doigté d’expliquer ce DSA ligne par ligne.
Le 04/01/2021 à 12h56
+1
Monumental boulot
Le 04/01/2021 à 13h27
Tout d’abord, merci beaucoup pour ces explications.
Ensuite : “l’impérieuse protection liberté d’expression”
serait plutôt : “l’impérieuse protection de la liberté d’expression”
non ?
Le 04/01/2021 à 14h38
Énorme, merci !
Le 04/01/2021 à 14h56
C’est corrigé, merci !
(Et très belle année à tous les lecteurs, fidèles ou de passage)
Le 04/01/2021 à 16h04
Le texte va-t-il être modifié par des amendements avant adoption ?
Le 04/01/2021 à 16h07
Oui, possiblement. On est au début de la procédure législative EU. Un peu comme en France. Faut y ajouter ensuite les éventuels recours devant la CJUE… Bref, le début d’une longue aventure !
Le 04/01/2021 à 18h23
J’aimerais bien que ces longs dossiers soient accessibles en epub (et prêt à lire, sans manipulation compliquée à faire de mon côté)
Le 05/01/2021 à 10h11
Puisque tu es abonné, tu peux y arriver en copiant-collant le texte de l’article dans LibreOffice Writer, puis générer ton EPUB via Fichier → Exporter vers → Exporter au format EPUB.
Et si tu y recours souvent, tu peux même ajouter un bouton pour ça dans la barre d’outils, via un clic droit sur cette dernière → Personnaliser la barre d’outils.
Le 04/01/2021 à 19h11
Bel article clair et lisible sur un sujet qui l’est souvent peu pour un non initié !
Merci !
Le 04/01/2021 à 22h46
Merci pour ces explications, c’est un énorme travail ! 👍🏻
Le 05/01/2021 à 10h12
Merci pour ce brillant travail et les mises en perspective du texte ! Vivement la suite :)
Le 05/01/2021 à 10h47
J’essayerai ce soir avec LO 7.0, au boulot je suis en 5.0 et je n’ai pas cette fonctionnalité.
Le fichier généré conservera-t-il les liens vers les 3 chapitres ?
Mon idée était que la fonctionnalité soit fournie directement sur le site, comme “Envoyer par e-mail” ou le bouton Reddit. Mais je sais ce qu’on va me répondre : je suis le seul à le demander, donc on n’a pas le temps pour ça :)
Le 05/01/2021 à 16h26
Toujours pertinent, toujours à la pointe de l’actualité : Merci Marc !
Le 05/01/2021 à 18h10
J’utilise aussi LibO 7.0.4. Ce que je peux te dire, c’est qu’une recopie du texte de cet article (en conservant la mise en forme) exportée en EPUB avec les options par défaut restitue tout, y compris images et liens, à part la bannière d’en-tête (j’ai copie du premier mot du titre au dernier mot de l’article, pour mon test). J’ai constaté ça avec l’extension « ePub reader pour Google Chrome », qui permet de visualiser un fichier EPUB dans le navigateur (bien que j’utilise Vivaldi, mais OSEF). Je suppose que, sur liseuse ou depuis un autre logiciel comme Calibre, ça doit donner le même résultat. Après, faut virer les mentions inutiles comme le bouton « Offrir », mais c’est à faire depuis Writer avant d’exporter, ça.
Le 06/01/2021 à 14h11
Le plus intéressant dans tout ça ça va être le lien entre les dispositions du DSA qui reprennent celles de la directive et le droit national : avec l’article 5 du DSA, exit l’article 6.I de la LCEN ? Quelles conséquences sur la jurisprudence et notamment le manifestement illicite ?
Le 07/01/2021 à 02h44
Très intéressant et très clair. Merci pour le travail !
Le 13/08/2024 à 13h37