Connexion
Abonnez-vous

Le Digital Services Act expliqué ligne par ligne (article 25 à 74)

#clémentines (suite)

Le Digital Services Act expliqué ligne par ligne (article 25 à 74)

Notre dossier sur le DSA :

Le 06 janvier 2021 à 13h00

Comme pour le RGPD, Next INpact vous propose une présentation ligne par ligne du fameux DSA. 74 articles précédés de 106 considérants introductifs. En coulisse, se dévoile le futur de la régulation des intermédiaires en ligne, plateformes et hébergeurs compris. Voilà désormais la seconde partie.

Après la première partie de notre explication du DSA, attaquons maintenant la suite des festivités avec tout d'abord les obligations pesant sur les TGP ou très grandes plateformes.

Celles-ci, de part leur rôle systémique, se voient soumises à des règles complémentaires et spécifiques. 

Section 4 - Obligations additionnelles pour les très grandes plateformes pour gérer les risques systémiques

En plus des obligations précédemment présentées, les TGP ou très grandes plateformes, se voient soumises à un régime plus « dur », au regard de leurs effets systémiques.

Article 25 - Les très grandes plateformes en ligne

Les TGP sont celles qui comptent plus de 45 millions d’utilisateurs actifs chaque mois, soit 10 % de la population de l’Union européenne.

Ce chiffre est dynamique : il évoluera donc avec la population européenne. Tous les six mois, le coordinateur des services numériques vérifiera le franchissement de ces seuils par les intermédiaires placés sous sa juridiction.

La liste sera publiée au Journal officiel de l’Union européenne.

Article 26 -Évaluation des risques

Les TGP devront analyser une fois par an tous les risques systémiques découlant de l’utilisateur de leurs services dans l’Union. Elles devront déterminer en quoi leur système de sélection des publicités, leur système de modération et de recommandation influent sur ces risques, notamment la diffusion large et rapide des contenus illégaux ou contraires à leurs CGU.

Trois grandes catégories de risques systémiques sont mises à l’index :

  • la diffusion de contenus illicites
  • les effets négatifs sur la vie privée et familiale, la liberté d’expression et d’information, l’interdiction de la discrimination et les droits de l’enfant
  • les manipulations intentionnelles de leurs services, avec des effets négatifs ou prévisibles sur la protection de la santé, les mineurs, les discours civiques, les processus électoraux et la sécurité publique.

Article 27 - Atténuation des risques

Les plateformes n’ont pas seulement à jauger ces risques systématiques, elles doivent aussi prévoir des mesures pour les atténuer. La proposition de règlement donne plusieurs pistes : adaptation des systèmes de modération, limitation des publicités ciblées, renforcement de la supervision des processus internes, coopérer avec des signaleurs de confiance, mettre en place des codes de conduite corédigés avec d’autres plateformes…

Le Comité (voir article 70) aura l’obligation de publier une fois par an un rapport dressant la liste des problèmes systémiques les plus importants ou récurrents, et la Commission européenne pourra de son côté publier des lignes directrices, afin de recommander telle ou telle pratique.

Article 28 - Audits indépendants

Hors de question de laisser les plateformes s’autoévaluer pour le respect de ces dispositions. Il n’est jamais bon d’être juge et partie. Aussi l’article 28 impose la réalisation d’audits extérieurs, à leur frais, menés une fois par an. Y seront jaugés aussi les engagements pris par chacune des plateformes.

Lorsque les audits seront négatifs, ils devront être enrichis de recommandations pour corriger le tir. Les plateformes pourront ne pas les respecter, mais devront alors s’en justifier et surtout trouver des mesures alternatives.

Article 29 - Les systèmes de recommandation

Si le texte présenté par la Commission reste en l’état, les plateformes devront aussi éclairer les utilisateurs sur leurs systèmes de recommandations. Ces systèmes sont taillés pour faire figurer en tête de résultat ou sur les pages d’accueil tel contenu. Une manière d’inciter l’internaute à rester dans cette bulle.

Elles devront d’une part présenter dans leurs CGU les principaux paramètres utilisés, mais aussi les leviers à disposition des utilisateurs pour les modifier. Point intéressant, parmi ces variables, l’une au moins devra leur permettre d’opter pour un système basé sur autre chose que le profilage.

Article 30 - Mesure de transparence supplémentaire pour la publicité en ligne

Les plateformes vont être tenues de lever le voile sur les annonceurs qui occupent leurs espaces « publicités ».

Dans une base de données, elles devront par exemple révéler non seulement le contenu de chaque publicité, mais également le nom de la personne au nom de laquelle elle a été diffusée. Autre détail, on saura si l'annonce fut destinée à un ou plusieurs groupes particuliers d’utilisateurs et, le cas échéant, les principaux paramètres utilisés. Des données statistiques complèteront ces données.

Article 31 - Accès aux données et contrôle

L’audit programmé par la proposition de DSA ne sera pas suffisant. Les autorités européennes pourront aussi exiger communication des données permettant d’évaluer le respect du règlement.

Ces données pourront également être accessibles aux chercheurs, du moins ceux agréés.

Ces demandes d’accès pourront être refusées lorsque la plateforme elle-même n’a pas accès à ces informations ou parce qu’elles entraînent nécessairement des vulnérabilités importantes pour la sécurité du service ou des atteintes à la protection d’informations confidentielles (dont les secrets industriels et commerciaux). Cependant, un refus même solidement motivé ne sera pas suffisant. La plateforme devra proposer des voies alternatives permettant d’atteindre le même but.

Article 32 - Délégué à la conformité

Un peu à l’instar des délégués à la protection des données personnelles chers au RGPD, les grandes plateformes devront désigner un délégué à la conformité. Doté d’une qualification professionnelle (expérience, connaissance, capacité), il sera en charge de contrôler le respect du règlement. Il sera soit un membre du personnel soit une personne exterieure.

Ses missions seront multiples : courroie de transmission avec le coordinateur des services numériques et de la Commission, superviseur de l’audit prévu à l’article 28, il aura aussi à informer la direction et les employés, outre à assurer le contrôle du respect des obligations.

Il devra être doté d’une indépendance et de ressources suffisantes pour accomplir ses tâches.

Article 33 - Obligation de « reporting »

Cet article synthétise les obligations de reporting : obligation de publier les rapports de transparence (article 13), mise à disposition du public du rapport exposant l’évaluation des risques (article 26) et les mesures d’atténuation (article 27), rapport d’audit (article 28) et celui retraçant l’exécution de cet audit (article 28).

Des données pourront être « caviardées » si leur diffusion au public entraîne des risques (vulnérabilité ou atteinte aux secrets). Par contre, le Coordinateur des services numériques et la Commission seront destinataires des documents complets. Les plateformes devront d’ailleurs leur dire pourquoi elles ont préféré supprimer telles informations des rapports publics.

Section 5 - Autres obligations de diligence raisonnables

Article 34 - Les normes

La Commission se voit charger de promouvoir des normes volontaires dans plusieurs chapitres concernés par le DSA, par exemple s’agissant de la soumission des avis par les signaleurs de confiance, les audits, etc.

Article 35 - Les codes de conduites

Toujours dans le droit dit « souple », les instances européennes pourront encourager l’adoption de codes de conduites à l’échelle de l’Union pour contribuer à la bonne application du règlement. Ces dispositions seront accompagnées d’indices de performance pour en jauger l’efficacité.

Article 36 - Les codes de conduites visant la publicité en ligne

Même logique, s’agissant des relations entre annonceurs et plateformes en ligne.

Article 37 - Les protocoles de crise

Il s’agit cette fois d’établir des réponses aux situations de crises affectant la sécurité publique ou la santé publique.

Des protocoles, qui seront précédés de tests, permettront d’afficher des informations « de premier plan » sur les situations de crise signalées par les autorités des États membres ou au niveau de l'Union.

La définition de ces protocoles passera d’abord par la définition des paramètres permettant de déterminer ces circonstances extraordinaires, le rôle attendu par chacun des intervenants, les procédures, mais aussi les garanties pour préserver les libertés fondamentales comme la liberté d’information. Une sorte d’état d’urgence, version plateformes, destinées à afficher des messages d’alerte par exemple.

Quels sont ces situations de crises ? Pas de liste définie, mais les considérants introductifs citent les tremblements de terre, les ouragans, les pandémies, les situations de guerre ou évidemment l’inévitable terrorisme.

L’idée est d’assurer une réponse immédiate à la diffusion massive de contenus illicites ou de désinformation, au profit d’une information sûre et vérifiée. Même sur ce socle, les plateformes ne seront toutefois jamais contraintes à une obligation de surveillance généralisée ni de rechercher activement les contenus illicites.

Chapitre IV - Mise en œuvre, coopération, sanctions et application

Section 1 - Les autorités compétentes et les coordinateurs nationaux des services numériques

Article 38 - les autorités compétentes et les Coordinateurs des services numériques

Les États membres doivent désigner les autorités compétentes chargées de l’application du règlement. Au surplus, dans chaque pays, une autorité (comme le CSA en France, par exemple) aura le statut de Coordinateur des services, lequel chapeautera la bonne application et l’exécution du DSA dans le pays.

L’enjeu est d’assurer par son truchement, une gestion uniforme du règlement dans toute l’Union. Ce Coordinateur aura ainsi la mission de communiquer avec les autres Coordinateurs. Ils seront désignés dans les deux mois de l’entrée en vigueur du règlement.

Article 39 - Exigences pour les Coordinateurs des services numériques

Dispositions « classiques ». Ces CSN devront pouvoir agir de manière impartiale et transparence. Ils disposeront de ressources suffisantes pour mener à bien leur mission. Ils seront indépendants, et ne recevront donc d’instructions d’aucune autre autorité ou personne privée.

Justice
Crédits : liveostockimages/iStock/Thinkstock

Article 40 - Juridictions

L’État membre où le fournisseur a son principal établissement sera compétent pour les chapitres III et IV du règlement (« Mise en œuvre, coopération, sanctions et application », « Obligations de diligence raisonnable pour un environnement en ligne transparent et sûr »).

Pour les fournisseurs ne disposant d’aucun établissement en Europe, l’État compétent sera celui où ils auront désigné leur représentant.

Et pour les fournisseurs ayant omis cette étape, ce sont alors tous les États membres qui seront compétents, sachant que ceux-ci devront respecter le principe « non bis in idem » (impossibilité de poursuivre plusieurs fois une personne pour les mêmes faits).

Article 41 - Les pouvoirs des coordinateurs des services numériques

C’est l’une des dispositions les plus longues du DSA. Elle concerne les pouvoirs des CSN dans chaque État membre. Ils ont d’abord un pouvoir d’enquête, et donc de communication d’information auprès des fournisseurs des services numériques, mais aussi des cocontractants.

Ils pourront procéder à des inspections sur places pour examiner ou réaliser des copies d’informations relatives à une infraction présumée. Ils pourront, dans la même idée, interroger les membres du personnel des fournisseurs.

Ce n’est pas tout, les CSN auront la possibilité de recevoir les engagements de conformité des fournisseurs de services numériques et même rendre ces engagements contraignants. Ils pourront infliger les amendes et autres astreintes prévues à l’article 42 voire adopter des mesures provisoires pour éviter un préjudice grave.

Lorsque malgré tout, une infraction persiste, et cause un préjudice grave, ils seront en capacité de :

  • exiger la mise en œuvre d’un plan d’action par la plateforme
  • et si le problème persiste, saisir la justice aux fins d’ordonner une restriction temporaire de l’accès au service en ligne défaillant, ou à son interface en ligne où a lieu l’infraction.

Hors cas de l’hypothèse prévue à l’article 65 du DSA (restriction d’accès), ces procédures doivent respecter le principe de contradictoire et les mesures décidées devront toujours être proportionnées à la nature, la gravité, la récurrence et la durée de l'infraction, sans restriction indue aux informations licites des utilisateurs. Les restrictions seront limitées à quatre semaines, mais la justice pourra autoriser le coordinateur à les proroger pour une durée déterminée.

Article 42 - Les sanctions

Ces sanctions seront déterminées dans chaque État membre, mais dans la limite de 6 % du revenu ou chiffre d’affaires annuel du prestataire défaillant. Ce seuil est celui de « droit commun », sachant qu’un autre, de 1 % de ces mêmes valeurs, est prévu en cas de communication d’informations incorrectes, trompeuses, incomplètes, ou d’absence de réponse, ou encore lorsque le fournisseur refuse de se soumettre à une enquête sur place.

L’astreinte sera quant à elle limitée à 5 % du C.A. quotidien moyen.

Article 43 - Droit de porter plainte

Les utilisateurs des services pourront eux-mêmes déposer plainte contre un fournisseur, en cas d’infraction alléguée au DSA. La plainte sera adressée au Coordinateur du lieu de résidence, qui la transmettra au besoin au Coordinateur compétent d’un autre État membre, là où la plateforme a son établissement.

Article 44 - Rapport d’activités

Chaque coordinateur établira un rapport d’activités annuel, qui retracera notamment le nombre d’injonctions visant les contenus illicites ou pour obtenir des informations, et l’effectivité de ces mesures.

Article 45 - La coopération transfrontalière entre Coordinateurs

Le Coordinateur d’un État membre 1 pourra demander à son homologue d’un État membre 2, où un fournisseur a son principal établissement, de mener une enquête sur une problématique déterminée, en expliquant les faits, les dispositions en cause, etc.

De même, lorsque le Conseil européen des services numériques (« European Board for Digital Services ») a des raisons de soupçonner qu’un fournisseur a enfreint le règlement en impliquant au moins trois États membres, il peut recommander le lancement d’une enquête similaire auprès du Coordinateur compétent.

Le Coordonnateur des services numériques désigné devra tenir « le plus grand compte » de ces demandes ou recommandations. En cas de difficulté (réponse insuffisante, trop tardive, absente, etc.), la Commission pourra être saisie. Elle pourra demander à ce qu’au final, l’enquête soit menée plus en détail à l’encontre du fournisseur.

Article 46 - Enquêtes conjointes et demandes d’intervention de la Commission européenne

Des enquêtes conjointes menées par plusieurs Coordinateurs peuvent être coordonnées avec le soutien du Board. L’hypothèse concerne évidemment les prestataires opérant dans plusieurs États membres. Lorsqu’un Coordonnateur des services numériques soupçonne une très grande plateforme en ligne d’enfreindre le règlement, il peut réclamer de la Commission la mise en œuvre de mesures d’enquêtes.

Section 2 - Le Conseil européen des services numériques (le Board)

Article 47 - Le Conseil européen des services numériques

Cet article institue le Board. Il est un groupe consultatif indépendant de Coordinateurs. Il les conseille, les coordonne, et les assiste dans la supervision des très grandes plateformes en ligne.

Article 48 - Structure du Board

Il est composé des représentants des coordinateurs de services des États membres. On peut y trouver aussi des représentants d’autorités nationales à qui des compétences opérationnelles ont été confiées par les législations nationales. Chaque État membre dispose d’une voix. Les votes se font à la majorité simple. La présidence est assurée par la Commission. Des experts et des observateurs peuvent être conviés aux travaux.

Article 49 - Mission du Board

Très logiquement on retrouve ici la coordination des enquêtes conjointes, l’assistance aux autorités compétentes pour l’analyse des audits des très grandes plateformes. Dans son rôle consultatif, il peut émettre des avis, des recommandations, et peut conseiller la Commission. Les Coordinateurs de pays qui ne suivraient pas ces lignes devront expliquer leur choix.

Section 3 - Contrôle, enquête et surveillance des très grandes plateformes

Article 50 - Contrôle renforcé pour les très grandes plateformes

Quand un Coordinateur conclut qu’une très grande plateforme a enfreint l’une des dispositions inscrites au Chapitre 4 du DSA, un système de contrôle renforcé est lancé.

Ce mécanisme fait intervenir la Commission et le Board, qui peuvent recommander au Coordinateur d’enquêter plus en avant sur une infraction présumée.

Il peut ensuite être demandé à la plateforme de mettre en œuvre un plan d’action, pouvant comprendre l’adoption d’un code de conduite.

Un mois plus tard, le Board communique son avis sur ce plan. Un autre mois plus tard, le Coordinateur de l’établissement décidera s’il est approprié pour mettre fin à l’infraction. Il peut toujours demander qu’un audit supplémentaire soit mené pour vérifier si la plateforme est en capacité de répondre à ce plan d’action.

Article 51 - Intervention de la Commission et ouverture des poursuites

De sa seule initiative ou sur recommandation du Board, la Commission pourra engager une plainte s’agissant des très grandes plateformes soupçonnées d’avoir violé la section 4 du présent chapitre, ou bien d’avoir enfreint le règlement quand le Coordinateur n’a pris de son côté aucune mesure.

Autre hypothèse : quand un Coordinateur a demandé à la Commission d’intervenir.

Une fois la procédure engagée, l’article 51 prévoit divers échanges d’informations avec les forces en présence.

Article 52 - Demandes d’informations

La Commission dispose d’un droit d’information auprès des très grandes plateformes et toutes les autres personnes en relation d’affaires avec elles ou les prestataires d’audits. Lors de ces demandes, elle fournit le délai de réponse imparti, les bases juridiques, le but et les sanctions éventuelles, ainsi que la possibilité de saisir la Cour de justice de l’Union européenne. Les autorités nationales, mais également les Coordinateurs de chaque État membre peuvent être invités à nourrir ce flot d’informations vers Bruxelles.

Article 53 - Auditions et déclarations

La Commission peut également entendre toute personne pour recueillir d’autres informations, sur une base volontaire. La personne entendue peut donc refuser d’être auditionnée.

Article 54 – Pouvoir d’effectuer des contrôles sur place

La Commission peut se rendre dans les locaux des très grandes plateformes pour mener à bien des contrôles, au besoin assisté d’auditeurs ou d’experts. La plateforme devra au besoin fournir des explications sur son organisation, son fonctionnement, son système informatique, ses algorithmes ou encore les traitements des données.

Les plateformes seront tenues de se soumettre à une telle inspection. L'objet, le but et la date de la visite, outre le risque de sanction leur seront transmises. Chaque décision pourra elle-même être attaquée devant la CJUE.

Article 55 - Mesures provisoires

En cas d'urgence due à un risque de préjudice grave pour les utilisateurs du service, la Commission pourra ordonner des mesures provisoires contre une très grande plateforme en ligne. La procédure exige cependant la constatation « prima facie » d'une infraction. Les mesures sont temporaires, jusqu’à la décision finale.

Article 56 - Engagements

Une fois la procédure engagée, le sort n’est pas vissé. Une plateforme pourra toujours prendre une série d’engagements, que la Commission rendra contraignants si elle le veut, avant de décider la clôture de l’action. Néanmoins, la procédure sera rouverte lorsque de nouveaux faits apparaissent ou que la plateforme ne respecte pas ses engagements ou que des informations incomplètes, incorrectes ou trompeuses ont été fournies.

Article 57 - Mesures de surveillance

La Commission peut prendre les mesures nécessaires pour contrôler la mise en œuvre et le respect du DSA par la très grande plateforme en ligne concernée. Elle peut lui ordonner un accès et des explications sur ses bases de données et ses algorithmes. Des experts peuvent être désignés pour l’accompagner dans sa phase d’analyse.

Article 58 - Non-conformité

La Commission prend une décision de non-conformité lorsque la très grande plateforme ne respecte pas le règlement, viole les mesures provisoires ou ne suit pas les engagements rendus contradictoires. Là aussi, tout n’est pas encore joué, puisque de nouvelles mesures pour assurer la conformité au règlement peuvent être ordonnées. Si la TGP continue à les ignorer ou mal les appliquer, alors l’enquête est close et on glisse sur la phase sanction.

Article 59 - Sanctions

L’amende décidée par la Commission peut atteindre les 6 % du chiffre d’affaires mondial. Ce plafond est ramené à 1 % s’agissant de certaines infractions (fourniture d’informations tardives, incorrectes, incomplètes ou trompeuses, refus de se soumettre à un contrôle sur place, etc.)

Article 60 - Astreintes

Des astreintes pouvant atteindre 5 % du C.A. journalier peuvent être décidées contre les très grandes plateformes afin de les contraindre à fournir des informations complètes ou pour les soumettre à un contrôle sur place ou à respecter leurs engagements.

Article 61 - Délais de prescription pour l’imposition des sanctions

Les sanctions et astreintes sont soumises à un délai de prescription de cinq ans à compter du jour de l’infraction, ou quand elle prend fin, s’agissant des infractions continues ou répétées.
Classiquement là encore, des actes de procédures initiés par la Commission ou les Coordinateurs interrompent ces délais (contrôle sur place, demandes d’informations…). Les délais sont par contre suspendus en cas d’action devant la CJUE.

Article 62 - Délai de prescription pour l'exécution des sanctions

Là encore, ce délai est de cinq ans. Le délai est interrompu par la notification d'une décision modifiant le montant initial de l'amende ou des pénalités. Il est suspendu en cas d’action devant la CJUE.

Article 63 - Droit d’être entendu et d’accéder au dossier

Avant la décision de sanctions ou de pénalités, la très grande plateforme a le droit d’être entendue sur les mesures envisagées. Elle peut soumettre ses observations. Les parties ont droit d’accès au dossier, en vertu d’une divulgation négociée, sous réserve du secret des affaires. Les informations confidentielles et autres documents internes (comme les correspondances Commission-États membres) sont exclus du périmètre de ce droit d’accès. « Rien dans ce paragraphe n’empêche la Commission de divulguer et d'utiliser des informations nécessaires pour prouver une infraction » prévient l’article 63.

Article 64 - Publication des décisions

Cette publication doit préciser les noms des parties et le contenu principal de la décision, y compris le volet sanctions. Tout ne peut y être dit cependant : elle doit cependant tenir compte des droits et des intérêts légitimes de la très grande plateforme en ligne épinglée, dans la protection de ses informations confidentielles.

Article 65 - Demandes de restrictions d'accès et coopération avec les juridictions nationales

Si malgré tout l’infraction persiste, la bombe nucléaire de la restriction d’accès peut aussi être actionnée à l’initiative de la Commission. Cette procédure passe par une demande adressée au Coordinateur compétent d’engager cette procédure devant une juridiction nationale, conformément à l’article 41 du DSA.

Avant cela, la Commission doit inviter les parties à présenter leurs observations, principe du contradictoire oblige. La même Commission pourra, si elle le souhaite, adresser directement ses propres observations au juge.

Article 66 - Les actes d'exécution relatifs à l'intervention de la Commission

La Commission européenne se voit habilitée à prendre des décisions sous forme d’actes non législatifs, à savoir des « actes d’exécution », destinés à assurer une application uniforme des textes.  

Il s’agira en l’occurrence de régler dans le détail des points techniques du DSA, comme le régime des auditions (article 63), la divulgation négociée d’information (même article) ou les contrôles sur place (article 54).

L’article 66 règle leur procédure d’adoption, qui passe en particulier par une série d’auditions des parties intéressées.

Section 4 - Dispositions communes d’exécution

Article 67 - Système d’échange d’information

La Commission est chargée du système d’information entre Coordinateurs des services numériques. Un système qui se devra d'être « fiable et sécurisé ».

Article 68 - Représentation

Possibilité pour les services intermédiaires de mandater un organisme pour se faire représenter dans l’exercice des droits prévus aux articles 17 (recours internes), 18 (règlement extrajudiciaire des litiges) et 19 (« signaleurs » de confiance), à condition que cet organisme fonctionne sur une base non lucrative et que ses objectifs statutaires visent à garantir le respect du règlement.

Section 5 - Actes délégués

Article 69 - Exercice de la délégation

Les actes délégués permettront à la Commission de compléter ou modifier « des éléments non essentiels des actes législatifs de l’UE, par exemple pour définir des mesures détaillées ».

La Commission pourra ainsi agir sur le fondement des articles 23, 25 et 31, soit respectivement la définition des modèles de rapport de transparence, les seuils au-delà duquel une plateforme devient très grande plateforme, et enfin le partage de données entre ces acteurs.

Article 70 - Le Comité

La Commission est assistée dans ses missions par le Comité des Services Numériques, qui opèrera en application d’un règlement de 2011, celui « établissant les règles et principes généraux relatifs aux modalités de contrôle par les États membres de l’exercice des compétences d’exécution par la Commission ». 

Chapitre V - Dispositions finales

Article 71 - Suppression de certaines dispositions de la directive e-Commerce de 2000

Le texte supprime les articles 12 à 15 qui orchestrent le régime de droit commun de la responsabilité des intermédiaires techniques. Les références à ces dispositions seront remplacées par celles visant les articles 3, 4, 5 et 7 du DSA.

Article 72 - Amendements à la directive sur la protection des intérêts collectifs des consommateurs

Des dispositions concernant cette directive sont présentées dans les annexes. 

Article 73 -Évaluation

Au plus tard dans les cinq années suivant l’entrée en vigueur du règlement, puis tous les cinq ans, la Commission devra évaluer le DSA dans un rapport.

Article 74 - Entrée en vigueur, entrée en application

Le règlement entre en vigueur le vingtième jour suivant sa publication au Journal officiel de l’Union européenne. Il entre en application trois mois après son entrée en vigueur.

Il sera obligatoire et directement applicable dans tous les États membres.

Commentaires (3)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Merci pour ce gros travail.

votre avatar

J’ai l’impression qu’l y a du bon et du moins bon, mais j’ai surtout l’impression que ça va être une énooorme usine à gaz tout ça. Ou alors c’est parce que j’ai du mal avec les textes de loi, même bien retranscrits :)
Beau boulot en tout cas

votre avatar

super utile merci

Le Digital Services Act expliqué ligne par ligne (article 25 à 74)

  • Section 4 - Obligations additionnelles pour les très grandes plateformes pour gérer les risques systémiques

  • Article 25 - Les très grandes plateformes en ligne

  • Article 26 -Évaluation des risques

  • Article 27 - Atténuation des risques

  • Article 28 - Audits indépendants

  • Article 29 - Les systèmes de recommandation

  • Article 30 - Mesure de transparence supplémentaire pour la publicité en ligne

  • Article 31 - Accès aux données et contrôle

  • Article 32 - Délégué à la conformité

  • Article 33 - Obligation de « reporting »

  • Section 5 - Autres obligations de diligence raisonnables

  • Article 34 - Les normes

  • Article 35 - Les codes de conduites

  • Article 36 - Les codes de conduites visant la publicité en ligne

  • Article 37 - Les protocoles de crise

  • Chapitre IV - Mise en œuvre, coopération, sanctions et application

  • Section 1 - Les autorités compétentes et les coordinateurs nationaux des services numériques

  • Article 38 - les autorités compétentes et les Coordinateurs des services numériques

  • Article 39 - Exigences pour les Coordinateurs des services numériques

  • Article 40 - Juridictions

  • Article 41 - Les pouvoirs des coordinateurs des services numériques

  • Article 42 - Les sanctions

  • Article 43 - Droit de porter plainte

  • Article 44 - Rapport d’activités

  • Article 45 - La coopération transfrontalière entre Coordinateurs

  • Article 46 - Enquêtes conjointes et demandes d’intervention de la Commission européenne

  • Section 2 - Le Conseil européen des services numériques (le Board)

  • Article 47 - Le Conseil européen des services numériques

  • Article 48 - Structure du Board

  • Article 49 - Mission du Board

  • Section 3 - Contrôle, enquête et surveillance des très grandes plateformes

  • Article 50 - Contrôle renforcé pour les très grandes plateformes

  • Article 51 - Intervention de la Commission et ouverture des poursuites

  • Article 52 - Demandes d’informations

  • Article 53 - Auditions et déclarations

  • Article 54 – Pouvoir d’effectuer des contrôles sur place

  • Article 55 - Mesures provisoires

  • Article 56 - Engagements

  • Article 57 - Mesures de surveillance

  • Article 58 - Non-conformité

  • Article 59 - Sanctions

  • Article 60 - Astreintes

  • Article 61 - Délais de prescription pour l’imposition des sanctions

  • Article 62 - Délai de prescription pour l'exécution des sanctions

  • Article 63 - Droit d’être entendu et d’accéder au dossier

  • Article 64 - Publication des décisions

  • Article 65 - Demandes de restrictions d'accès et coopération avec les juridictions nationales

  • Article 66 - Les actes d'exécution relatifs à l'intervention de la Commission

  • Section 4 - Dispositions communes d’exécution

  • Article 67 - Système d’échange d’information

  • Article 68 - Représentation

  • Section 5 - Actes délégués

  • Article 69 - Exercice de la délégation

  • Article 70 - Le Comité

  • Chapitre V - Dispositions finales

  • Article 71 - Suppression de certaines dispositions de la directive e-Commerce de 2000

  • Article 72 - Amendements à la directive sur la protection des intérêts collectifs des consommateurs

  • Article 73 -Évaluation

  • Article 74 - Entrée en vigueur, entrée en application

Fermer