Très grandes plateformes VLOP & VLOSE : la conformité au Digital Services Act (DSA) commence aujourd’hui
VLOP'n VLOSE
Le 25 août 2023 à 07h09
5 min
Droit
Droit
Les 19 « très grandes plateformes » et moteurs de recherche en ligne se doivent d'être « en conformité » avec le Règlement européen sur les services numériques (Digital Services Act, DSA), adopté fin 2022, à compter de ce vendredi 25 août 2023.
Les 19 très grandes plateformes en ligne (very large online platforms, ou VLOP) et moteurs de recherche (very large online search engines, ou VLOSE), visités par plus de 45 millions d'Européens chaque mois (soit 10 % de la population de l’UE), devront se conformer à compter de ce vendredi au Règlement sur les services numériques (Digital Services Act, DSA) adopté en 2022, rappellent Politico et Euractiv :
« Alors que le DSA s’appliquera pleinement à partir du printemps 2024, les VLOP et les VLOSE doivent, à partir de vendredi, fournir leurs analyses de risques à la Commission européenne et se conformer à des règles beaucoup plus strictes. »
Sont concernés Facebook, Instagram, TikTok, X (ex-Twitter), YouTube, Snapchat, LinkedIn et Pinterest pour ce qui est des réseaux sociaux. Mais également les places de marché en ligne Amazon, Booking, AliExpress, Zalando, Google Shopping, les boutiques d'applications de Google et d'Apple, Google Search et Bing, le moteur de recherche de Microsoft, ainsi que Wikipédia et Google Maps.
- Le Digital Services Act expliqué ligne par ligne (articles 1 à 24)
- Le Digital Services Act expliqué ligne par ligne (article 25 à 74)
- DSA : Zalando conteste sa qualification de « très grande plateforme »
Un rapport annuel détaillé consacré aux « risques systémiques »
Les entreprises devront retirer « rapidement » les contenus illicites lorsqu'ils seront notifiés par les autorités nationales ou des particuliers, évaluer et proposer des mesures concrètes pour lutter contre les risques majeurs que leurs plateformes font peser sur la société, notamment la propagation de la désinformation et la cyberintimidation, et faire preuve d'une plus grande transparence quant à leur fonctionnement.
Les VLOP devront proposer des conditions générales facilement compréhensibles et les appliquer « de manière diligente, objective et proportionnée », expliquer les paramètres qui sous-tendent les recommandations de contenu de leurs algorithmes, et proposer « au moins une option algorithmique » qui ne recommande pas de contenu basé sur les données personnelles de leurs utilisateurs.
Elles devront également remettre un rapport annuel détaillé consacré aux « risques systémiques » qu'elles représentent pour les Européens, déterminer si elles portent atteinte à des droits fondamentaux tels que la liberté d'expression, la santé publique et les élections, contribuent potentiellement à la diffusion de contenus illicites et de campagnes de désinformation, et si elles ont un impact négatif sur la santé mentale des citoyens.
La Commission a été « en contact régulier » avec les 19 services désignés
Les « interfaces truquées » (dark patterns) seront interdites, tout comme les publicités ciblées basées sur des données personnelles sensibles (religion, préférences sexuelles, informations de santé et opinions politiques), et la collecte de données personnelles des enfants et adolescents à des fins publicitaires.
Les grandes plateformes devront en outre payer une redevance pouvant aller jusqu'à 0,05 % de leur chiffre d'affaires global pour financer le travail d'application de la Commission européenne qui, de son côté, pourra leur infliger des amendes pouvant aller jusqu'à 6 % de leur chiffre d'affaires annuel mondial, et leur interdire temporairement d'exercer ses activités au sein de l'Union dans des cas exceptionnels de manquement grave.
- RGPD, DSA, DMA, Privacy Shield... les DPO sont largués
- [Interview] Les inquiétudes de Wikimédia face au Digital Services Act
Un porte-parole de la Commission européenne a déclaré à Euractiv que la Commission avait été « en contact régulier » avec les 19 services désignés et avait proposé de mener des tests de fiabilité « sur une base volontaire » afin de les aider à relever les défis de mise en conformité.
Le DSA s'appliquera à toutes les plateformes à compter du 17 février 2024
L’équipe du commissaire au marché intérieur Thierry Breton a ainsi effectué des « tests de fiabilité » avec X (ex-Twitter), TikTok, Snapchat, ainsi qu’avec les plateformes Facebook et Instagram de Meta, en juin et juillet derniers.
Dans les mois à venir, précise Euractiv, la Commission devrait par ailleurs adopter « une série d’actes délégués, des textes de droit dérivé » conçus pour faciliter la mise en œuvre d’une nouvelle législation européenne, afin de détailler davantage les obligations des plateformes, d’accroître leur sécurité juridique et de favoriser la mise en place des plans de mise en conformité.
- La Commission européenne a publié sa liste des grandes plateformes et moteurs de recherche
- DSA : la Commission européenne recherche des anciens des Big Tech pour l'aider à les réguler
Le règlement sur les services numériques s’appliquera en outre aux plateformes dont le nombre d’utilisateurs mensuels est inférieur au seuil de 45 millions à compter du 17 février 2024.
Très grandes plateformes VLOP & VLOSE : la conformité au Digital Services Act (DSA) commence aujourd’hui
-
Un rapport annuel détaillé consacré aux « risques systémiques »
-
La Commission a été « en contact régulier » avec les 19 services désignés
-
Le DSA s'appliquera à toutes les plateformes à compter du 17 février 2024
Commentaires (24)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 25/08/2023 à 07h59
Je suis preneur d’informations sur comment wikipedia fait face à ces obligations (de mémoire ils étaient assez le fait que ce texte s’impose à eux).
Le 25/08/2023 à 10h33
Le point qui sera le plus problématique pour wikipedia ce sera la suppression à la demande des contenus illicites.
J’ai tendance à être Euro convaincu, mais si ils touchent à wikipedia je change de bord …
(et 0.05% c’est quand même 130 000$)
Le 25/08/2023 à 10h53
J’ai du mal à comprendre : Wikipedia doit avoir des contenus illicites ?
Le 25/08/2023 à 11h02
Disons que c’est une porte ouverte aux abus, surtout que ça pourrai être notifié par des particuliers.
Ce que je pensais surtout, c’est que si Wikipedia devait fermer en Europe par ce qu’ils ne suivent pas une ordre je verrai ça d’un très mauvais oeil.
Wikipedia
Après … faudra juger de la raison de la censure (forcément si il y a abus de la part de Wikipedia …)
En sois, si wikipedia fait partie du cadre de cette loi, peut être qu’elle est mal faite.
Le 25/08/2023 à 11h53
Il n’y a aucune raison que WIkipédia soit au-dessus des lois de l’UE.
Aujourd’hui, le signalement des contenus illicites sur WIkipédia ne me semble pas conforme au droit français.
Il est temps que cela cesse !
Le 25/08/2023 à 08h55
Merci pour cette synthèse
Par contre, je ne me fais pas trop d’illusions sur l’interdiction des darks patterns… D’ailleurs comment est définie cette notion dans le DSA ? L’exemple d’Amazon qui tente de refourguer Prime à chaque commande serait concerné ou pas ?
Le 25/08/2023 à 10h03
Impressionnant l’article arrive à ne pas écrire une seule fois le mot «censure».
Quand on lit ceci pourtant : Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés par les autorités nationales ou des particuliers, évaluer et proposer des mesures concrètes pour lutter contre les risques majeurs que leurs plateformes font peser sur la société, notamment la propagation de la désinformation et la cyberintimidation, et faire preuve d’une plus grande transparence quant à leur fonctionnement.
Pas un seul exemple concret de ce que peuvent être les risques majeurs en question.
On bascule mollement dans le totalitarisme.
« Plus terrifiant que le bruit des bottes, le silence des pantoufles. »
Le 25/08/2023 à 10h18
Étonnant que Wikipedia soit concerné.
Par contre vu leur modèle économique, je suppose que leur redevance sera assez limitée en comparaison des GAFA (ça se dit encore ? 🤔)
Le 25/08/2023 à 10h26
illicite = qui ne respecte pas une règle de droit.
C’est pas le fait du prince ou d’une autorité morale quelconque.
Le 25/08/2023 à 10h37
Sauf que le droit est à interpréter par un juge, non par des délateurs et des IA.
Puis des lois «absurdes» existes ou ont existées.
Enfin la grande mode est de changer le sens des mots, hier pour attaquer la liberté il fallait invoquer le danger du terrorisme, maintenant la seule «désinformation» suffit…
Le 25/08/2023 à 11h11
Signaler des pratiques illicites c’est une démarche citoyenne.
T’as plein de moyens pour signaler des pratiques illicites aux autorités CNIL, DGCCRF…
Supprimer (ou ne pas supprimer) un contenu sur un site web ca a toujours été une décision arbitraire de l’administrateur du site web. Si tu ne veux pas être soumis à l’arbitraire, il faut créer ton propre site web.
Le DSA responsabilise la décision arbitraire du site web lorsqu’il a été notifié.
Bien sur, l’effet pervers serait que le site web préfère minimiser les risques/coûts en supprimant systématiquement un contenu signalé. Mais est-ce vraiment dans leur intérêt de proposer des contenus trop expurgés à leur audience ? Est-ce que ca ne serait pas favoriser les concurrents qui eux vont dépenser de l’argent dans une modération plus fine ?
Le 25/08/2023 à 11h26
Pour le signalement tout le nécessaire existe déjà : Pharos en France. ainsi que les diverses lois et gendarmes spécialisés.
Tu ne prends pas la mesure de l’atteinte aux libertés sous couvert de protéger les citoyens.
Favoriser la concurrence, c’est séduisant et évidemment que je vais voir ailleurs que ce que propose les GAFAM, cependant les gens restent généralement sur ce qu’ils connaissent.
Pour l’individu lambda, la compression audio c’est le MP3.
La cryptomonaie c’est le Bitcoin.
Le microblogage c’est Twitter, etc.
Pour les dissuader de faire jouer la concurence ont leur dira que les alternatives qui modèrent plus «finement» sont des repaires de terroristes ou autres accusation infamantes.
Le 25/08/2023 à 11h35
Pourquoi ?
En quoi le contenu illicite qui circulerait sur Wikipedia devrait avoir un traitement différent du contenu illicite circulant sur les médias sociaux et autres plateformes répondant à ces critères (45 millions d’utilisateurs actifs par mois) ?
Le 25/08/2023 à 12h25
Par ce que c’est sans but lucratif et que c’est destiné à l’éducation (au sens large). De plus il n’y a pas vraiment de démarche d’édition (sélection du contenu, mise en avant).
Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.
(au cas ou, désolé pour la redevance, j’ai lu 5% et pas 0.05%, donc c’est 130$)
Tu peux préciser en quoi ce n’est pas conforme ?
Chaque utilisateur a la possibilité de supprimer directement le contenu.
Il est possible de contacter wikipedia pour demander le retrait.
Il y a également la possibilité de contacter directement l’auteur, ce qui semble être prévu si j’ai bien compris les informations du lien que tu m’as envoyé.
Le 25/08/2023 à 13h20
Le fait que Wikipedia soit un organisme à but non lucratif ne l’exempt en rien de ses obligations. Ca serait un peu facile de monter une assoc et de diffuser des saloperies et de ne pas être inquiété au motif que ce soit non lucratif. (cf les associations démantelées par le Ministre de l’Intérieur dernièrement)
Je peux parfaitement concevoir que pour sa propre morale et l’affectif que suscite cette plateforme comparée aux autres cela surprenne. Mais il n’empêche que Wikipedia est un vecteur de désinformation parmi tant d’autres à cause du vandalisme de son contenu (je pense que cette phrase sera mal interprétée par les personnes aux capacités cognitives limitées). Même si sa communauté est réactive, et c’est tant mieux, cela reste un problème auquel elle doit faire face très, trop même, souvent.
Et si, Wikipedia a une ligne éditoriale puisque les contenus doivent répondre à des critères d’admissibilité. Et des contenus sont mis en avant sur la homepage : “Article labellisé du jour”, “Image labellisée du jour”, ainsi que des actualités. Il y a également une sélection d’articles et de thématiques. Ce sont des choix communautaires, mais in fine, c’est un choix éditorial. Un article random quotidien l’aurait été moins.
Après oui, ça reste un site éducatif et encyclopédique. Ce qui le responsabilise encore plus de mon point de vue puisqu’il a cette aura de confiance(comme je disais : beaucoup croient qu’il détient la Vérité absolue, ce qui est faux).
Ce n’est pas une question d’en profiter ou non. Le DSA responsabilise les grandes plateformes quant aux risques d’être des vecteurs de contenus illicites, y compris malgré elles. C’est ce que le règlement considère comme étant une “utilisation abusive” si je me rappelle bien (il est un peu imbuvable comparé au RGPD).
Le 25/08/2023 à 14h54
Juste pour préciser qu’il y a bien une différence entre la lutte contre les fausses informations et les contenus illicites.
J’estime que le fonctionnement de wikipedia est bon pour la lutte contre les fausses informations, et sur ce point je suis d’accord qu’il y ait une certaine régulation.
Ce qui m’ennuie c’est le retrait du contenu illicite. ça ouvre des possibilités d’abus et dans le lien que j’ai mis plus haut il y a des exemples (même en Europe).
Si je dois essayer de préciser mon point de vue, si à un moment wikipedia est verrouillé en Europe, comme ça se fait dans d’autres pays, par ce qu’il a été jugé qu’un contenu était illicite mais que wikipedia en s’en défend il y a un risque de bascule.
(j’essaierai bien sur de me faire mon avis en fonction du contenu, mais j’ai tendance à faire plus confiance au système wikipedia qu’aux institutions)
Je ne veux pas dire que wikipedia a le droit de mettre du contenu illicite en ligne, j’ai juste peur qu’un contenu soit jugé illicite “par ce qu’il ne convient pas” et que cette partie du DSA soit utilisée pour de la censure.
Le 25/08/2023 à 16h35
Concernant les abus de retrait, l’article 20 du DSA traite ce point et donne le moyen à la plateforme de bloquer les notifications dites abusives pour un “temps raisonnable”. Les plateformes devront détailler les conditions, quantifications et critères pour lesquelles elles estiment la notification abusive dans leurs CGU.
Ce sont des des données qu’elles devront ensuite publier annuellement.
Le texte du DSA est imbuvable, mais la synthèse de Marc Rees était plutôt claire :
Next INpact
Next INpact
Ces deux articles auraient dû être mentionnés, pour le coup ils me paraissent indispensables pour bien comprendre la portée du texte.
Le 25/08/2023 à 11h36
Ah, la liberté… Je me range dans la catégorie “libertarien” (avec des gros guillemets), mais la liberté ce n’est pas le laisser faire anarchique.
En société, ma liberté individuelle n’est garantie que si celle des autres est limitée. Et réciproquement. Bref, par effet miroir, on s’interdit tous de faire certaines choses afin que les autres ne les fassent pas non plus.
Je pense, p-e à tort, qu’on est collectivement prêt à s’interdire de poster de la haine et de l’intox, au motif qu’on préférerait que les autres s’en abstiennent également. Et que, par conséquent, signaler des posts de haine et d’intox afin qu’ils soient supprimés n’est pas une mauvaise chose.
Le 25/08/2023 à 11h52
Saut que tu oublis et je le signal en gras pour que tu ne le loupes pas :
Le problème est que la suite de mots laisse penser que c’est une bonne chose, alors que sans juge c’est une violation de l’état de droit.
Tu imagines bien que les grandes dictatures ne disaient pas ouvertement qu’elles étaient contre toute émancipation de l’homme mais pour le bénéfice d’une petite caste vue qu’elles s’appuyaient sur les masses…
Le 25/08/2023 à 12h30
Ah, c’est ça qui te pose problème.
Et bien les risques à prendre en compte lors de l’évaluation des risques sont décrits dans l’article 26 (Risk assessment):
Le 25/08/2023 à 12h57
Ce qui me pose problème c’est l’atteinte au droit sous le vernis de la justice et la paix.
Qu’est-ce qu’il est prévue de faire pour les signalements calomnieux ?
Apparemment rien. Comme ont peut s’en douter il va y avoir une grosse auto-censure.
De toute façon pratiquer la censure est toujours un aveux de faiblesse.
L’astuce dans le cas présent est de taire le mot pour pour essayer de positiver une atteinte au droit fondamental qu’est la liberté d’expression.
En France on est bien habitué : «tolérence zéro» au lieu de simplement dire intolérence.
Le 25/08/2023 à 15h51
Ce n’est pas conforme à cette partie de l’article 6 de la LCEN cité par la page que j’ai mise en lien :
Le gras est de moi.
Pour tomber sur le comment faire que j’ai lié dans mon commentaire précédent, j’ai dû chercher et deviner qu’il fallait chercher à partir du lien Contact en bas de page puis cliquer sur “Lecteurs, lectrices”. C’est loin d’être “facilement accessible et visible”.
Le 27/08/2023 à 08h24
A quand les cachets comme dans Equilibrium. Au moins on se ressemblera tous et chacun aura sa fonction dans la société sans broncher
Le 27/08/2023 à 11h35
Qui surveillera les signaleurs de confiance ?