Très grandes plateformes VLOP & VLOSE : la conformité au Digital Services Act (DSA) commence aujourd'hui

Très grandes plateformes VLOP & VLOSE : la conformité au Digital Services Act (DSA) commence aujourd’hui

VLOP'n VLOSE

24

Très grandes plateformes VLOP & VLOSE : la conformité au Digital Services Act (DSA) commence aujourd'hui

Les 19 « très grandes plateformes » et moteurs de recherche en ligne se doivent d'être « en conformité » avec le Règlement européen sur les services numériques (Digital Services Act, DSA), adopté fin 2022, à compter de ce vendredi 25 août 2023.

Les 19 très grandes plateformes en ligne (very large online platforms, ou VLOP) et moteurs de recherche (very large online search engines, ou VLOSE), visités par plus de 45 millions d'Européens chaque mois (soit 10 % de la population de l’UE), devront se conformer à compter de ce vendredi au Règlement sur les services numériques (Digital Services Act, DSA) adopté en 2022, rappellent Politico et Euractiv :  

« Alors que le DSA s’appliquera pleinement à partir du printemps 2024, les VLOP et les VLOSE doivent, à partir de vendredi, fournir leurs analyses de risques à la Commission européenne et se conformer à des règles beaucoup plus strictes. »

Sont concernés Facebook, Instagram, TikTok, X (ex-Twitter), YouTube, Snapchat, LinkedIn et Pinterest pour ce qui est des réseaux sociaux. Mais également les places de marché en ligne Amazon, Booking, AliExpress, Zalando, Google Shopping, les boutiques d'applications de Google et d'Apple, Google Search et Bing, le moteur de recherche de Microsoft, ainsi que Wikipédia et Google Maps.

Un rapport annuel détaillé consacré aux « risques systémiques »

Les entreprises devront retirer « rapidement » les contenus illicites lorsqu'ils seront notifiés par les autorités nationales ou des particuliers, évaluer et proposer des mesures concrètes pour lutter contre les risques majeurs que leurs plateformes font peser sur la société, notamment la propagation de la désinformation et la cyberintimidation, et faire preuve d'une plus grande transparence quant à leur fonctionnement.

Les VLOP devront proposer des conditions générales facilement compréhensibles et les appliquer « de manière diligente, objective et proportionnée », expliquer les paramètres qui sous-tendent les recommandations de contenu de leurs algorithmes, et proposer « au moins une option algorithmique » qui ne recommande pas de contenu basé sur les données personnelles de leurs utilisateurs.

Elles devront également remettre un rapport annuel détaillé consacré aux « risques systémiques » qu'elles représentent pour les Européens, déterminer si elles portent atteinte à des droits fondamentaux tels que la liberté d'expression, la santé publique et les élections, contribuent potentiellement à la diffusion de contenus illicites et de campagnes de désinformation, et si elles ont un impact négatif sur la santé mentale des citoyens.  

La Commission a été « en contact régulier » avec les 19 services désignés

Les « interfaces truquées » (dark patterns) seront interdites, tout comme les publicités ciblées basées sur des données personnelles sensibles (religion, préférences sexuelles, informations de santé et opinions politiques), et la collecte de données personnelles des enfants et adolescents à des fins publicitaires.

Les grandes plateformes devront en outre payer une redevance pouvant aller jusqu'à 0,05 % de leur chiffre d'affaires global pour financer le travail d'application de la Commission européenne qui, de son côté, pourra leur infliger des amendes pouvant aller jusqu'à 6 % de leur chiffre d'affaires annuel mondial, et leur interdire temporairement d'exercer ses activités au sein de l'Union dans des cas exceptionnels de manquement grave.

Un porte-parole de la Commission européenne a déclaré à Euractiv que la Commission avait été « en contact régulier » avec les 19 services désignés et avait proposé de mener des tests de fiabilité « sur une base volontaire » afin de les aider à relever les défis de mise en conformité.

Le DSA s'appliquera à toutes les plateformes à compter du 17 février 2024

L’équipe du commissaire au marché intérieur Thierry Breton a ainsi effectué des « tests de fiabilité » avec X (ex-Twitter), TikTok, Snapchat, ainsi qu’avec les plateformes Facebook et Instagram de Meta, en juin et juillet derniers.

Dans les mois à venir, précise Euractiv, la Commission devrait par ailleurs adopter « une série d’actes délégués, des textes de droit dérivé » conçus pour faciliter la mise en œuvre d’une nouvelle législation européenne, afin de détailler davantage les obligations des plateformes, d’accroître leur sécurité juridique et de favoriser la mise en place des plans de mise en conformité.

Le règlement sur les services numériques s’appliquera en outre aux plateformes dont le nombre d’utilisateurs mensuels est inférieur au seuil de 45 millions à compter du 17 février 2024.

Commentaires (24)


Je suis preneur d’informations sur comment wikipedia fait face à ces obligations (de mémoire ils étaient assez le fait que ce texte s’impose à eux).


Le point qui sera le plus problématique pour wikipedia ce sera la suppression à la demande des contenus illicites.




Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés par les autorités nationales ou des particuliers




J’ai tendance à être Euro convaincu, mais si ils touchent à wikipedia je change de bord …



(et 0.05% c’est quand même 130 000$)


misocard

Le point qui sera le plus problématique pour wikipedia ce sera la suppression à la demande des contenus illicites.




Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés par les autorités nationales ou des particuliers




J’ai tendance à être Euro convaincu, mais si ils touchent à wikipedia je change de bord …



(et 0.05% c’est quand même 130 000$)


J’ai du mal à comprendre : Wikipedia doit avoir des contenus illicites ?


SebGF

J’ai du mal à comprendre : Wikipedia doit avoir des contenus illicites ?


Disons que c’est une porte ouverte aux abus, surtout que ça pourrai être notifié par des particuliers.



Ce que je pensais surtout, c’est que si Wikipedia devait fermer en Europe par ce qu’ils ne suivent pas une ordre je verrai ça d’un très mauvais oeil.



https://fr.wikipedia.org/wiki/Censure_de_Wikip%C3%A9dia



Après … faudra juger de la raison de la censure (forcément si il y a abus de la part de Wikipedia …)



En sois, si wikipedia fait partie du cadre de cette loi, peut être qu’elle est mal faite.


misocard

Le point qui sera le plus problématique pour wikipedia ce sera la suppression à la demande des contenus illicites.




Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés par les autorités nationales ou des particuliers




J’ai tendance à être Euro convaincu, mais si ils touchent à wikipedia je change de bord …



(et 0.05% c’est quand même 130 000$)


Il n’y a aucune raison que WIkipédia soit au-dessus des lois de l’UE.



Aujourd’hui, le signalement des contenus illicites sur WIkipédia ne me semble pas conforme au droit français.



Il est temps que cela cesse !


Merci pour cette synthèse :yes:



Par contre, je ne me fais pas trop d’illusions sur l’interdiction des darks patterns… D’ailleurs comment est définie cette notion dans le DSA ? L’exemple d’Amazon qui tente de refourguer Prime à chaque commande serait concerné ou pas ?


Impressionnant l’article arrive à ne pas écrire une seule fois le mot «censure».



Quand on lit ceci pourtant : Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés par les autorités nationales ou des particuliers, évaluer et proposer des mesures concrètes pour lutter contre les risques majeurs que leurs plateformes font peser sur la société, notamment la propagation de la désinformation et la cyberintimidation, et faire preuve d’une plus grande transparence quant à leur fonctionnement.



Pas un seul exemple concret de ce que peuvent être les risques majeurs en question.
On bascule mollement dans le totalitarisme.
« Plus ter­ri­fiant que le bruit des bottes, le silence des pantoufles. »


Étonnant que Wikipedia soit concerné.
Par contre vu leur modèle économique, je suppose que leur redevance sera assez limitée en comparaison des GAFA (ça se dit encore ? 🤔)



Jeanprofite a dit:


Impressionnant l’article arrive à ne pas écrire une seule fois le mot «censure».
Quand on lit ceci pourtant : Les entreprises devront retirer « rapidement » les contenus illicites lorsqu’ils seront notifiés (…)




illicite = qui ne respecte pas une règle de droit.



C’est pas le fait du prince ou d’une autorité morale quelconque.


Sauf que le droit est à interpréter par un juge, non par des délateurs et des IA.



Puis des lois «absurdes» existes ou ont existées.



Enfin la grande mode est de changer le sens des mots, hier pour attaquer la liberté il fallait invoquer le danger du terrorisme, maintenant la seule «désinformation» suffit…



Jeanprofite a dit:


Sauf que le droit est à interpréter par un juge, non par des délateurs et des IA.




Signaler des pratiques illicites c’est une démarche citoyenne.
T’as plein de moyens pour signaler des pratiques illicites aux autorités CNIL, DGCCRF…



Supprimer (ou ne pas supprimer) un contenu sur un site web ca a toujours été une décision arbitraire de l’administrateur du site web. Si tu ne veux pas être soumis à l’arbitraire, il faut créer ton propre site web.



Le DSA responsabilise la décision arbitraire du site web lorsqu’il a été notifié.



Bien sur, l’effet pervers serait que le site web préfère minimiser les risques/coûts en supprimant systématiquement un contenu signalé. Mais est-ce vraiment dans leur intérêt de proposer des contenus trop expurgés à leur audience ? Est-ce que ca ne serait pas favoriser les concurrents qui eux vont dépenser de l’argent dans une modération plus fine ?


Pour le signalement tout le nécessaire existe déjà : Pharos en France. ainsi que les diverses lois et gendarmes spécialisés.



Tu ne prends pas la mesure de l’atteinte aux libertés sous couvert de protéger les citoyens.



Favoriser la concurrence, c’est séduisant et évidemment que je vais voir ailleurs que ce que propose les GAFAM, cependant les gens restent généralement sur ce qu’ils connaissent.



Pour l’individu lambda, la compression audio c’est le MP3.
La cryptomonaie c’est le Bitcoin.
Le microblogage c’est Twitter, etc.



Pour les dissuader de faire jouer la concurence ont leur dira que les alternatives qui modèrent plus «finement» sont des repaires de terroristes ou autres accusation infamantes.



misocard a dit:


En sois, si wikipedia fait partie du cadre de cette loi, peut être qu’elle est mal faite.




Pourquoi ?



En quoi le contenu illicite qui circulerait sur Wikipedia devrait avoir un traitement différent du contenu illicite circulant sur les médias sociaux et autres plateformes répondant à ces critères (45 millions d’utilisateurs actifs par mois) ?


Par ce que c’est sans but lucratif et que c’est destiné à l’éducation (au sens large). De plus il n’y a pas vraiment de démarche d’édition (sélection du contenu, mise en avant).



Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.



(au cas ou, désolé pour la redevance, j’ai lu 5% et pas 0.05%, donc c’est 130$)



Tu peux préciser en quoi ce n’est pas conforme ?




Si néanmoins un vandalisme reste en ligne, vous pouvez :



annuler la modification qui a mis en ligne ce vandalisme ;
nous laisser un message sur Wikipédia:Vandalisme en cours ;
ou nous envoyer un courriel à l’adresse [email protected], en prenant soin de préciser l’URL de la page (l’« adresse Internet », habituellement affichée au dessus de la page dans le navigateur Web sous la forme https://fr.wikipedia.org/…).




Chaque utilisateur a la possibilité de supprimer directement le contenu.
Il est possible de contacter wikipedia pour demander le retrait.



Il y a également la possibilité de contacter directement l’auteur, ce qui semble être prévu si j’ai bien compris les informations du lien que tu m’as envoyé.


misocard

Par ce que c’est sans but lucratif et que c’est destiné à l’éducation (au sens large). De plus il n’y a pas vraiment de démarche d’édition (sélection du contenu, mise en avant).



Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.



(au cas ou, désolé pour la redevance, j’ai lu 5% et pas 0.05%, donc c’est 130$)



Tu peux préciser en quoi ce n’est pas conforme ?




Si néanmoins un vandalisme reste en ligne, vous pouvez :



annuler la modification qui a mis en ligne ce vandalisme ;
nous laisser un message sur Wikipédia:Vandalisme en cours ;
ou nous envoyer un courriel à l’adresse [email protected], en prenant soin de préciser l’URL de la page (l’« adresse Internet », habituellement affichée au dessus de la page dans le navigateur Web sous la forme https://fr.wikipedia.org/…).




Chaque utilisateur a la possibilité de supprimer directement le contenu.
Il est possible de contacter wikipedia pour demander le retrait.



Il y a également la possibilité de contacter directement l’auteur, ce qui semble être prévu si j’ai bien compris les informations du lien que tu m’as envoyé.


Le fait que Wikipedia soit un organisme à but non lucratif ne l’exempt en rien de ses obligations. Ca serait un peu facile de monter une assoc et de diffuser des saloperies et de ne pas être inquiété au motif que ce soit non lucratif. (cf les associations démantelées par le Ministre de l’Intérieur dernièrement)



Je peux parfaitement concevoir que pour sa propre morale et l’affectif que suscite cette plateforme comparée aux autres cela surprenne. Mais il n’empêche que Wikipedia est un vecteur de désinformation parmi tant d’autres à cause du vandalisme de son contenu (je pense que cette phrase sera mal interprétée par les personnes aux capacités cognitives limitées). Même si sa communauté est réactive, et c’est tant mieux, cela reste un problème auquel elle doit faire face très, trop même, souvent.



Et si, Wikipedia a une ligne éditoriale puisque les contenus doivent répondre à des critères d’admissibilité. Et des contenus sont mis en avant sur la homepage : “Article labellisé du jour”, “Image labellisée du jour”, ainsi que des actualités. Il y a également une sélection d’articles et de thématiques. Ce sont des choix communautaires, mais in fine, c’est un choix éditorial. Un article random quotidien l’aurait été moins.



Après oui, ça reste un site éducatif et encyclopédique. Ce qui le responsabilise encore plus de mon point de vue puisqu’il a cette aura de confiance(comme je disais : beaucoup croient qu’il détient la Vérité absolue, ce qui est faux).




Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.




Ce n’est pas une question d’en profiter ou non. Le DSA responsabilise les grandes plateformes quant aux risques d’être des vecteurs de contenus illicites, y compris malgré elles. C’est ce que le règlement considère comme étant une “utilisation abusive” si je me rappelle bien (il est un peu imbuvable comparé au RGPD).


SebGF

Le fait que Wikipedia soit un organisme à but non lucratif ne l’exempt en rien de ses obligations. Ca serait un peu facile de monter une assoc et de diffuser des saloperies et de ne pas être inquiété au motif que ce soit non lucratif. (cf les associations démantelées par le Ministre de l’Intérieur dernièrement)



Je peux parfaitement concevoir que pour sa propre morale et l’affectif que suscite cette plateforme comparée aux autres cela surprenne. Mais il n’empêche que Wikipedia est un vecteur de désinformation parmi tant d’autres à cause du vandalisme de son contenu (je pense que cette phrase sera mal interprétée par les personnes aux capacités cognitives limitées). Même si sa communauté est réactive, et c’est tant mieux, cela reste un problème auquel elle doit faire face très, trop même, souvent.



Et si, Wikipedia a une ligne éditoriale puisque les contenus doivent répondre à des critères d’admissibilité. Et des contenus sont mis en avant sur la homepage : “Article labellisé du jour”, “Image labellisée du jour”, ainsi que des actualités. Il y a également une sélection d’articles et de thématiques. Ce sont des choix communautaires, mais in fine, c’est un choix éditorial. Un article random quotidien l’aurait été moins.



Après oui, ça reste un site éducatif et encyclopédique. Ce qui le responsabilise encore plus de mon point de vue puisqu’il a cette aura de confiance(comme je disais : beaucoup croient qu’il détient la Vérité absolue, ce qui est faux).




Le système obéit à des règles bien définies et Wikipedia ne pourrait pas bénéficier de la propagation de fausse information.




Ce n’est pas une question d’en profiter ou non. Le DSA responsabilise les grandes plateformes quant aux risques d’être des vecteurs de contenus illicites, y compris malgré elles. C’est ce que le règlement considère comme étant une “utilisation abusive” si je me rappelle bien (il est un peu imbuvable comparé au RGPD).


Juste pour préciser qu’il y a bien une différence entre la lutte contre les fausses informations et les contenus illicites.



J’estime que le fonctionnement de wikipedia est bon pour la lutte contre les fausses informations, et sur ce point je suis d’accord qu’il y ait une certaine régulation.



Ce qui m’ennuie c’est le retrait du contenu illicite. ça ouvre des possibilités d’abus et dans le lien que j’ai mis plus haut il y a des exemples (même en Europe).



Si je dois essayer de préciser mon point de vue, si à un moment wikipedia est verrouillé en Europe, comme ça se fait dans d’autres pays, par ce qu’il a été jugé qu’un contenu était illicite mais que wikipedia en s’en défend il y a un risque de bascule.
(j’essaierai bien sur de me faire mon avis en fonction du contenu, mais j’ai tendance à faire plus confiance au système wikipedia qu’aux institutions)



Je ne veux pas dire que wikipedia a le droit de mettre du contenu illicite en ligne, j’ai juste peur qu’un contenu soit jugé illicite “par ce qu’il ne convient pas” et que cette partie du DSA soit utilisée pour de la censure.


misocard

Juste pour préciser qu’il y a bien une différence entre la lutte contre les fausses informations et les contenus illicites.



J’estime que le fonctionnement de wikipedia est bon pour la lutte contre les fausses informations, et sur ce point je suis d’accord qu’il y ait une certaine régulation.



Ce qui m’ennuie c’est le retrait du contenu illicite. ça ouvre des possibilités d’abus et dans le lien que j’ai mis plus haut il y a des exemples (même en Europe).



Si je dois essayer de préciser mon point de vue, si à un moment wikipedia est verrouillé en Europe, comme ça se fait dans d’autres pays, par ce qu’il a été jugé qu’un contenu était illicite mais que wikipedia en s’en défend il y a un risque de bascule.
(j’essaierai bien sur de me faire mon avis en fonction du contenu, mais j’ai tendance à faire plus confiance au système wikipedia qu’aux institutions)



Je ne veux pas dire que wikipedia a le droit de mettre du contenu illicite en ligne, j’ai juste peur qu’un contenu soit jugé illicite “par ce qu’il ne convient pas” et que cette partie du DSA soit utilisée pour de la censure.


Concernant les abus de retrait, l’article 20 du DSA traite ce point et donne le moyen à la plateforme de bloquer les notifications dites abusives pour un “temps raisonnable”. Les plateformes devront détailler les conditions, quantifications et critères pour lesquelles elles estiment la notification abusive dans leurs CGU.



Ce sont des des données qu’elles devront ensuite publier annuellement.



Le texte du DSA est imbuvable, mais la synthèse de Marc Rees était plutôt claire :



https://www.nextinpact.com/article/45070/le-digital-services-act-explique-ligne-par-ligne-article-1-a-24



https://www.nextinpact.com/article/45249/le-digital-services-act-explique-ligne-par-ligne-article-25-a-74



Ces deux articles auraient dû être mentionnés, pour le coup ils me paraissent indispensables pour bien comprendre la portée du texte.



Jeanprofite a dit:


Tu ne prends pas la mesure de l’atteinte aux libertés sous couvert de protéger les citoyens.




Ah, la liberté… Je me range dans la catégorie “libertarien” (avec des gros guillemets), mais la liberté ce n’est pas le laisser faire anarchique.



En société, ma liberté individuelle n’est garantie que si celle des autres est limitée. Et réciproquement. Bref, par effet miroir, on s’interdit tous de faire certaines choses afin que les autres ne les fassent pas non plus.



Je pense, p-e à tort, qu’on est collectivement prêt à s’interdire de poster de la haine et de l’intox, au motif qu’on préférerait que les autres s’en abstiennent également. Et que, par conséquent, signaler des posts de haine et d’intox afin qu’ils soient supprimés n’est pas une mauvaise chose.


Saut que tu oublis et je le signal en gras pour que tu ne le loupes pas :




Jeanprofite a dit:


Pas un seul exemple concret de ce que peuvent être les risques majeurs en question. On bascule mollement dans le totalitarisme. « Plus ter­ri­fiant que le bruit des bottes, le silence des pantoufles. »




Le problème est que la suite de mots laisse penser que c’est une bonne chose, alors que sans juge c’est une violation de l’état de droit.



Tu imagines bien que les grandes dictatures ne disaient pas ouvertement qu’elles étaient contre toute émancipation de l’homme mais pour le bénéfice d’une petite caste vue qu’elles s’appuyaient sur les masses…



Jeanprofite a dit:


Saut que tu oublis et je le signal en gras pour que tu ne le loupes pas :




Pas un seul exemple concret de ce que peuvent être les risques majeurs en question. On bascule mollement dans le totalitarisme. « Plus ter­ri­fiant que le bruit des bottes, le silence des pantoufles. »





Ah, c’est ça qui te pose problème.
Et bien les risques à prendre en compte lors de l’évaluation des risques sont décrits dans l’article 26 (Risk assessment):




This risk assessment shall be specific to their services and shall include the following systemic risks:




  • the dissemination of illegal content through their services;



  • any negative effects for the exercise of the fundamental rights to respect for private and family life, freedom of expression and information, the prohibition of discrimination and the rights of the child, as enshrined in Articles 7, 11, 21 and 24 of the Charter respectively;



  • intentional manipulation of their service, including by means of inauthentic use or automated exploitation of the service, with an actual or foreseeable negative effect on the protection of public health, minors, civic discourse, or actual or foreseeable effects related to electoral processes and public security.




Ce qui me pose problème c’est l’atteinte au droit sous le vernis de la justice et la paix.



Qu’est-ce qu’il est prévue de faire pour les signalements calomnieux ?
Apparemment rien. Comme ont peut s’en douter il va y avoir une grosse auto-censure.



De toute façon pratiquer la censure est toujours un aveux de faiblesse.
L’astuce dans le cas présent est de taire le mot pour pour essayer de positiver une atteinte au droit fondamental qu’est la liberté d’expression.



En France on est bien habitué : «tolérence zéro» au lieu de simplement dire intolérence.



misocard a dit:


Tu peux préciser en quoi ce n’est pas conforme ?




Ce n’est pas conforme à cette partie de l’article 6 de la LCEN cité par la page que j’ai mise en lien :




Compte tenu de l’intérêt général attaché à la répression de l’apologie, de la négation ou de la banalisation des crimes contre l’humanité, de la provocation à la commission d’actes de terrorisme et de leur apologie, de l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leur identité de genre ou de leur handicap ainsi que de la pornographie enfantine, de l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine, les personnes mentionnées ci-dessus doivent concourir à la lutte contre la diffusion des infractions visées aux cinquième, septième et huitième alinéas de l’article 24 et à l’article 24 bis de la loi du 29 juillet 1881 sur la liberté de la presse et aux articles 222-33,222-33-2-3,225-4-1,225-4-13,225-5,225-6,227-23 et 227-24 et 421-2-5 du code pénal.



A ce titre, elles doivent mettre en place un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données et rendre publics les moyens qu’elles consacrent à la lutte contre les activités illicites mentionnées au troisième alinéa du présent 7.




Le gras est de moi.



Pour tomber sur le comment faire que j’ai lié dans mon commentaire précédent, j’ai dû chercher et deviner qu’il fallait chercher à partir du lien Contact en bas de page puis cliquer sur “Lecteurs, lectrices”. C’est loin d’être “facilement accessible et visible”.


A quand les cachets comme dans Equilibrium. Au moins on se ressemblera tous et chacun aura sa fonction dans la société sans broncher :transpi:


Qui surveillera les signaleurs de confiance ?


Fermer