DSA : la modération de Meta n’est pas au point

modèrera, modèrera pas ?

DSA : la modération de Meta n’est pas au point

DSA : la modération de Meta n’est pas au point

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Alors que le Digital Services Act entre en application ce 25 août pour les plus grandes plateformes numériques, l’association Ekō démontre que Meta ne régule pas encore correctement les contenus publicitaires contenant de la violence ou de la désinformation. 

Ce 25 août, le Règlement sur les services numériques (Digital Services Act, DSA) entre en application pour les plus grandes plateformes numériques (Very large online platforms, VLOP, dans le jargon), désignées il y a pile quatre mois par la Commission européenne. Dans le lot se trouvent évidemment Facebook et Instagram, dans la mesure où chacun engrangeait 304 millions et 281 millions d’utilisateurs en Europe fin 2022. 

En prévision de cette évolution règlementaire, l’association Ekō a voulu vérifier s’il y avait eu des évolutions dans la gestion publicitaire des plateformes de Meta. Autrefois nommé SumOfUs, Ekō se décrit comme « une communauté de personnes engagées pour limiter le pouvoir grandissant des entreprises à travers le monde », et a travaillé sur ce projet en lien avec le réseau People Vs Big tech

L’entité a tenté de soumettre (.pdf) treize messages publicitaires entre le 4 et le 8 août, tous contenant des images créées à partir de Stable Diffusion ou Dall-E (donc des modèles d’intelligence artificielle générative). Tous contenaient aussi des propos incitant à la violence ou de la désinformation politique. 

Aucune modération pour haine ou incitation à la violence

Parmi les cas testés, Ekō a soumis à la machine un message « appelant nommément à attaquer un député européen en vue à cause de ses propos sur l’immigration », censé être publié en France. Un autre, destiné à une audience allemande, appelait à « brûler des synagogues au motif de la "protection des Allemands Blancs" ». Deux autres contenaient un discours à la « Stop the Steal » (qui met en doute la validité d’une élection) en Espagne. Une dernière, à destination de la Roumanie, appelait au nettoyage ethnique des personnes LGBT. 

Résultat des courses : huit ont été acceptés par le système publicitaire, cinq ont été bloqués, mais seulement « au motif qu’elles mentionnaient des élections ou des politiciens, et donc qu’elles étaient des publicités politiques », indique le rapport. Toutes contrevenaient aux propres règles de Meta en matière de discours haineux, de désinformation politique et d’incitation à la violence.

Les chercheurs d’Ekō ont suspendu chacune de leur publication avant d’aller au bout de la démarche publicitaire : personne ne les a donc vues sur Facebook ou Instagram. 

Ekō demande un contrôle de la bonne application du DSA

Ekō s’inquiète de tels résultats alors que le DSA a précisément vocation à protéger les citoyens européens de divers risques systémiques. Sous ce vocable, rappelle l’association, le régulateur européen a inscrit les « risques actuels ou prévisibles » qui porteraient sur l’exercice des droits fondamentaux, la diffusion de fausses informations et de contenus illégaux, sur les processus électoraux ou encore sur la sécurité publique. 

Pour l’organisation, l’expérience démontre que Meta n’a pas pris les mesures suffisantes pour appliquer ces nouvelles obligations. L’entité estime que le système de modération de l’entreprise américaine, dans la mesure où il laisse passer de telles publications violentes, « constitue un risque systémique qu’elle devra corriger en vertu des obligations du DSA ». 

Ekō s’inquiète, cela dit, des méthodes de mise en application du règlement : sans contrôle, écrit-elle, la plateforme n'est « guère incitée à s'attaquer à ces risques systémiques », dans la mesure où son modèle économique « dépend de la publicité et de l'amplification de tous les types de contenus, y compris ceux qui suscitent un fort engagement, comme les discours haineux et la désinformation ».

L’entité finit donc son rapport par un plaidoyer en faveur de la mise en application effective de la réglementation. Par ailleurs, elle enjoint la Commission européenne à demander aux plateformes concernées (parmi lesquelles LinkedIn, TikTok, Twitter (X) ou encore YouTube) de publier des informations sur la manière dont elles prévoient de faire face à la désinformation et aux autres risques systémiques qui émergeront en 2024.

2024, année politique

Ekō et 55 autres ONG (dont AlgorithmWatch, EU DisinfoLab, EDRi, People vs BigTech) appellent par ailleurs la Commission européenne à utiliser ses nouveaux pouvoirs en vertu de la loi sur les services numériques pour obliger les plateformes à mettre en œuvre un certain nombre de mesures, dont : 

  • recruter des équipes de modération dans toutes les langues,
  • payer les modérateurs un salaire décent et leur fournir un soutien psychologique,
  • permettre aux chercheurs, aux médias et à la société civile de pouvoir analyser les (méta)données des contenus rétrogradés et recommandés. 

Les signataires rappellent que parallèlement aux élections européennes, plus de 50 autres pays se rendront aux urnes en 2024 : « en faisant pleinement usage de ses pouvoirs, la Commission européenne a une occasion cruciale de montrer la voie à l'échelle mondiale en démontrant que les plateformes peuvent aligner leurs opérations sur la démocratie et les droits de l'homme ».

Commentaires (20)


Les bras m’en tombent.




L’entité a tenté de soumettre (.pdf) treize messages publicitaires entre le 4 et le 8 août, tous contenant des images créées à partir de Stable Diffusion ou Dall-E (donc des modèles d’intelligence artificielle générative). Tous contenaient aussi des propos incitant à la violence ou de la désinformation politique.




Il aurait été intéressant qu’ils ajoutent une version ayant une représentation considérée comme sexuelle par la plateforme. Il y a quelques années, un artiste avait dénoncé la modération à géométrie variable de facebook par ce moyen. Il avait publié une photo avec un modèle et une mise en scène sur laquelle un slogan antisémite datant de l’ère Nazi était affiché. Deux versions de la photo : une où la femme était couverte, une autre où elle était seins nus.



Je vous laisse deviner laquelle a été modérée.


On peut aller plus loin dans le raisonnement (foireux américain) :




  • un bout de nichon, même artistique (une peinture, par exemple), c’est censuré

  • un cadavre, c’est pas censuré



Du coup si c’est une photo de cadavre féminin avec les seins découverts, Meta fait quoi ?



Dans tout les cas, l’audience des RS est basée sur les émotions. Plus ça pète, plus ça vient, plus les biftons des publicités tombent.


Bah tant que je peux continuer à trouver dessus Ilsa, la louve des SS (Wikipedia), ça me va.


Meta compte uniquement sur le fait que les utilisateurs signaleront peut être les pubs en question. Il y aura modération, mais à posteriori. Je ne sais pas si c’est conforme au DSA.


Au début, Facebook faisait croire que la modération était automatisée par algorithme. Ensuite, on a découvert qu’il s’agissait de petites mains payées au lance-pierres en Asie du Sud-Est et en Amérique du Sud. Maintenant, on sait également que la modération n’est que superficielle puisque le modèle économique repose sur la maximisation des réactions (partages, likes, commentaires) afin de profiler tout le monde. Et la modération est un coût avant même de songer aux pertes de chiffre d’affaire.



(reply:2149069:consommateurnumérique)




La modération est également sous-traitée en Afrique au Kenya par exemple. (cf. Affaire Meta/Sama).
Cette affaire (tjs en cours) avait montré le peu de considération pour l’activité de modération et les conditions difficiles notamment psychologiquement pour certains modérateurs.


Depuis quand il faut de la considération pour un “algo” ?



L’entité a tenté de soumettre treize messages publicitaires entre le 4 et le 8 août, tous contenant des images créées à partir de Stable Diffusion ou Dall-E (donc des modèles d’intelligence artificielle générative). Tous contenaient aussi des propos incitant à la violence ou de la désinformation politique.




De son propre aveu, l’association n’a pas diffusé le contenu au public.



Donc l’association Ekō rêve d’une modération 100% efficace effectuée avant la 1ère diffusion du contenu. Elle ne veut pas d’une modération moyennement efficace effectuée à priori, suivie d’une modération apostériori de la publication basée sur signalement des utilisateurs…



C’est beau de rêver…


C’est aussi ce que je me suis dit. Je ne connais pas la procédure de publication sur facebook, mais suivant ce qui a été payé, il me semble pas totalement déconnant que le travail de modération complet ne soit pas fait (juste une question de rentabilité économique).


Le point important est que personne n’a vu les publications des chercheurs, alors que le DSA est littéralement basé dessus.



Espérer bloquer à la soumission de la pub…. ça serait vraiment de la censure que de tout laisser au bon vouloir des algos. Partir d’un avis humain me paraît être bien, même si on verra forcément du troll de masse d’opinion pour bloquer certaines pub.



Y’a 2 semaines je vois une pub Google adsense pour trafiquer son kilométrage auto, je la signale et l’option liée aux lois locales était là. C’est un truc bateau pareil dans toute l’UE ça.
Eh bien non, pour Google cette pub est légale….et toujours en ligne



Goldoark a dit:


je me faisais traiter de complotiste et bannir par paquets de 30 jours.




Pour complotisme: non, car tu n’as pas parlé de contrôle mental gouvernemental par la 5G. :mdr:
Mais te bannir pour propager des contre-vérités scientifiques, oui, c’est clairement compréhensible.



Dire que toi, personnellement, tu n’as pas confiance dans le vaccin c’est une chose. Et j’espère que tu pourras toujours le faire, n’en déplaise à l’association Ekō.



Mais dire que le vaccin est objectivement dangereux, en avançant des arguments non prouvés/fondés, c’est au delà du simple partage d’opinion.


C’est prouvé est fondé depuis longtemps !



Exemple mou avec l’ASM :
Le risque de myocardite et péricardite après la vaccination Covid-19 est confirmé.
Le peu «mais peu fréquent et d’évolution favorable» est très constestable…



D’autant plus qu’un vaccin doit immuniser de la maladie et non lutter contre une hypothétique forme grave.



Jeanprofite a dit:


C’est prouvé est fondé depuis longtemps !




Comme le dit l’étude:




Les myocardites (inflammation du muscle cardiaque) et les péricardites (inflammation de la membrane qui entoure le cœur) sont causées, la plupart du temps, par une infection virale comme la Covid-19 et surviennent plutôt chez des hommes jeunes.




Bref, c’est déjà une conséquence de la Covid-19 donc on ne prend pas beaucoup de risque supplémentaire à se faire vacciner.



Sauf..



Sauf si on prend le pari qu’on ne chopera pas la Covid-19.



Et c’est là tout le problème des argumentaires antivax qui se placent dans le cas particulier du mec naturellement immunisé par dieu/magie, ou hyper chanceux pour passer entre les gouttes.



Si on avait la garantie qu’on ne chopperait pas la Covid-19, on n’aurait pas besoin de se faire vacciner. Mais la pensée magique ça ne marche pas, comme diraient les frères Bogdanov.


Il est des choses explicables : 53 800 décès de plus qu’attendus en 2022 : une surmortalité plus élevée qu’en 2020 et 2021.



En France pour le moment on a pas accès au statut vaccinale des décédés.
l’Angleterre publie parfois ces choses, mais il vaut mieux regarder ailleurs pour ne pas se faire peur…



Un Tweet pour une fois.


Jeanprofite

Il est des choses explicables : 53 800 décès de plus qu’attendus en 2022 : une surmortalité plus élevée qu’en 2020 et 2021.



En France pour le moment on a pas accès au statut vaccinale des décédés.
l’Angleterre publie parfois ces choses, mais il vaut mieux regarder ailleurs pour ne pas se faire peur…



Un Tweet pour une fois.


Ils disent dans ton lien que c’est les épidémies de grippe (et vagues de chaleur).



Il y a des graphiques plus complet pour la Belgique où ils parlent aussi de bronchiolite.



Vu que le Vaccin est le même je suppose que les effets devraient être les mêmes.



Il ne faut pas oublier que les confinements et le masque ont réduit la propagation de la grippe de grippe (si j’en crois le graphique la Belgique n’a même pas eu d’épidémie de grippe en 2021).



Même Didier Raoult a admis que les gens vaccinés mouraient moins



Et je sais que ça remonte à novembre 2021, mais à ce moment il n’y avait pas de décès des patients admis pour péricardite



Si tu as besoin du nombre de décès à la suite du vaccin tu as une étude de l’agence européenne du vaccin. (article du 13/04/2023, chiffres du 23/11/2022).




L’Agence européenne des médicaments (EMA) rapporte que les vaccins contre la COVID-19 ont eu, dans l’Union européenne, une issue fatale pour 11 448 personnes




Je vais quand même préciser aussi que ce sont des décès suite au vaccin, pas à cause du vaccin.
Si je prends 342 142 505 premières doses ça fait 1 pour 33 000


Et c’est reparti pour un tour. La machine à merde a été démarrée.



Goldoark a dit:


(il faut 10 à 20 ans pour tester un médicament)




Plutôt 10 que 20 car un brevet sur une molécule ne dure que 20 ans.
Et cette durée ne vaut que pour les princeps, les génériques ont une durée de tests bien plus court.



Je ne te parle pas des médicaments d’exception ou des médicaments anticancéreux qui ont une phase 1 (sur les sujets sains) ou de phase 3 (sur les cohortes de malades) réduites, voir inexistantes.



En résumé, donc ton affirmation sur la période de 10-20 ans est erronée



Jeanprofite a dit:


Un Tweet pour une fois.




Mauvaise appellation, il faut dire «publication» (c’est EMusk qui a choisi) :
Publication, republication, X Pro… Voici le nouveau lexique de Twitter, rebaptisé X (leparisien.fr 01/08/2023)


Fermer