Bluesky va quadrupler son équipe de modération pour atteindre 100 personnes
Le 26 novembre à 10h00
2 min
Réseaux sociaux
Sociaux
Sur l’année 2023, Bluesky a repéré deux cas avérés de contenus représentant des abus sexuels sur mineurs (CSAM, Child sexuel abuse material) sur sa plateforme. Sur la seule journée du 25 novembre 2024, elle en a dénombré huit.
Avec l’explosion des nouveaux usagers, le réseau social doit faire face à celle des besoins en modération, ce qui pèse sur son équipe de 20 personnes et ses 25 modérateurs de contenus employés à l’extérieur.
En septembre, déjà, quand 2 millions de nouveaux utilisateurs l’avaient rallié après la suspension de X au Brésil, les outils de modération de la plateforme avaient signalé un brusque pic dans l’usage des trois lettres « KKK », qui évoquent généralement le Ku Klux Klan en anglais. Après enquête, les équipes de Bluesky ont compris que ces lettres étaient utilisées pour exprimer le rire par certains internautes portugais.
L’entreprise avait aussi mis en place un système de signalement des usagers qui recevaient un grand nombre de mentions de la part de nouveaux comptes, comportement théoriquement typique d’une campagne de harcèlement. Dans ce cas précis, le risque était de suspendre automatiquement les comptes d’énormément de nouveaux arrivants – ce qui a conduit Bluesky à expliquer dans un thread qu’elle venait d’adapter ses modalités de modération pour le court terme.
Auprès de Platformer, le directeur Trust and Safety de Bluesky, Aaron Rodericks, indique avoir une « très très longue liste de souhaits » en matière de recrutement, d’automatisation et d’équipement pour lutter contre les publications enfreignant les règles de communauté.
L’un de ces vœux a été exaucé : l’équipe de modération va quadrupler, pour passer de 25 modérateurs de contenus à 100.
Pour rappel, les modalités de modération sont adaptables ici (ou dans les paramètres de modération) en fonction des préférences des usagers.
Le 26 novembre à 10h00
Commentaires (9)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousModifié le 26/11/2024 à 10h36
C'était d'ailleurs la raison pour laquelle l'instance Fosstodon avait au début comme règle English-only. L'équipe derrière était uniquement anglophone et n'avait aucune capacité à faire la modération dans des langues étrangères (et la trad auto ferait perdre les subtilités). Hélas, avec l'augmentation de sa fréquentation et un shitstorm sur un weekend, ils ont fini par faire sauter la règle car ça frustrait des gens.
Avec sa montée en charge, Bluesky aussi va forcément devoir faire face au défi de la modération. Ils ont une approche assez singulière avec leur système de labels, à voir comment ça évoluera.
Modifié le 26/11/2024 à 11h00
De toute l'infrastructure de Bluesky, c'est vraiment le point qui me semble le plus novateur. Si ca marche, ca mériterait d'être standardisé pour que ca soit applicable à tous les sites qui affichent des flux de messages/commentaires.
La modération va devenir un gros problème pour tous les sites qui veulent laisser les lecteurs s'exprimer.
Y a du pognon à se faire si elle est facilement externalisable, et si les editeurs/lecteurs peuvent configurer leur service de modération.
Aujourd'hui à 11h16
Les utilisateurs ne pensent pas forcément à tagger leurs contenus d'eux même, faisant que les règles filtrage ne se déclenchent pas toujours en ce qui me concerne.
Aujourd'hui à 12h44
Aujourd'hui à 13h56
Aujourd'hui à 14h28
Cet article de blog où ils annonçaient la mise en open-source de l'outil explique avec l'exemple de photos d'araignées.
Pour résumer violemment, la charge de la modération est répartie à différents niveaux (là où sur Mastodon elle est sous responsabilité du gestionnaire de l'instance). Elle se fait par un système d'étiquette qui les attribue sur les contenus, les profils, les listes et les fils. Ça applique des tags pour (adulte, violence, etc) et les utilisateurs peuvent choisir de les bloquer, masquer, ou flouter. Leur outil Ozone est chargé de gérer ces étiquetages et une base centralisée de modération est disponible dans la ferme de Bluesky. Mais une instance peut faire tourner sa propre installation pour gérer sa modération. On peut souscrire à des étiqueteurs communautaires en plus de celle de Bluesky dont on ne peut pas échapper (on peut juste désactiver les filtres qu'elle gère).
De ce que j'en ai compris, l'approche est à mi-chemin entre celle des médias sociaux classiques et d'un Mastodon. La ruche centrale gérée par une équipe de modération donne une base pouvant être enrichie localement, et l'utilisateur a le pouvoir sur ce qu'il veut ne pas voir.
Aujourd'hui à 10h47
Aujourd'hui à 13h02
Aujourd'hui à 13h59