Bluesky va quadrupler son équipe de modération pour atteindre 100 personnes

Bluesky va quadrupler son équipe de modération pour atteindre 100 personnes

Le 26 novembre à 10h00

Le 26 novembre à 10h00

Commentaires (10)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Après enquête, les équipes de Bluesky ont compris que ces lettres étaient utilisées pour exprimer le rire par certains internautes portugais.
Ah ça, c'est joies de l'internationalisation (perso je l'ai appris de la même manière, avec des collègues espagnols qui utilisent jejeje).

C'était d'ailleurs la raison pour laquelle l'instance Fosstodon avait au début comme règle English-only. L'équipe derrière était uniquement anglophone et n'avait aucune capacité à faire la modération dans des langues étrangères (et la trad auto ferait perdre les subtilités). Hélas, avec l'augmentation de sa fréquentation et un shitstorm sur un weekend, ils ont fini par faire sauter la règle car ça frustrait des gens.

Avec sa montée en charge, Bluesky aussi va forcément devoir faire face au défi de la modération. Ils ont une approche assez singulière avec leur système de labels, à voir comment ça évoluera.
votre avatar
Ils ont une approche assez singulière avec leur système de labels, à voir comment ça évoluera.
+1.

De toute l'infrastructure de Bluesky, c'est vraiment le point qui me semble le plus novateur. Si ca marche, ca mériterait d'être standardisé pour que ca soit applicable à tous les sites qui affichent des flux de messages/commentaires.

La modération va devenir un gros problème pour tous les sites qui veulent laisser les lecteurs s'exprimer.
Y a du pognon à se faire si elle est facilement externalisable, et si les editeurs/lecteurs peuvent configurer leur service de modération.
votre avatar
Je pense qu'à un moment (si ce n'est pas déjà expérimenté), ils ont finir par recourir à de l'analyse d'image pour leur système de label. L'IA est de plus en plus efficace de nos jours sur ce point, mais par contre ça coût encore cher en ressources. Le texte, c'est encore un peu plus compliqué.

Les utilisateurs ne pensent pas forcément à tagger leurs contenus d'eux même, faisant que les règles filtrage ne se déclenchent pas toujours en ce qui me concerne.
votre avatar
Je m'auto réponds. En fait la modération est d'ores et déjà assistée par IA selon ce fil de discussion sur la plateforme. Ils cherchent à rassurer les artistes dessus cependant en affirmant ne pas entraîner leurs modèles avec leurs contenus.
votre avatar
Hello :) Une explication sur ce système de labels, pour ceux qui ne connaissent pas ? Merci! :inpactitude2:
votre avatar
Ca sert à étiqueter soi-même ses contenus, automatiquement, juste en faisant un "like" sur un label (et tout le contenu du compte est étiqueté, sans qu'on n'ait autre chose à faire). Ca permet ensuite de trouver une catégorie de contenus, ou au contraire de tout bloquer d'un coup.
votre avatar
L'architecture de la modération de Bluesky est basée sur une approche partiellement décentralisée, comme le service en lui-même avec une responsabilisation multiple.

Cet article de blog où ils annonçaient la mise en open-source de l'outil explique avec l'exemple de photos d'araignées.

Pour résumer violemment, la charge de la modération est répartie à différents niveaux (là où sur Mastodon elle est sous responsabilité du gestionnaire de l'instance). Elle se fait par un système d'étiquette qui les attribue sur les contenus, les profils, les listes et les fils. Ça applique des tags pour (adulte, violence, etc) et les utilisateurs peuvent choisir de les bloquer, masquer, ou flouter. Leur outil Ozone est chargé de gérer ces étiquetages et une base centralisée de modération est disponible dans la ferme de Bluesky. Mais une instance peut faire tourner sa propre installation pour gérer sa modération. On peut souscrire à des étiqueteurs communautaires en plus de celle de Bluesky dont on ne peut pas échapper (on peut juste désactiver les filtres qu'elle gère).

De ce que j'en ai compris, l'approche est à mi-chemin entre celle des médias sociaux classiques et d'un Mastodon. La ruche centrale gérée par une équipe de modération donne une base pouvant être enrichie localement, et l'utilisateur a le pouvoir sur ce qu'il veut ne pas voir.
votre avatar
Yaka leur vendre une licence de @Ness_01
votre avatar
Me suis inscrit sur bluesky histoire de ne pas mourir idiot (sic), il demande nos thématiques préférées à l’inscription, cool, mais une fois sur le site, il nous ressort évidemment uniquement la merdasse politique habituelle des réseaux sociaux… dommage.
votre avatar
Normal, c'est à toi de créer ton propre fil en fonction de tes préférences, en suivant les comptes que tu veux. Par défaut, ca te proposera ce qui provoque le plus d'engagement, donc surtout du politique, c'est le fonctionnement de base des réseaux sociaux. De mon côté je ne vois quasiment aucune merdasse politique (en dehors de qques skeets partagés par des comptes que je suis), et j'ai du contenu nettement plus intéressant pour moi.

Bluesky va quadrupler son équipe de modération pour atteindre 100 personnes

Fermer