Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique

La face noire des réseaux

Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique

Plus de 140 modérateurs Facebook ont été diagnostiqués en état de stress post-traumatiques par un expert médical de l'hôpital Kenyatta de Nairobi à l'occasion d'un procès en cours contre Meta et Sama, l'un de ses sous-traitants africains.

Le 26 décembre 2024 à 14h14

Commentaires (17)

votre avatar
"Interrogées par nos confrères, les deux entreprises n'ont pas voulu commenter en raison du procès en cours."

Comprendre "elles savent qu'elles sont d´immenses sacs à merde, parmi les entreprises au sens de l´éthique le plus claqué au sol du monde. En conséquence de quoi elles n´ont rien à dire hormis d´inviter tout un chacun à s´inscrire sur leurs nombreuses plateformes."

Ouais, autant qu´elles la ferment, on n´a pas vraiment besoin de lire leurs explications.
votre avatar
C'est juste le système capitaliste qui fonctionne comme prévu. Ces entreprises ne sont pas pires que beaucoup, beaucoup d'autres. Les pétrolières, le système de santé américain, l'exploitation minière etc. Même dans les réseaux sociaux, aujourd'hui Meta est mieux que X, Tiktok etc.

La presse d'investigation n'est plus du tout ce qu'elle était avant Internet, seul quelques grands journaux (comme The Guardian) ont encore les moyens, malgré les attaques de plus en plus violentes par l'extrême droite et les capitalistes, de mener de vraies enquêtes de terrain. Même avant, le public n'était au courant que d'une petite partie des abus et problèmes. Et il y en a tellement que le public n'a pas le niveau d'attention permettant de mettre la pression politiquement sur plus que quelques problèmes ou entreprises.
votre avatar
Je vous rejoins sue le constat :"La presse d'investigation n'est plus du tout ce qu'elle était avant Internet".
Cependant je pense que vous faite un amalgame de plusieurs sujets qui peuvent être vrai sur cetaines points mais pas sur d'autres.

Un exemple tout simple, le capitalisme n'est forcement la cause mais ça dégénération via le prisme de l'avarisme et de la convoitise de certains.

Le capitalisme c'est : "tirer profit des fruits de ses PROPRES biens". (j'ai un terrain avec un pommier, j'ai le droit de profiter des pommes qu'ils produit ; CQFD).
votre avatar
N'empêche, cela soulève une véritable question quant à la modération : comment la gérer ?

Je veux bien entendre que ce travail "ne convienne pas à des êtres humains". Mais dans ce cas, la solution, c'est quoi ?.

Et qu'on ne vienne pas me répondre l'IA. Une modération par IA sans contrôle serait une hérésie pure. Je préfère largement une fermeture pure et simple des réseaux sociaux plutôt que ça !

Parce qu'il faut quand même voir la situation telle qu'elle est :
- les gens veulent des réseaux sociaux (sinon, il n'y en aurait plus depuis belle lurette)
- les réseaux sociaux ont l'obligation de modérer (à raison, pour éviter justement certains contenu)
- d'après certains modérateurs, ce travail n'est pas fait pour être réalisé par un être humain.

J'ai beau tourner ça dans tous les sens, les 3 sont incompatibles en l'état, sauf comme je le disais plus haut, s'en remettre entièrement à l'IA (et encore, avant qu'un groupe de chercheur ne vienne nous dire que les IA ont une conscience et qu'il s'agit de maltraitance à IA...)
votre avatar
Peut-être est-il possible d'atténuer les risques de chocs, par exemple en transformant les images pour qu'elles soient moins réalistes, ou partielles, ou passées par une IA en amont qui seraient charger de ne traiter que les cas "évidents".
Peut-être aussi en montrant quelques fausses images aux modérateurs en leur indiquant qu'il y en a des fausses, pour qu'ils puissent penser que certaines horreurs vues ne sont pas réelles (en gros, on les aide à se mentir à eux-mêmes).

Mais je me faisais exactement la même réflexion que toi et tu l'as parfaitement décrite. 😘
votre avatar
Je ne pense pas qu'on puisse en faire un bon travail, mais clairement les conditions exposées ici peuvent et doivent être améliorées.
Si les entreprises arrêtaient d'ajouter de la pression avec des objectifs de productivités, payaient mieux, fournissaient un cadre de travail digne, à la hauteur de l'importance du travail fait, avec un suivi psy de qualité etc, on arriverait pas à un "bon" travail, mais au moins l'expérience serait moins traumatisante et les employé-es pourraient arrêter quand s'en est trop.
C'est typiquement le genre de travail qui demande un soin tout particulier et qui n'est absolument pas considéré.
votre avatar
A titre perso je suis pour la fermeture des RS.
Sinon y'a eu la proposition intéressante de virer les images et vidéos.

Après si on garde ça il faudrait un accompagnement adéquat, et pourquoi pas une obligation de passer 15 minutes par heure dans une pièce avec 15 chiots. Je plaisante... un peu. (Faut pas être allergique)
votre avatar
Le problème est compliqué.

Les plateformes sont obligées par la loi au moins en Europe de supprimer certains types d'images les plus violentes, terroristes ou autres. Pour cela, soit elles le font dès qu'un signalement leur est fait et sans contrôle par un humain (mais il y a un risque que les gens utilisent ces classifications pour faire supprimer n'importe quoi), soit elles emploient des modérateurs humains pour le faire, soit elles utilisent de l'IA mais il faut que celles-ci soient entraînées, donc, avec des humains qui interviennent là aussi.

J'ai donc du mal à envisager que l'on puisse se passer complètement d'humains dans ces tâches.
Par contre, il faut accompagner très fortement ceux-ci pour qu'ils n'en arrivent pas à ce niveau de traumatismes et ne pas les garder trop longtemps à ce genre de postes. Espérons que l'IA puisse ici minimiser le nombre d'humains exposés. C'est au moins un domaine où l'on ne se plaindra pas que l'IA prenne la place des humains dans le monde du travail.

Malgré tout, il y a des cas où l'IA aura du mal à faire un bon travail. Je pense par exemple au cas de Marine Le Pen qui avait publié 3 photos d’exécution de Daesh en disant "Daech, c'est ça". Elle avait été poursuivie puis acquittée. Donc, déjà que le Parquet français a du mal à voir si une publication est répréhensible ou pas, une IA dans un cas où le contexte est important ne pourra pas faire la différence avant longtemps.

Si l'on ne veut pas que des modérateurs humains subissent ce genre d'images, il n'y a qu'une solution : la suppression de tous les réseaux sociaux et autres espaces de publication.

Édit : j'ai mis du temps à rédiger mon commentaire parce que j'ai fait autre chose, mais je vois que @fdorin soulève le même problème que moi.
votre avatar
Que les réseaux sociaux n'autorisent plus la publication de médias (images, vidéos) serait un premier pas. On retrouverait l'essence des réseaux, de l'époque bénie de 2007-2008.
Mais c'est utopique, c'est leur gagne-pain aujourd'hui.
votre avatar
Ou bien un moratoire à l'inscription ?
Du type Compte de mois 3 mois pas d'image ou vidéo publique, moins de 6 mois pas de vidéo publique. Si aucun signalement valide après pleine publication possible.

Avec pt-être un facilité pour les compté certifité (mais pas à la Elon, ons'entend).
votre avatar
Quand on voit des comptes dormants (créés il y a longtemps et avec peu d'activité ou une activité anodine) qui sont ensuite utilisés par des usines à troll pour de la propagande ou du dénigrement, ça tue ton idée un peu trop naïve.
votre avatar
J'y pensais. Mais ça facilite leur repérage. et ça oblige ces usines à "bruler ces comptes".
Il y a aura tjrs une manière de contourner.
votre avatar
+1 avec @fdorin et @fred42

Un accompagnement particulier est nécessaire avec les modérateurs en charge de ces contenus. Limiter par exemple pour chaque vacation d'un modérateur le nombre de contenus violents. (donc un pré filtre ? une IA ?)

Et je pense aux experts judiciaires qui visionnent eux aussi par exemple des contenus pédocriminels. Sont-ils accompagnés ? Qu'est ce qui est mis en place pour les suivre, les aider ?

Alors c'est sûr, je pense que le bien être des modérateurs c'est le cadet de leurs soucis à Facebook & co...

J'étais tombé sur un blog d'un (ancien ?) expert judiciaire en informatique (zythom). Je crois déjà avoir lu ce genre de sujet sur son blog, faudrait que je retrouve ça
votre avatar
Eh ben!

Ayant fait un long burn-out suite à un travail en callcenter, je reconnais les mêmes méthodes et conditions de travail complètement éclatées... Mais en bien pire pour un métier qui mériterait énormément d'attention. C'est toujours la même chose, les métiers difficiles n'ont pas de bonnes conditions et c'est assez incompréhensible puisqu'ils s'agit de postes créés par des humains normalement doués d'émotions :mad2:

Pour la problématique soulevée, à priori, j'aurais utilisé l'ia ou tout autre mécanisme qui automatiserait les cas les plus clairs, quitte à être un peu trop agressif comme un algo DMCA YouTube. Vaut mieux quelques faux positifs à vérifier si besoin que la situation actuelle.

Et sinon, humainement, loin d'être bisounours, j'ai quand même été choqué à la lecture des cas traités. C'est dégueulasse.
votre avatar
Ils vont se plaindre alors que c'est que sur écran ? Cochotte.
Un pompier ramasse un motard coupé en 4 sur une barrière autoroute, c'est IRL pour lui.
Un gars de la pénitentiaire voit son pote se prendre un headshot, c'est IRL pour lui.
Un thanatopracteur qui reconstruit un visage parce la personne s'est mis un coup de 38 dans la tempe, c'est IRL pour lui.
Ils ont tous signés en bas d'un contrat, même les Kenyan. :D
Ouvrons une cellule psychologique, un numéro vert et une cagnotte Ullule.
votre avatar
Les incidents que tu décris arrivent une poignée de fois dans une vie, et justement les personnes qui les subissent bénéficient en général d'un suivi psy adapté. L'article décrit des conditions de travail où ces personnes voient des dizaines de vidéos et photos dignes de cauchemar sans accompagnement.

Avec les G$ que Meta amasse, je pense qu'ils pourraient :

- multiplier le nombre d'employé·es pour diminuer le temps d'exposition quotidien
- mettre en place un suivi psy adapté, pour préparer les employé·es et atténuer les effets
- les payer beaucoup mieux, vu qu'ils et elles sont indispensables

Bien content de ne pas utiliser les services de Meta
votre avatar
J'avoue je suis moi-même circonspect.

Je suis devenu trop désabusé, mais la 1ere (mauvaise) chose que j'ai pensé en lisant le titre (pas encore l'article) ; "Tiens le bon plan pour faire craché META".
(A ma decharge 140 personnes diagnostiqué par le même medecin, ça fait suspect de prime abord)

Après j'ai lu l'article, et effectvement les témoignages laissent à penser à une vrai souffrance. Cependant comme l'on dit certains (pt être cyniquement ?), c'est le boulot. Les médecins urgentistes et sécouristes voient eux aussi des choses horibles.

Je ne connais pas les conditions de travails habituelles au kenya, et donc ne peut savoir si ils sont mieux ou moins bien traités de bases que avec d'autres boîtes.

Je reste mitigé.

Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique

  • Diagnostic de nombreux troubles psychologiques et psychiatriques

  • Des masses de contenus ultra violents visionnés

  • Un travail inhumain

Fermer