Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique

La face noire des réseaux

Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique

Plus de 140 modérateurs Facebook ont été diagnostiqués en état de stress post-traumatiques par un expert médical de l'hôpital Kenyatta de Nairobi à l'occasion d'un procès en cours contre Meta et Sama, l'un de ses sous-traitants africains.

Le 26 décembre à 14h14

Commentaires (10)

votre avatar
"Interrogées par nos confrères, les deux entreprises n'ont pas voulu commenter en raison du procès en cours."

Comprendre "elles savent qu'elles sont d´immenses sacs à merde, parmi les entreprises au sens de l´éthique le plus claqué au sol du monde. En conséquence de quoi elles n´ont rien à dire hormis d´inviter tout un chacun à s´inscrire sur leurs nombreuses plateformes."

Ouais, autant qu´elles la ferment, on n´a pas vraiment besoin de lire leurs explications.
votre avatar
N'empêche, cela soulève une véritable question quant à la modération : comment la gérer ?

Je veux bien entendre que ce travail "ne convienne pas à des êtres humains". Mais dans ce cas, la solution, c'est quoi ?.

Et qu'on ne vienne pas me répondre l'IA. Une modération par IA sans contrôle serait une hérésie pure. Je préfère largement une fermeture pure et simple des réseaux sociaux plutôt que ça !

Parce qu'il faut quand même voir la situation telle qu'elle est :
- les gens veulent des réseaux sociaux (sinon, il n'y en aurait plus depuis belle lurette)
- les réseaux sociaux ont l'obligation de modérer (à raison, pour éviter justement certains contenu)
- d'après certains modérateurs, ce travail n'est pas fait pour être réalisé par un être humain.

J'ai beau tourner ça dans tous les sens, les 3 sont incompatibles en l'état, sauf comme je le disais plus haut, s'en remettre entièrement à l'IA (et encore, avant qu'un groupe de chercheur ne vienne nous dire que les IA ont une conscience et qu'il s'agit de maltraitance à IA...)
votre avatar
Peut-être est-il possible d'atténuer les risques de chocs, par exemple en transformant les images pour qu'elles soient moins réalistes, ou partielles, ou passées par une IA en amont qui seraient charger de ne traiter que les cas "évidents".
Peut-être aussi en montrant quelques fausses images aux modérateurs en leur indiquant qu'il y en a des fausses, pour qu'ils puissent penser que certaines horreurs vues ne sont pas réelles (en gros, on les aide à se mentir à eux-mêmes).

Mais je me faisais exactement la même réflexion que toi et tu l'as parfaitement décrite. 😘
votre avatar
Je ne pense pas qu'on puisse en faire un bon travail, mais clairement les conditions exposées ici peuvent et doivent être améliorées.
Si les entreprises arrêtaient d'ajouter de la pression avec des objectifs de productivités, payaient mieux, fournissaient un cadre de travail digne, à la hauteur de l'importance du travail fait, avec un suivi psy de qualité etc, on arriverait pas à un "bon" travail, mais au moins l'expérience serait moins traumatisante et les employé-es pourraient arrêter quand s'en est trop.
C'est typiquement le genre de travail qui demande un soin tout particulier et qui n'est absolument pas considéré.
votre avatar
A titre perso je suis pour la fermeture des RS.
Sinon y'a eu la proposition intéressante de virer les images et vidéos.

Après si on garde ça il faudrait un accompagnement adéquat, et pourquoi pas une obligation de passer 15 minutes par heure dans une pièce avec 15 chiots. Je plaisante... un peu. (Faut pas être allergique)
votre avatar
Le problème est compliqué.

Les plateformes sont obligées par la loi au moins en Europe de supprimer certains types d'images les plus violentes, terroristes ou autres. Pour cela, soit elles le font dès qu'un signalement leur est fait et sans contrôle par un humain (mais il y a un risque que les gens utilisent ces classifications pour faire supprimer n'importe quoi), soit elles emploient des modérateurs humains pour le faire, soit elles utilisent de l'IA mais il faut que celles-ci soient entraînées, donc, avec des humains qui interviennent là aussi.

J'ai donc du mal à envisager que l'on puisse se passer complètement d'humains dans ces tâches.
Par contre, il faut accompagner très fortement ceux-ci pour qu'ils n'en arrivent pas à ce niveau de traumatismes et ne pas les garder trop longtemps à ce genre de postes. Espérons que l'IA puisse ici minimiser le nombre d'humains exposés. C'est au moins un domaine où l'on ne se plaindra pas que l'IA prenne la place des humains dans le monde du travail.

Malgré tout, il y a des cas où l'IA aura du mal à faire un bon travail. Je pense par exemple au cas de Marine Le Pen qui avait publié 3 photos d’exécution de Daesh en disant "Daech, c'est ça". Elle avait été poursuivie puis acquittée. Donc, déjà que le Parquet français a du mal à voir si une publication est répréhensible ou pas, une IA dans un cas où le contexte est important ne pourra pas faire la différence avant longtemps.

Si l'on ne veut pas que des modérateurs humains subissent ce genre d'images, il n'y a qu'une solution : la suppression de tous les réseaux sociaux et autres espaces de publication.

Édit : j'ai mis du temps à rédiger mon commentaire parce que j'ai fait autre chose, mais je vois que @fdorin soulève le même problème que moi.
votre avatar
Que les réseaux sociaux n'autorisent plus la publication de médias (images, vidéos) serait un premier pas. On retrouverait l'essence des réseaux, de l'époque bénie de 2007-2008.
Mais c'est utopique, c'est leur gagne-pain aujourd'hui.
votre avatar
+1 avec @fdorin et @fred42

Un accompagnement particulier est nécessaire avec les modérateurs en charge de ces contenus. Limiter par exemple pour chaque vacation d'un modérateur le nombre de contenus violents. (donc un pré filtre ? une IA ?)

Et je pense aux experts judiciaires qui visionnent eux aussi par exemple des contenus pédocriminels. Sont-ils accompagnés ? Qu'est ce qui est mis en place pour les suivre, les aider ?

Alors c'est sûr, je pense que le bien être des modérateurs c'est le cadet de leurs soucis à Facebook & co...

J'étais tombé sur un blog d'un (ancien ?) expert judiciaire en informatique (zythom). Je crois déjà avoir lu ce genre de sujet sur son blog, faudrait que je retrouve ça
votre avatar
Eh ben!

Ayant fait un long burn-out suite à un travail en callcenter, je reconnais les mêmes méthodes et conditions de travail complètement éclatées... Mais en bien pire pour un métier qui mériterait énormément d'attention. C'est toujours la même chose, les métiers difficiles n'ont pas de bonnes conditions et c'est assez incompréhensible puisqu'ils s'agit de postes créés par des humains normalement doués d'émotions :mad2:

Pour la problématique soulevée, à priori, j'aurais utilisé l'ia ou tout autre mécanisme qui automatiserait les cas les plus clairs, quitte à être un peu trop agressif comme un algo DMCA YouTube. Vaut mieux quelques faux positifs à vérifier si besoin que la situation actuelle.

Et sinon, humainement, loin d'être bisounours, j'ai quand même été choqué à la lecture des cas traités. C'est dégueulasse.
votre avatar
Ils vont se plaindre alors que c'est que sur écran ? Cochotte.
Un pompier ramasse un motard coupé en 4 sur une barrière autoroute, c'est IRL pour lui.
Un gars de la pénitentiaire voit son pote se prendre un headshot, c'est IRL pour lui.
Un thanatopracteur qui reconstruit un visage parce la personne s'est mis un coup de 38 dans la tempe, c'est IRL pour lui.
Ils ont tous signés en bas d'un contrat, même les Kenyan. :D
Ouvrons une cellule psychologique, un numéro vert et une cagnotte Ullule.

Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique

  • Diagnostic de nombreux troubles psychologiques et psychiatriques

  • Des masses de contenus ultra violents visionnés

  • Un travail inhumain

Fermer