Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique
La face noire des réseaux
Plus de 140 modérateurs Facebook ont été diagnostiqués en état de stress post-traumatiques par un expert médical de l'hôpital Kenyatta de Nairobi à l'occasion d'un procès en cours contre Meta et Sama, l'un de ses sous-traitants africains.
Le 26 décembre à 14h14
5 min
Réseaux sociaux
Sociaux
Meta et Sama font face actuellement à un procès devant la justice kényane pour les conditions dans lesquelles ont travaillé les salariés du sous-traitant de la multinationale du numérique. Le Guardian a pu consulter des rapports médicaux inclus dans le dossier.
En février 2023, la justice kényane avait pris une première décision : elle pouvait poursuivre Meta, la maison mère de Facebook, en raison de mauvaises conditions de travail des salariés de Sama alors qu’un ancien modérateur de contenu avait porté plainte contre les deux entreprises. Suite à l'ouverture de cette affaire, Sama avait jeté l'éponge et annoncé qu'elle ne fournirait plus de services de modération au géant américain. Mais l'entreprise, dont les bureaux sont d'ailleurs surmontés du slogan « The Soul of AI » (l'Âme de l'IA), est aussi un sous-traitant pour les entreprises d'intelligence artificielle.
Diagnostic de nombreux troubles psychologiques et psychiatriques
Selon nos confrères britanniques, le responsable du service psychiatrique de l'hôpital Kenyatta de Nairobi, Ian Kanyanya, a diagnostiqué chez les 144 modérateurs et anciens salariés de Sama qu'il a examinés des troubles de stress post-traumatique, des troubles anxieux généralisés et des troubles dépressifs majeurs. Pour 81 % d'entre eux, ces troubles étaient sévères ou extrêmement sévères, « la plupart du temps au moins un an après leur départ », précise le Guardian.
Les modérateurs travaillaient de huit à dix heures par jour en visionnant parfois des images et vidéos horribles. Certaines comportant des scènes de nécrophilie, de bestialité ou d'automutilation ont conduit les salariés jusqu'à s'évanouir, vomir ou encore s'enfuir de leur bureau, peut-on lire dans les dossiers médicaux, expliquent nos confrères. Certains des employés dont le travail se concentrait sur les contenus mis en ligne par des terroristes avaient peur d'être pris pour cibles, pourchassés et tués s'ils rentraient chez eux.
Au moins 40 de ces modérateurs souffriraient d'addiction à l'alcool, à des drogues ou des médicaments. Leur travail a eu des conséquences sur leurs vies privées dont des ruptures au sein des couples, l'effondrement de la libido et la perte de liens sociaux avec l'entourage familial.
Cette affaire jugée au Kenya montre l'ampleur des horreurs que doivent subir les modérateurs des réseaux sociaux et des travailleurs des données.
Des masses de contenus ultra violents visionnés
Une des modératrices dont il est question témoigne auprès du Guardian des conséquences de son travail sur son état de santé et sur sa vie quotidienne. « Casser des briques contre la façade de sa maison n'est pas une façon normale de se détendre après le travail. Pas plus que de se mordre le bras ou d'avoir peur de s'endormir », résument nos confrères. Cette femme d'une vingtaine d'années a été modératrice pendant plus de deux ans au sein de Sama entre 2019 et 2023. Elle a dû modérer de nombreuses vidéos de maltraitances d'enfants, de torture et de bestialité qui l'ont fait vomir.
Un autre explique au média britannique : « Je me souviens d'un jour où je me suis connecté et où j'ai vu un enfant au ventre déchiré, souffrant mais pas mort ». C'est en voyant du contenu d'exploitation d'enfants « que j'ai vraiment compris qu'il s'agissait de quelque chose de différent », ajoute-t-il.
Un travail inhumain
Il commente : « Je ne pense pas que ce travail convienne à des êtres humains [...] Il m'a vraiment isolé du monde réel parce que j'ai commencé à le voir comme un endroit très sombre ».
Selon le journal, dans sa déposition, Ian Kanyanya a conclu que leur travail était la principale cause de leurs troubles mentaux car ils « rencontraient quotidiennement des contenus extrêmement graphiques, notamment des vidéos de meurtres horribles, d'automutilations, de suicides, de tentatives de suicide, de violences sexuelles, de contenus sexuels explicites, d'abus physiques et sexuels sur des enfants, d'actions violentes horribles, pour n'en citer que quelques-uns ».
Le Guardian a aussi eu accès à des documents du dossier judiciaire qui font état de conditions de travail très dégradées : travail de jour comme de nuit dans des locaux avec des lumières éblouissantes, air conditionnée glaciale, sièges inconfortables et surveillance de la performance pouvant conduire à la résiliation du contrat en cas de baisse.
Interrogées par nos confrères, les deux entreprises n'ont pas voulu commenter en raison du procès en cours.
Plus de 140 modérateurs kényans de Facebook victimes de troubles de stress post-traumatique
-
Diagnostic de nombreux troubles psychologiques et psychiatriques
-
Des masses de contenus ultra violents visionnés
-
Un travail inhumain
Commentaires (8)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousHier à 16h41
Comprendre "elles savent qu'elles sont d´immenses sacs à merde, parmi les entreprises au sens de l´éthique le plus claqué au sol du monde. En conséquence de quoi elles n´ont rien à dire hormis d´inviter tout un chacun à s´inscrire sur leurs nombreuses plateformes."
Ouais, autant qu´elles la ferment, on n´a pas vraiment besoin de lire leurs explications.
Hier à 17h56
Je veux bien entendre que ce travail "ne convienne pas à des êtres humains". Mais dans ce cas, la solution, c'est quoi ?.
Et qu'on ne vienne pas me répondre l'IA. Une modération par IA sans contrôle serait une hérésie pure. Je préfère largement une fermeture pure et simple des réseaux sociaux plutôt que ça !
Parce qu'il faut quand même voir la situation telle qu'elle est :
- les gens veulent des réseaux sociaux (sinon, il n'y en aurait plus depuis belle lurette)
- les réseaux sociaux ont l'obligation de modérer (à raison, pour éviter justement certains contenu)
- d'après certains modérateurs, ce travail n'est pas fait pour être réalisé par un être humain.
J'ai beau tourner ça dans tous les sens, les 3 sont incompatibles en l'état, sauf comme je le disais plus haut, s'en remettre entièrement à l'IA (et encore, avant qu'un groupe de chercheur ne vienne nous dire que les IA ont une conscience et qu'il s'agit de maltraitance à IA...)
Hier à 19h45
Peut-être aussi en montrant quelques fausses images aux modérateurs en leur indiquant qu'il y en a des fausses, pour qu'ils puissent penser que certaines horreurs vues ne sont pas réelles (en gros, on les aide à se mentir à eux-mêmes).
Mais je me faisais exactement la même réflexion que toi et tu l'as parfaitement décrite. 😘
Hier à 22h24
Si les entreprises arrêtaient d'ajouter de la pression avec des objectifs de productivités, payaient mieux, fournissaient un cadre de travail digne, à la hauteur de l'importance du travail fait, avec un suivi psy de qualité etc, on arriverait pas à un "bon" travail, mais au moins l'expérience serait moins traumatisante et les employé-es pourraient arrêter quand s'en est trop.
C'est typiquement le genre de travail qui demande un soin tout particulier et qui n'est absolument pas considéré.
Modifié le 26/12/2024 à 18h17
Les plateformes sont obligées par la loi au moins en Europe de supprimer certains types d'images les plus violentes, terroristes ou autres. Pour cela, soit elles le font dès qu'un signalement leur est fait et sans contrôle par un humain (mais il y a un risque que les gens utilisent ces classifications pour faire supprimer n'importe quoi), soit elles emploient des modérateurs humains pour le faire, soit elles utilisent de l'IA mais il faut que celles-ci soient entraînées, donc, avec des humains qui interviennent là aussi.
J'ai donc du mal à envisager que l'on puisse se passer complètement d'humains dans ces tâches.
Par contre, il faut accompagner très fortement ceux-ci pour qu'ils n'en arrivent pas à ce niveau de traumatismes et ne pas les garder trop longtemps à ce genre de postes. Espérons que l'IA puisse ici minimiser le nombre d'humains exposés. C'est au moins un domaine où l'on ne se plaindra pas que l'IA prenne la place des humains dans le monde du travail.
Malgré tout, il y a des cas où l'IA aura du mal à faire un bon travail. Je pense par exemple au cas de Marine Le Pen qui avait publié 3 photos d’exécution de Daesh en disant "Daech, c'est ça". Elle avait été poursuivie puis acquittée. Donc, déjà que le Parquet français a du mal à voir si une publication est répréhensible ou pas, une IA dans un cas où le contexte est important ne pourra pas faire la différence avant longtemps.
Si l'on ne veut pas que des modérateurs humains subissent ce genre d'images, il n'y a qu'une solution : la suppression de tous les réseaux sociaux et autres espaces de publication.
Édit : j'ai mis du temps à rédiger mon commentaire parce que j'ai fait autre chose, mais je vois que @fdorin soulève le même problème que moi.
Modifié le 26/12/2024 à 20h10
Mais c'est utopique, c'est leur gagne-pain aujourd'hui.
Modifié le 26/12/2024 à 20h49
Un accompagnement particulier est nécessaire avec les modérateurs en charge de ces contenus. Limiter par exemple pour chaque vacation d'un modérateur le nombre de contenus violents. (donc un pré filtre ? une IA ?)
Et je pense aux experts judiciaires qui visionnent eux aussi par exemple des contenus pédocriminels. Sont-ils accompagnés ? Qu'est ce qui est mis en place pour les suivre, les aider ?
Alors c'est sûr, je pense que le bien être des modérateurs c'est le cadet de leurs soucis à Facebook & co...
J'étais tombé sur un blog d'un (ancien ?) expert judiciaire en informatique (zythom). Je crois déjà avoir lu ce genre de sujet sur son blog, faudrait que je retrouve ça
Aujourd'hui à 03h12
Ayant fait un long burn-out suite à un travail en callcenter, je reconnais les mêmes méthodes et conditions de travail complètement éclatées... Mais en bien pire pour un métier qui mériterait énormément d'attention. C'est toujours la même chose, les métiers difficiles n'ont pas de bonnes conditions et c'est assez incompréhensible puisqu'ils s'agit de postes créés par des humains normalement doués d'émotions
Pour la problématique soulevée, à priori, j'aurais utilisé l'ia ou tout autre mécanisme qui automatiserait les cas les plus clairs, quitte à être un peu trop agressif comme un algo DMCA YouTube. Vaut mieux quelques faux positifs à vérifier si besoin que la situation actuelle.
Et sinon, humainement, loin d'être bisounours, j'ai quand même été choqué à la lecture des cas traités. C'est dégueulasse.