Sur les réseaux sociaux, les algorithmes objectifient le corps des femmes
Le 27 février 2023 à 07h59
3 min
Sciences et espace
Sciences
Qu’ils servent à classifier des images, à aider à la décision, à générer du texte ou à autre chose encore, les modèles algorithmiques sont construits par des humains. Ils embarquent donc une série de biais – statistiques, sociaux, économiques… – qui viennent influer sur leurs résultats.
Or les outils de modération développés par certaines des plus grosses entreprises tech (Microsoft, Google, Amazon) et utilisés pour contrôler les images postées sur les plus gros réseaux sociaux (LinkedIn ou Instagram, notamment) présentent un biais disqualifiant envers les images de femmes.
En effet, une longue enquête menée par le Guardian et l’AI Accountability Network du centre Pulitzer démontre que par défaut, la plupart de ces modèles algorithmiques donnent aux images présentant un corps de femmes un score de « suggestivité sexuelle » plus élevé.
Les images de femmes dans des activités quotidiennes risquent beaucoup plus d’être qualifiées de « suggestives » que celles d’hommes dans des situations similaires. Les journalistes démontrent aussi que les taux de « suggestivité » rapportés par les machines explosent si les images montrent des ventres de femmes enceinte, un ou des tétons, ou encore si les femmes en question sont en train de faire du sport.
Ces scores n’ont rien à voir avec la suggestivité réelle que les humains pourraient donner aux images en question : ils sont plutôt atteints par détection d’éléments suggérant la féminité des personnes représentées. L’un des co-auteurs de l’enquête a fait le test face à l’algorithme de Microsoft : lorsqu’il est torse nu, la machine ne donne à son image qu’un score de 22 % de « suggestivité », mais dès qu’il a un soutien-gorge à la main ou sur lui, le score bondit à 99 %.
La sexualisation (ou la présence d’ « attraction physique ou sexuelle », pour le cas de LinkedIn) et la nudité (cf la politique de Meta) étant motifs de modération, ce biais sous-entend que les publications contenant des images de femmes ont plus de risques d’être modérées que ceux comportant des photos similaires représentant des hommes.
Autre possibilité : que ces contenus soient « shadowbanned », c’est-à-dire que leur portée soit limitée par le réseau social sans que l’internaute qui a posté n’en soit averti. Le risque, pointé depuis plusieurs années par des artistes et des créatrices qui s’estiment modérées sans raison, est que les publications représentant des femmes aient moins de portée que les autres.
Le 27 février 2023 à 07h59
Commentaires