Ancienne directrice de l'éthique chez Twitter, Rumman Chowdhury a réalisé pour l'UNESCO un rapport sur les violences de genre facilitées par la technologie à l’ère de l’IA générative. Elle alerte sur l'importance de développer des outils et des mécanismes de protections en même temps que les outils d'IA génératives sont rendus accessibles.
L’intelligence artificielle (IA) générative « révolutionne » les manières d’accéder, de produire, de recevoir et d’interagir avec du contenu, mais elle crée aussi de nouveaux risques qui menacent les droits humains, en particulier ceux des femmes et des filles.
Dans cet esprit, la data scientist et fondatrice Rumman Chowdhury, ancienne directrice pour l’éthique, la transparence et la responsabilité du machine learning chez Twitter, a produit pour l’UNESCO un rapport sur les violences de genre facilitées par la technologie à l’ère de l’IA générative avec l'aide de l’ingénieure Dhanya Lakshmi.
- En ligne, la misogynie utilisée pour saper la liberté d’expression
- La violence en ligne est un danger démocratique, alerte la vice-Première ministre néerlandaise
Le 13 novembre, les deux expertes présentaient publiquement cette étude, qui vient s’inscrire dans les travaux que l’UNESCO mène au long cours sur la transformation numérique et celle de l’IA. Et Rumman Chowdhury de planter directement le décor : « la plupart des violences et des abus constatés en ligne sont d’abord appliqués contre les communautés les plus désavantagées ». Malgré leur importance numérique, les femmes et les filles font partie de ces catégories minorisées, explique-t-elle.
« Dans le rapport, on écrit que les femmes sont les canaris au fond de la mine, car dans énormément de cas de violence numérique, les abus ont d’abord été testés contre elles avant d’être étendus à l’ensemble de la population. » L’expression désigne ces canaris, que les mineurs emmenaient autrefois au fond des mines de charbon. Si l’oiseau s’évanouissait ou mourrait, cela les alertait de la présence de gaz toxiques et de la nécessité de remonter à l’air libre.
Avant même l’ouverture de l’accès aux modèles d’IA génératrice au grand public, pointe Rumman Chowdhury, une étude de 2020 pointait que 58 % des jeunes femmes de la planète avaient déjà été exposées à une forme de violence de genre sur les réseaux sociaux. Outre la dimension de genre, c’est plus du quart des jeunes de 15 à 25 ans, proportion qui explique que l’UNESCO travaille aussi sur ces questions au long cours.
Dans le cas de l’IA générative, plusieurs types de violences sont déjà constatés contre les femmes et les filles. À court terme, l’accès à des outils comme ChatGPT, Stable Diffusion ou autres modèles de générations de textes et d’image permet notamment l’aggravation de campagnes de harcèlement – via l’usage de deepfakes pornographiques, par exemple –, leur massification, et l’apparition « d'abus involontaires ou indésirables » (unintended harms), liste Rumman Chowdhury.
Commentaires (7)
J’ai du mal à appréhender avec cette expression “violences de genre”, ou plutôt ce à que ça sous-entend.
Ce que je veux dire, si on ne précise pas, cela vient à dire “violence fait un tout les genres” et dans ce cas là la précision ne sert plus.
ah, bonne question. L’expression complète est “violence basée sur le genre”, que l’Unesco garde dans la version anglaise de son titre (gendered-based violence) mais qu’il raccourcit en français.
Même si les femmes et les filles sont statistiquement plus souvent visées, l’expression est précisément construite parce qu’elle peut s’appliquer à tous les genres, comme l’indique aussi le site de l’ONU femmes : https://www.unwomen.org/fr/what-we-do/ending-violence-against-women/faqs/types-of-violence
(Pour info, les féministes disent souvent que leur combat doit servir à tout le monde, hommes comme femmes, puisqu’il s’agit notamment de faire cesser toute injonction liées au genre.)
Par ailleurs, il me semble que préciser violence de genre reste utile, parce qu’elle sert à indiquer le motif de l’agression : dans les cas évoqués ici, c’est parce qu’il s’agit de femmes ou de filles que des internautes décident de les agresser.
Possiblement, Je pense également, que ça permet d’inclure les violences de types homophobes et transgenre.
Cependant je pense que l’on se trompe de combat, car le propre d’une insulte c’est de “taper” sur ce que la personne considère comme une faiblesse une “honte”.
(Exemple : Je suis gros et j’en honte ; on me traite de gros forcement ça m’affecte.
Je suis brun, et on me traire de brun, ça n’a pas d’impacte sur moi car ce n’est pas une quelconque honte pour moi).
Rien à voir (ou un peu
) Ce serait marrant un article un peu plus léger sur les “insultes” et leurs origines (Je pense que l’on remarquerait que la très grandes majorités sont liés au s.xe voir plus précisément à la femme (et à sa supposé (à tord) faiblesse, ou à un animal considéré comme nuisible et/ou souillé. )
Merci pour ces liens!
Désolé, l’idée a déjà été exploité à ce que je vois :-)
Dans le sud-ouest de l’Espagne, vingt jeunes filles mineures ont vu des photos d’elles nues circuler sur les réseaux sociaux. Ces photos au réalisme troublant ont été générées avec l’intelligence artificielle par leurs camarades de classe.
En Espagne, des photos de jeunes filles nues générées par l’IA font scandale - RTS.ch 18/11/2023