Connexion Abonnez-vous

Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

Compassion générée par IA

Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

Les ONG n'échappent pas à la mode de l'utilisation de l'IA pour générer des images. Des chercheurs pointent le problème d'une nouvelle ère du « poverty porn » dans laquelle l'intelligence artificielle serait utilisée pour émouvoir, réduisant les personnes à des corps souffrants de façon décontextualisée.

Le 21 octobre à 15h00

Des chercheurs travaillant dans différentes institutions de médecine à travers le monde tirent le signal d'alarme : avec l'IA, certaines ONG entrent dans une ère nouvelle du « poverty porn ».

Cette technique de communication « utilise la compassion comme catalyseur pour obtenir un gain financier », comme l'explique le magazine The Plaid Zebra. Elle est critiquée et déconseillée dans les diverses recommandations sur la communication éthique des ONG.

Mais, avec l'IA, certains communicants d'ONG ont trouvé le moyen de créer des campagnes de compassion facilement. Plusieurs chercheurs publient dans la revue Global Health de The Lancet un appel à éviter ce « poverty porn » 2.0.

L'ONU comme l'OMS y ont déjà eu recours

Comme ils le rappellent, alors que les budgets du secteur sont en baisse, il est moins cher de générer des images via l'intelligence artificielle que d'embaucher un photographe ou un artiste. Et même des organisations comme l'OMS ou l'ONU y ont recours. « Ces mêmes organisations ne créeraient probablement pas de telles représentations mettant en scène des personnes réelles en raison de leurs politiques éthiques internes », affirment les chercheurs.

Ainsi, ils pointent en exemple des vidéos de la branche néerlandaise de l'ONG Plan International qui lutte pour le droit des enfants. Elles montrent notamment des images de jeunes filles avec un œil au beurre noir. Les chercheurs évoquent aussi une vidéo de l'ONU. L'organisation a supprimé la vidéo de son compte YouTube après avoir été contactée par le Guardian à ce sujet.

« La vidéo en question, qui a été produite il y a plus d'un an à l'aide d'un outil en constante évolution, a été retirée, car nous estimons qu'elle montre une utilisation inappropriée de l'IA et qu'elle peut présenter des risques pour l'intégrité des informations, en mélangeant des images réelles et du contenu artificiel quasi réel », explique l'organisation internationale à nos confrères.

On peut retrouver, sur Internet Archive, la description qui accompagnait la vidéo : « Dans cette vidéo captivante, des reconstitutions réalisées à l'aide de l'intelligence artificielle (IA) donnent vie aux témoignages de survivantes de violences sexuelles liées aux conflits (VSLC) au Burundi, en Bosnie-Herzégovine, en République démocratique du Congo et en Irak ».

Reproductions de clichés de la pauvreté

Mais ce « poverty porn » n'est pas seulement utilisé par les ONG. Ainsi, expliquent les chercheurs, une bonne partie de l' « industrie mondiale de la santé » utilise ce genre d'images. Entre janvier et juillet 2025, ils ont collecté plus d'une centaine d'images générées par IA sur les réseaux sociaux des organisations de plus petites tailles ou publiées par des gens du milieu « souvent basés dans les pays à faible revenu et à revenu intermédiaire ». Les chercheurs décrivent dans leur texte les images sans les reproduire, pour des raisons éthiques.

« Les images reproduisent la grammaire visuelle de la pauvreté : des enfants avec des assiettes vides, une terre craquelée, des images stéréotypées », explique au Guardian l'un des chercheurs signataires, Arsenii Alenichev.

Celui-ci avertissait dans la même revue scientifique, il y a maintenant deux ans, des biais de Midjourney qui n’arrivait pas à représenter un médecin noir soignant des enfants blancs.

Notre consœur du Guardian, Aisha Down, a remarqué qu'on pouvait trouver ce genre d'images générées par IA très facilement sur des plateformes comme Adobe Stock ou Freepik. Joaquín Abela, CEO de la dernière, rejette la responsabilité de l'utilisation des images sur les personnes qui les achètent et affirme essayer de corriger les biais existant dans d'autres parties de sa plateforme pour assurer l'équilibre entre les genres dans les photos d'avocats et de CEO. Adobe n'a pas répondu au Guardian.

Commentaires (12)

votre avatar
Sincèrement, ça fait un moment que certaines associations utilisent le "poverty porn" (terme que je découvre, merci Next...!). Il suffit d'écouter la radio ou la télévision. Pas besoin d'IA, il suffit de photos, de vidéos ou même d'acteurs bien choisis, en plus de la musique ultra larmoyante qui va bien avec et par ici les sous-sous.

P.S. : En ce moment, ce qui a le vent en poupe, ce sont les legs.
votre avatar
Et encore, c'est pas encore la période des fêtes de Noël.
Dons, legs et bénéficiaires d'assurance vie powa !!!
votre avatar
En même temps, ça évite d'avoir à mettre les états devant leurs responsabilités. Sachant qu'en proportion, ce sont les plus modestes qui donnent le plus.
votre avatar
Et avec la mention "x% déductible de vos impôts" écrit en gros, ce sont les gens qui payent des impôts qui payent le don du coup :D

Et pour les legs, c'est 0% de frais de succession.
es biens légués aux associations ou fondations reconnues d'utilité publique sont exonérés de droits de succession.

Leurs ressources doivent être affectées notamment aux activités suivantes :

Œuvres d'assistance et de bienfaisance
Protection de l'environnement
Protection des animaux.

Le legs est aussi exonéré s'il est fait en faveur de l'une des associations suivantes :

Association simplement déclarée qui poursuit un but exclusif d'assistance et de bienfaisance
Association cultuelle, union d'associations cultuelles, congrégation autorisée.

service-public.gouv.fr République Française

Tes enfants n'ont qu'à faire une asso culturelle... çà évitera les frais :D
votre avatar
Cultuelle => culte
Culturelle => culture

Une asso vouée au culte Jedi, il y aura besoin de quelques pièces cotées de Star Wars 🤪
votre avatar
Promis, prochaine fois, je retire mes moufles... :D
votre avatar
Stupéfait, il découvre que dans "charity business" il y a le mot business.
votre avatar
Ça m'a rappelé l'épisode South Park avec le grand centre commercial dont j'ai oublié le nom et la sempiternelle demande de don au TPE (qui perso m'agace) qui se transforme en "veuillez dire dans le micro que vous refusez", puis "pour refuser, arrachez le pain de la bouche de cet enfant".
votre avatar
Alors "poverty" OK j'ai compris, mais pourquoi "porn" ?
votre avatar
Comme porn food.
(non, ce n'est pas manger des sushis disposés sur le corps d'une délicieuse asiatique allongée au centre de la table)
votre avatar
Alors c'est food porn (poverty porn, torture porn - c'est une genre de ciné, pas une réalité... quoique -, etc.) parce que porn food, ça a une toute autre signification qui pourrait, pourquoi pas, être justement "manger des sushis disposés sur le corps d'une délicieuse asiatique allongée au centre de la table"
votre avatar
On va dire que j'ai choisi mon camp :D

Des chercheurs alertent sur l’utilisation de l’IA par les ONG pour faire du « poverty porn »

  • L'ONU comme l'OMS y ont déjà eu recours

  • Reproductions de clichés de la pauvreté

Fermer