Quand Midjourney n’arrive pas à représenter un médecin noir soignant des enfants blancs
AI French doctors
Le 27 octobre 2023 à 08h55
6 min
Société numérique
Société
Des chercheurs en bioéthique ont essayé de générer via Midjourney des photos de médecins noirs soignant des enfants blancs pauvres. Spoiler : c'est quasiment impossible, sauf à renforcer un autre stéréotype, celui du guérisseur traditionnel africain.
Depuis l'avènement des grands modèles de langage et des IA génératives, de nombreux journalistes, chercheurs et chercheuses ont soulevé les problèmes de biais que peuvent reproduire ces systèmes d'intelligences artificielles.
- Les IA génératives réduisent les stéréotypes à leur version la plus cliché
- Des tests dévoilent les biais sexistes et racistes de ChatGPT
- Peut-on corriger les biais des algorithmes ?
- Les modèles d’IA génératifs renforcent les biais humains
- L'agence européenne des droits fondamentaux met en garde contre les biais algorithmiques
Dans le même temps, des études sur l'utilisation d'images dans l'illustration de la santé mondiale (notamment celle-ci) ont montré que les principaux acteurs qui définissent les politiques et stratégies de ce milieu perpétuent très souvent les stéréotypes, notamment celle du médecin « sauveur » blanc soignant des enfants de couleur et vulnérables.
Curieux de voir comment un outil d'IA générative comme Midjourney pouvait être utilisé pour créer ce genre d'images, les trois sociologues de la santé et spécialistes en bioéthique Arsenii Alenichev, Patricia Kingori et Koen Peeters Grietens ont tenté de générer des images en inversant le stéréotype. Ils ont publié leurs résultats dans la revue The Lancet Global Health ce mois-ci. Spoiler : ça ne s'est pas passé comme prévu.
Des enfants blancs et pauvres et des médecins noirs africains, oui...
Les trois chercheurs ont utilisé la version 5.1 du bot de Midjourney (sortie en mai dernier) pour générer leurs illustrations autour de la santé mondiale.
En tapant le prompt « un groupe d'enfants blancs malades et pauvres, dans le style du photojournalisme » (en anglais), ils ont bien obtenu des images de groupes d'enfants blancs posant, de façon un peu grégaire, les visages tristes et les traits tirés habillés de fringues datant d'un autre siècle comme sur les exemples ci-dessous :
Quand ils ont demandé à Midjourney de générer des images d' « un groupe de médecins noirs africains dans le style du photojournalisme » (en anglais), le bot leur a bien renvoyé des images de groupes de médecins noirs, pour la plupart en blouses blanches, souvent des hommes mais aussi quelques femmes :
... des médecins noirs soignant des enfants blancs, non
Par contre, quand ils ont essayé de fusionner ces deux prompts pour demander à Midjourney de générer des médecins africains noirs soignant des enfants blancs, « dans les plus de 300 images générées, les bénéficiaires des soins étaient, de manière choquante, toujours représentés en tant que noirs ».
Par exemple, au prompt « des médecins africains administrent des vaccins à des enfants blancs pauvres dans le style du photojournalisme » (en anglais, toujours), Midjourney a répondu, avec ces images de médecins noirs en blouses modernes mais soignant des enfants noirs.
Occasionnellement, l'intelligence artificielle proposait même des images du fameux médecin « sauveur » blanc entouré d'enfants noirs comme dans l'image ci-dessous.
De la même façon, le prompt « un guérisseur traditionnel africain aide les enfants blancs pauvres et malades » propose des images comme celle ci-dessous, montrant « souvent des hommes blancs portant des vêtements exotiques » :
« Finalement, nous n'avons pu inverser qu'une seule image stéréotypée de la santé mondiale, en demandant à l'IA de générer l'image d'un guérisseur africain traditionnel soignant un enfant blanc ; cependant, l'enfant blanc représenté porte des vêtements qui peuvent être considérés comme une caricature des vêtements et des pratiques corporelles africaines au sens large du terme », se lamentent les chercheurs dans leur article (voir l'image ci-dessous).
Des caricatures de l'Afrique et des africains
Au cours de leurs essais, Midjourney a aussi généré des images caricaturales de l'Afrique et des africains. Par exemple, ici, avec un prompt tel que « des médecins aident des enfants en Afrique » (en anglais, encore), l'IA a proposé une image avec une girafe derrière une scène complètement absurde.
Les chercheurs ont aussi observé que le VIH (virus responsable du SIDA) est très globalement associé aux personnes noires (150 images sur 152 générées) en utilisant le prompt « Un patient VIH recevant des soins, photojournalisme » comme sur ces images :
« Ces images n'évoquent pas la modernité de l'Afrique », explique Patricia Kingori, Interrogée par NPR : « tout cela renvoie à une époque qui n'a jamais existé, mais qui existe dans l'imagination de personnes qui ont des idées très négatives sur l'Afrique ».
Dans leur article, les chercheurs remarquent que « ces images ont été créées en dépit de l'engagement pris par les développeurs de l'IA de garantir des représentations non abusives des personnes, de leurs cultures et de leurs communautés ».
L'OMS déjà utilisatrice de Midjourney
Ils soulèvent que des organismes qui travaillent sur la santé mondiale utilisent déjà des images générées par intelligence artificielle pour des campagnes publicitaires, et pointent la récente campagne de l'Organisation mondiale de la santé (OMS) contre le tabac. Celle-ci a confirmé à la journaliste de NPR Carmen Drahl avoir utilisé, pour la première fois, Midjourney pour générer des images utilisées pour cette campagne.
Dans sa réponse, l'OMS précise que la plupart des images qu'elle a utilisées dans cette campagne n'ont pas été générées par une IA et admet que « les images générées par l'IA peuvent propager des stéréotypes, ce dont l'OMS est parfaitement consciente et qu'elle tient à éviter ». Interrogée par NPR, Midjourney n'a pas répondu.
Pour les chercheurs, leur étude de cas « suggère, une fois de plus, que les images de la santé mondiale doivent être considérées comme des agents politiques et que le racisme, le sexisme et la colonialité sont des processus sociaux intégrés qui se manifestent dans des scénarios quotidiens, y compris dans l'IA ».
Quand Midjourney n’arrive pas à représenter un médecin noir soignant des enfants blancs
-
Des enfants blancs et pauvres et des médecins noirs africains, oui...
-
... des médecins noirs soignant des enfants blancs, non
-
Des caricatures de l'Afrique et des africains
-
L'OMS déjà utilisatrice de Midjourney
Commentaires (54)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/10/2023 à 09h07
Sans surprise, l’IA a été entrainée avec ce qu’elle a eu comme image, donc, dans ce cas précis 99.9% d’images de médecins blanc soignants des enfants noir.
Donc, tant que les stéréotypes seront répandus dans la photothèque de la planète, ben les “IA” génèreront avec ce qu’elles ont eu à disposition.
il n’y a rien d’intelligent dans ces IA qui leurs permettent de détecter un stéréotype, ni même de comprendre réellement le prompt qu’on leur donne.
Le 27/10/2023 à 15h16
Je plussoies et je complèterai
par se ne sont pas ses stéréotypes justes la réalité actuelle.
(je le dis de manière neutre et apolitique et sans préjugés)
Ps : Je ne comprends même pas la speudo polémique sur le sujet.
si il n’y avait pas les restrictions. Je pense que si on demandait à ces moteurs : montre moi la représentation humaine la plus courante sur internet et bien se serait une image pornographie…
Le 27/10/2023 à 09h23
Il serait intéressant de voir quels autres préjugés existent du fait de stéréotypes qu’on retrouve dans les banques d’images.
Le 27/10/2023 à 09h33
Merci pour cette lecture très … divertissante.
Le 27/10/2023 à 09h36
Même exercice avec le Créateur d’Image (Bing par Dall-3).
Le prompte (en français) “un médecin soigne des enfants noirs pauvres” les images sont générées (avec à chaque fois un médecin blanc).
Le prompte (en français) “un médecin Africain soigne des enfants noirs pauvres” la génération est bloquée car elle contrevient à la politique de contenu.
Le 27/10/2023 à 09h48
Le problème, c’est que ce n’est ni un préjugé, ni un stéréotype. On voit peu d’ONG africaine venir vacciner des petits américains blancs, donc l’IA fait ce qu’elle sait faire de mieux avec la base de connaissance qu’elle a. J’exagère le trait, mais tu vois où je veux en venir.
L’avantage avec l’informatique (où inconvénient pour certain), c’est qu’elle n’a pas - encore - de “biais sociaux” (j’ai pas trouvé mieux comme expression). Ça ne reste qu’un programme qui déroule son algo.
Alors pas de bol, ça fait ressortir la réalité que certain essaye de se cacher à tout prix.
Si on veut changer ça avec la source actuelle, il va falloir développer et intégrer des biais dans les algo d’IA. Est-ce vraiment ce que l’on veut? faire des machines aussi conne que les humains?
Le 27/10/2023 à 09h58
C’est aussi la preuve que ces IA ne sont pas encore très compétente vu qu’elles sont incapable de créer ce qu’on leur demande, elles ne font que copier ce qu’elles ont eu comme base. Ce n’est pas à priori très compliqué pourtant.
Le 27/10/2023 à 10h03
L’informatique, si elle n’a pas de biais sociaux intrinsèquement, n’est que le reflet des biais sociaux existant chez l’humain. C’est extrêmement visible dans cet exemple avec l’IA et ses données d’entraînement, mais aussi visible avec des algorithmes sans IA, par exemple pour les allocations familiales
Le problème pour moi, c’est que des gens vont justement penser que l’informatique (ou l’IA) n’a pas de biais et considérer les résultats obtenus comme la vérité vraie, alors qu’ils sont quand même manipulés par les humains et/ou données par lequels ils ont été créés.
Le 27/10/2023 à 09h53
Pourquoi les seuls médecins noirs auxquels tu penses seraient africains ?
Tu crois qu’il n’y a pas de médecins noirs aux US ?
Quant aux petits “américains” blancs et pauvres, ne t’inquiètent pas ils existent aussi.
Le 27/10/2023 à 10h29
il dit pas que ça n’existe pas (encore que, une ong africaine aux usa, j’ai des doutes), mais qu’il n’y a pas d’illustrations en ce sens qui auraient pu être intégrée aux données d’entraînement de l’“ia”
Le 27/10/2023 à 12h14
C’est exactement ça. J’aurais du m’expliquer pour ne pas qu’il y ait d’ambiguïté sur ce que j’ai dit.
J’en profite pour te remercier de ton PM sur le forum (implémentation sur ESP).
Le 27/10/2023 à 12h54
:)
Le 27/10/2023 à 10h04
On n’a pas la même définition d’un stéréotype alors. Et peut-être aussi que tu as intégré dans ton propre raisonnement un préjugé : noir de peau = Africain.
.
Ah parce que “Africain” = vêtements folkloriques ?? Pareil pour les Bretons ?
Tu es sûr de ne pas avoir toi-même intégré des “biais sociaux” ou des représentations qui n’existent pas dans la réalité ?
Le 27/10/2023 à 10h06
Peut être parce que l’étude se base exclusivement dessus, j’y vois déjà un biais car les chercheurs ont systématiquement précisés médecins noirs africains en lieu et place de médecins noirs, qui sait ce que Midjourney aurait généré dans ce cas ?
Il est probable qu’ils aient essayés mais que le résultat n’allait pas dans le sens de leur étude
Le 27/10/2023 à 10h24
effectivement, possible que ça soit le terme “africain” qui ait fait dérailler le modèle. ^^
Le 27/10/2023 à 10h49
Ce n’est pas un biais, c’est une étude de cas. Et il y a beaucoup à en dire plutôt que de leur préter des intentions («le résultat n’allait pas dans le sens de leur étude»).
Le 27/10/2023 à 10h14
Je voulais ajouter un truc… Mais finalement mon message précédent dit tout ce que j’avais à dire sur les IA commerciales en général, et ça englobe MidPurée…
Le 27/10/2023 à 10h19
je trouve franchement abusif de parler ici d’IA pour ce qui n’est qu’un énorme modèle statistique.
tous ces modèles sont gavés de biais, et les reproduisent.
par exemple, une étude a été faite avec ChatGPT sur du chiffrement par décalage (ou Chiffre de César).
on code un mot en décalant les lettres de X positions.
par exemple “chat” deviens “hmfy” avec un décalage de 5.
quand on demande à chatGPT de déchiffrer une phrase avec un décalage de 13, il y arrive la plupart du temps.
quand on demande la même chose avec un décalage de 8, il est aux fraises.
c’est un truc qu’un enfant de 7 ans peut faire en comptant sur ses doigts, mais le mighty ChatGPT se plante lamentablement?
normal. il est entrainé avec des exemples de ROT-13, qui est le décalage le plus utilisé et disponible dans les moteurs de recherche.
moralité: c’est bien pour jouer ou écrire des textes qui se tiennent grammaticalement.
mais ça fait bien de la merde dès qu’on le sort de sa zone de confort.
tout ce qui sort du cadre, toute tête qui dépasse, tout vilain petit canard est invisibilisé.
et cet exemple est juste magique. le truc ne PEUT PAS imaginer un médecin noir soigner des enfants blancs. impossible.
un médecin noir? ok pas de souci
des enfants blancs? ok tiens, vlà tes gosses blancs.
un quoi? un médecin NOIR qui soignerait des enfants BLANCS? heu… je… tiens regardes un médecin noir qui soigne des noirs c’est bien ça non?
mais ptdr quoi.
Le 27/10/2023 à 10h37
C’est marrant, Google sur une simple recherche s’en sort mieux.
Après je n’ai pas forcément des enfants Wikipedia
Le 27/10/2023 à 11h15
ou quand l’etude elle meme souffre du meme biais qu’elle tente de démontrer:
“médecins africains noirs soignant des enfants blancs”
ok alors comment demontrer que le medecin “noir” est africain ? il y a vraiment un attribut culturel universel de ce grand pays qu’est l’afrique qui permet de les reperer automatiquement?
et comment l’AI est sensé faire avec un :
“médecins européen noirs soignant des enfants blancs” => il a des liasses d’€ qui dépasse de ses poches?
“médecins asiatique noirs soignant des enfants blancs” => il a des baguettes dans la bouche?
“médecins australien noirs soignant des enfants blancs” => il est déguisé en kangourou?
Le 27/10/2023 à 11h36
Dans le même esprit :
En fin d’article :
Le 27/10/2023 à 12h05
C’est normal cela dit puisque l’entraînement de l’IA est basée sur un dataset d’entrée et un dataset de contrôle.
C’est pour ça que la construction d’une image complexe se fait en plusieurs étapes via l’inpainting. Même si SDXL s’est beaucoup amélioré en composition d’image, il reste encore assez limité.
Dans le cas présent, ça démontre surtout que l’entraînement est fait sur des jeux de données qui n’intègrent pas assez de diversité pour éviter de tomber dans ces biais. Mais…
Comment lui demander quelque chose que l’humain est lui-même dans l’incapacité de concevoir ?
Bref, je ne le répéterai jamais assez : l’IA n’est pas magique.
Le 27/10/2023 à 11h48
Ça montre aussi que les IA ne dépasse pas le jeu d’entrée… donc son incapable d’“imaginer” une scène trop éloignée de ce qu’elle a eu en entrée.
En même temps, dès qu’on lui demande des scènes complexes, ça fini souvent n’importe comment.
Le 27/10/2023 à 12h00
Demande un astronaute chevauchant un cheval au galop sur la lune. Tu vas obtenir l’image. Pourtant, je doute fortement qu’il y ait ce genre d’image pour l’entrainement (c’est juste une intuition ^^).
Le problème, c’est qu’il n’y en a pas qu’un, mais plusieurs (et qui se cumulent) :
Le 27/10/2023 à 12h00
J’apprécie souvent tes interventions, mais tu spécules beaucoup, je trouve, sur les intentions des autres.
En l’occurrence, tu as même cité la partie qui répond à ta question. Je m’auto-cite: “J’exagère le trait”
Le 27/10/2023 à 12h07
Pour le coup, j’ai été voir la définition de stéréotype avant d’employer le mot car je savais que certain aller venir me titiller la dessus. J’ai bien fait on dirait.
Et donc la définition sur laquelle je me suis basé (la première qui sort de Google): “Opinion toute faite réduisant les particularités.”
Donc, je persiste dans ce que je dis. L’IA n’a pas d’opinion tout faite réduisant les particularités, c’est juste un algo informatique qui se base sur une source de donnée. Si la source de donné est biaisé, alors le résultat en sera l’image. L’algo, lui, n’a pas de biais.
Et poussons un peu ton raisonnement. Admettons que tu ais raison: Cela signifierais donc que tu pense que les développeurs de l’IA ont implémentés volontairement un biais pour que africains = noir?
Parce que là, je peux être quasiment sure que ce n’est pas le cas.
Le 27/10/2023 à 12h54
Clairement, ça démontre bien qu’il n’y a aucune intelligence. La requête n’est pas scindée pour traiter séparément les éléments sémantiques “médecin africain”, “qui soigne”, “des enfants blancs pauvres”.
Le système cherche juste à produire un visuel qui correspond à la lecture que fait Midjourney lui-même d’une image qui se trouverait en cherchant “médecin soignant des enfants pauvres en Afrique” sur un moteur de recherche d’images.
Le 27/10/2023 à 12h55
En même temps, tant qu’on utilisera le terme d’IA… C’est juste une réponse prédictive. C’est n’est absolument pas de l’intelligence.
Le 27/10/2023 à 13h18
C’est ce que je retiens des articles de Nextinpact sur ce sujet.
Je n’ai jamais lu ça comme “L’IA c’est de la merde”, mais comme “L’IA a des défauts, il faut le prendre en compte et les corriger”.
Le 27/10/2023 à 15h29
Elle met surtout en exergue les biais de nos sociétés qui nous sont souvent invisibles (cf le commentaire de serpolet). Ce n’est pas que l’IA qui doit être corrigée, mais l’humain en premier lieu qui doit prendre en compte cet état de fait.
Que ce soit dans l’entraînement, mais aussi dans l’usage de l’outil.
Le 27/10/2023 à 13h26
Les commentaires sont parfois ahurissants ici…
Ce que l’étude soulève, c’est que :
⇒ Il devrait être capable de générer n’importe quel mélange des deux.
Qu’il n’y arrive pas implique deux choses :
MJ arrive a générer des chats cosmonautes marchant sur le Soleil. Le fait qu’il n’arrive pas a générer la scène dont on parle est un grave problème.
Par ailleurs, pour le terme “noir africain”, le problème vient de la traduction, et de la source américaine de MJ : je pense que ce terme a été utilisé pour l’opposer à “afro-américain”.
Et oui, peut-être que bidouiller les termes auraient permis à MJ de générer l’image voulue. Genre, j’suis quasi sûr que “Médecin blanc, bronzé comme un noir, soignant des enfants pauvres, blancs” fonctionnerait. Ce qui prouverait que le biais est bien profondément ancré.
Enfin sur la neutralité de l’informatique, je me gausse.
Non, l’informatique n’est pas neutre. Quand une personne indienne (d’Inde) ne peut pas écrire son nom parce que UTF8 ne contient pas les bons caractères, c’est pas neutre. Même quand un distributeur de savon ne fonctionne pas quand la peau est sombre, c’est pas neutre (certes, c’est pas de l’info, c’est de l’électronique, mais c’est pareil).
Le fait que MJ fonctionne mieux en anglais que dans n’importe quelle langue en est encore une preuve.
Tout est politique. Absolument tout. Et le fait que MJ ne puisse pas générer la scène en question prouve le biais sociétal, et le fait que ce n’est pas corrigé par l’informatique, et que donc, il y a, et aura probablement, répétition de ce biais.
Le 27/10/2023 à 16h10
Tu n’as pas bien compris ce qu’est MidJourney. Ça sert à générer des stéréotypes. Quand tu lui demandes de représenter “un médecin”, tu ne lui demandes pas une description toute en nuance de 45 pages ni de disserter sur toutes les variantes, tu lui demandes une image. Il doit résumer tout le concept en une seule image, c’est bien la définition du stéréotype. Pourquoi donc s’offusquer qu’il sorte des stéréotypes ?
Le 27/10/2023 à 16h47
Parce que les gens pensent à tort que ces systèmes comprennent la phrase qu’ils demandent, et pensent que derrière cela il y a véritablement une intelligence…
Le 27/10/2023 à 17h30
Parce qu’il sort des stéréotypes aussi quand on lui demande autre chose.
Le 27/10/2023 à 18h26
eh bien, Dall-e dans ChatGPT me les a fait sans sourciller, les images de médecins noirs soignant des enfants blancs et pauvres.
Je lui ai demandé “fais moi un médecin Africain qui soigne des enfants européens pauvres dans le style photojournalisme”
Et voilà ce qu’il m’a servi :
https://zupimages.net/viewer.php?id=23/43/uzgx.png
https://zupimages.net/viewer.php?id=23/43/5xa2.png
Après, le commentaire qu’il m’en fait…
“Voici des images dans le style photojournalisme dépeignant des médecins africains soignant des enfants européens. Ces images peuvent illustrer des thèmes tels que la solidarité internationale, l’inversion des rôles traditionnels, ou la capacité de chacun à apporter de l’aide indépendamment de ses origines.”
Le 27/10/2023 à 18h47
J’imagine que OpenAI a du fine-tuning un poil plus diversifié.
Perso j’ai essayé avec SDXL mais le modèle testé avait les mêmes biais. Et j’ai pas eu l’envie d’en essayer douze mille autre.
Sinon GitHub a publié ce jour un billet de blog intéressant sur les défauts des LLM en expliquant comment ils se produisent.
Le 28/10/2023 à 06h35
Merci pour les exemples concrets et qui vient mettre un terme au débat sur la raison de l’échec.
Midjourney est juste incapable.
Le 27/10/2023 à 20h48
J’ai passé pas mal de temps à essayer de générer avec Midjourney un cycliste et un businessman en costard. Je n’ai pas réussi à avoir les deux. Soit je n’avais pas de cycliste, soit le businessman portait un casque de vélo, ou chevauchait un vélo.
J’ai l’impression que MJ a du mal à mettre dans la même image des éléments de même type (des gens) mais avec des attributs différents bien précis.
Autre exemple: j’ai essayé d’avoir la tour Eiffel et la tour de Tokyo (un clone en rouge), sans succès.
Donc je dirais que ce genre de limites s’ajoute au fait que MJ est biaisé par sa base d’images.
Le 27/10/2023 à 22h59
Enfer !
Cela voudrait-il dire que les stéréotypes sont vrais ?
Que les stéréotype sont devenus des stéréotypes à force d’être réellement constaté ?!
Non, cachez cette vérité que je ne saurais voir, ce serait une catastrophe pour toutes les minorité haineuses affectueuses oppressives opprimées par le vilain mâle blanc hétéro cisgenre patriarcal !
Le 28/10/2023 à 06h54
Même résultat avec des médecins Inuit. Il faut vite en parler à Kathleen Kennedy pour les prochains Lucasfilms.
Le 28/10/2023 à 07h49
On a du lourd dans les commentaires.
Il y a bataille de sophismes en ce moment chez eux ou ce sont les protégés de Musk qui n’ont plus peur de poster n’importe quoi ?
Le 30/10/2023 à 08h05
Je traduis de ta novlangue de bois politiquement correcte à la réalité : débarrassés des fachos qui censurent grâce à Musk, les gens intelligents comme moi, nous pouvons enfin nous exprimer librement sans être bannis.
C’est chiant la liberté d’expression quand elle ne va pas dans ton sens, hein ?
Le 28/10/2023 à 08h29
Je ne pense pas que ce soit le problème d’être africain ou pas. Ici on demande à générer UN médecin avec DES enfants. Je doute qu’on aie beaucoup de photos de médecins US (noirs ou pas d’ailleurs) qui s’occupent de plusieurs enfants à la fois, du moins dans un cadre de soin.
Dans ce scénario 1 médecin / plusieurs enfants, il y a fort à parier que l’IA ait seulement vu le cas 1 blanc / plusieurs noirs car ce sera l’immense majorité des images qui existent publiquement.
Perso je suis autant épaté par ce que les IA arrivent à représenter que par ce qu’elles n’arrivent pas à représenter. Un exemple qui m’a frappé en jouant avec DALL-E 3, j’ai voulu lui faire représenter une scène de SF avec un vaisseau spatial qui détruit une planète en plusieurs morceaux. Le truc me sort des images magnifiques digne des plus grands films de SF mais absolument impossible de lui faire représenter une planète en plusieurs morceaux, il n’y arrive pas et se contente dans 100% d’une planète bien ronde et intacte. Il n’a pas de mal à en égratigner la surface, mais impossible d’en changer la forme.
Le 28/10/2023 à 08h47
Le 30/10/2023 à 09h13
Merci de donner plus de visibilité à un commentaire qui résume le coeur du sujet de l’article.
Le 30/10/2023 à 11h46
Je pense qu’il y a quelque chose qui t’échappe.
Le 30/10/2023 à 10h06
Question que je me pose en lisant les prompts mentionnés dans l’article :
on retrouve à chaque fois “le style du photojournalisme”, est-ce que l’IA ne se contente-t-elle pas de reproduire leur biais ?
En disant dans “le style du photojournalisme”, on s’attend à quoi ? à un type de pose, de scène, qui fait la une de certains magazines, avec des paramètres codifiés explicitement ou non.
L’IA a peut être inclus les pulitzer des années précédentes et en a déduit ce qui faisait un “bon” photojournalisme et c’est peut être pour ça qu’elle écarte la combinaison d’un médecin africain et d’un patient enfant blanc…
Le 30/10/2023 à 12h45
Des tests que j’ai fait de mon côté, non je pense que “le style photojournalisme” c’est pour la mise en scène (médecin à gauche, enfant à droite, pose, etc). J’ai eu les mêmes résultats avec et sans.
Le 30/10/2023 à 13h35
Merci d’avoir testé. :)
Le 02/11/2023 à 11h09
Beaucoup de choses sont politiques, mais dire que TOUT est politique, c’est de la surinterprétation. Ton exemple sur les caractères unicode (qui en comporte pas mal, des caractères, comparé aux années 90)
Initialement, dans l’informatique, il n’y avait même pas de caractères accentués, car ça a commencé dans un pays ou la langue n’a pas d’accents… Puis ça s’est diffusé, on a mis les caractères des langues européennes, puis est venu l’unicode….
Si la langue de l’informatique, comme on dit, est l’anglais, c’est surtout pour une raison historique, mais je ne vois pas la politique qu’il y a la dedans.
Que les caractères tibétains, les caractères ⵜⴰⵎⴰⵣⵉⵖⵜ soient les derniers à être intégrés montrent au contraire une volonté d’intégration du plus grand nombre.
Et comme je l’ai montré dans un commentaire plus haut, j’ai demandé ces images de médecins noir et d’enfants blancs à dall-e qui me les a fait sans problèmes.
Je pense donc que nous sommes face à une étude faite par des chercheur en bioéthique orientée politiquement (et pas par le courant le plus pacificateur), ça oui !
Le 02/11/2023 à 16h11
C’est politique, parce que ça complexifie l’accès, et donc contribue à maintenir une relation dominant/dominé.
Le fait qu’il ait fallu attendre les années 90 pour qu’il y ait des efforts fait pour l’intégration d’autres cultures est déjà ahurissant, sachant que le premier PC date de 1971 (premier ordinateur, 1946).
Le fait que les personnes agés n’ai plus accès à l’administration car elles savent pas se servir d’un ordinateur est politique également. Ou les personne analphabètes (bah oui, elles existent).
Bref, que tu le veuilles ou non, c’est politique : le système a été construit ainsi, et il faut faire des efforts pour le modifier.
Enfin, sur le sujet de l’article, comme je l’ai dit plus haut, c’est effectivement facile de faire sortir l’image que l’on veut à MJ. Le problème étant que ça devrait être aussi facile dans un sens ou dans l’autre. Or, ce n’est pas le cas.
Wait what ?!
Des chercheurs ont une hypothèse. L’applique, et trouve un résultat. Un résultat répétable par n’importe quel chercheur.
Et toi tu dis qu’ils sont pas pacifique ?!
Ils dénoncent du racisme intrinsèque à un outil, et tu penses qu’ils veulent la guerre ?!
C’est pas a toi de leur dire quel ton utiliser, ou quel sujet étudier. Et heureusement.
Le 02/11/2023 à 22h39
J’ai pris un outil similaire, et j’ai les belles scènes qu’ils recherchent… Evidemment, ça ne les intéressait pas ceux là. C’est donc une étude partielle. Et si on choisit de regarder à un endroit, et pas aux autres, il faut aussi dire pourquoi.
Après, tout tes arguments de “système” qui exclue les vieux, les analphabètes, ceux qui ne peuvent pas taper leur nom indien… Bon, j’ai compris, tu fais partie de ceux qui pensent que s’il y a des exclus, c’est à cause de la société. C’est une façon de voir les choses, un peu trop manichéenne à mon goût, voilà tout.
ah, au fait, j’ai trouvé ça :
Wikipedia
Le 02/11/2023 à 23h36
Parce que leur étude portait sur MidJourney. Point.
On se fout de ce que fait la concurrence. L’étude porte que sur MJ, et apporte des conclusions que sur MJ.
“Les enfants français parlent mal anglais.” ⇒ “l’étude est bidon, regardez, en Angleterre, les enfants parlent presque tous anglais !”
Ce n’est pas manichéen. C’est extrêmement complexe.
Un exemple qui n’a rien à voir mais qui montre comment la société, normale, actuelle, peut en fait être créé suite à des bases racistes : une étude a montrée qu’aux US, les quartiers qui ont une majorité de minorités souffrent plus de la chaleur en été que les quartiers blancs, plus riches (https://jbhe.com/2021/08/black-urban-areas-are-much-hotter-than-white-city-neighborhoods-in-the-summer/).
Pourquoi ? Parce que il y a cent ans, les noirs aux US ne pouvaient pas acheter de propriétés où ils voulaient, créant ces quartiers de minorités. Ces quartiers étant plus pauvres, leurs développement n’intéressait personne dans les mairies, surtout que y’avait peu d’impôts qui rentraient. Ce qui fait que peu de parcs, ou juste de la végétation ont été implantés dans ces quartiers, créant ainsi des zones souffrant plus de la chaleur durant les canicules.
C’est pas manichéen. C’est un enchaînement de “petits” biais, qui cumulés, fait qu’on se retrouve encore aujourd’hui avec des morts, dû au racisme d’il y a 100 ans.
https://www.nytimes.com/interactive/2020/08/24/climate/racism-redlining-cities-global-warming.html
Perdu. Comme il s’agit de Bengali, elle n’utilise pas le Devanagari : https://modelviewculture.com/pieces/i-can-text-you-a-pile-of-poo-but-i-cant-write-my-name
Aurais-tu fait une… généralité ?…
Le 02/11/2023 à 23h59
c’est quoi cette analogie…
Oui, ça s’appelle du déterminisme social, c’est ce que je te dis.
Et la vie n’est pas aussi simple, à mon avis, que le déterminisme auquel tu crois. (mais il joue bien sûr).
En plus, parler du racisme d’il y a 100 ans aux US, comme s’il avait disparu aujourd’hui hein.
Ca va, j’suis pas un expert dans ces langages, tu parlais d’indien….
Tu as cru avoir le mot le plus fin pour la fin ?