Les afro-américains sont aussi discriminés par les assistants vocaux
Le 27 mars 2020 à 08h41
1 min
Sciences et espace
Sciences
Les systèmes de reconnaissance vocale ont plus de mal à comprendre les voix des utilisateurs noirs que celles des utilisateurs blancs, selon une nouvelle étude de Stanford repérée par The Verge.
Les chercheurs ont utilisé des outils de reconnaissance vocale d'Apple, d'Amazon, de Google, d'IBM et de Microsoft pour transcrire des entretiens avec 42 blancs et 73 noirs, aux États-Unis.
Les outils ont mal identifié des mots environ 19 % du temps pendant les entretiens avec des blancs et 35% du temps pendant les entretiens avec des noirs. 2 % des extraits audio de personnes blanches étaient illisibles, contre 20 % de ceux de personnes noires.
Les erreurs étaient particulièrement importantes pour les hommes noirs, avec un taux d'erreur de 41 % contre 30 % pour les femmes noires.
Le 27 mars 2020 à 08h41
Commentaires (33)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/03/2020 à 08h50
L’article qui veut dénoncer les racistes et qui pour ça utilise des argument racistes. En fait c’est tout à fait normal, ce genre d’erreurs arrive selon la couleur dominante dans un pays. Un système de reco facial en chine aura du mal à reconnaitre des non bridés, alors qu’un système de reco facial en arabie saoudite pourra au passage vérifier l’acuité de tes yeux. De la même façon qu’en france qu’un chti qui passe à bfm sera sous titré.
ps : humour hein !
Le 27/03/2020 à 08h52
Alors déjà, comment une reconnaissance vocale, peut-elle reconnaître une couleur de peau ?
Réponse : elle n’a aucun moyen de le faire.
Donc aller dire qu’un assistant vocal discrimine sur la couleur de peau, c’est mensonger. Et émettre la conclusion que du coup, ça discrimine des afro-américains, c’est aussi un mensonge.
Comme en physique, ce n’est pas parce qu’on observe un certain résultat, qu’on sait en déduire correctement la cause.
Le 27/03/2020 à 09h12
Le 27/03/2020 à 09h16
Pas de discrimination ici, juste un manque d’échantillonnage.
Que je sache c’est basé sur du deep learning. Si une population veut être mieux reconnue, il faut nourrir l’IA avec des voix de cette dernière.
Pour la reconnaissance faciale chinoise dont parle @skankhunt42, l’état chinois a échanger des données photos avec des états africains pour améliorer celle-ci sur la reconnaissance des visages noirs.
Le 27/03/2020 à 09h25
On a vraiment toutes les données de cette étude ? Quid de l’origine géographiques et sociale, qui seule conditionne l’accent des personnes, pas la couleur de peau ?
Qu’un système de reconnaissance vocale ait plus de mal à reconnaître des accents et des parlers “populaires”, ça n’a rien d’étonnant, c’est généralement calibré pour un accent “standard”. Qu’ils essaient maintenant avec des cockneys ou des écossais pur jus, les résultats risquent d’être étonnants…
Il suffit que les noirs de cette étude viennent pour la plupart de quartiers populaires pour que la conclusion ne veuille plus rien dire…
A titre personnel, je comprends nettement mieux les noirs dans les séries américaines avec leur timbre de voix plus grave, que les blancs et leur accent Donald Duck crispant… " />
Le 27/03/2020 à 09h38
Je mets un billet que les rednecks aussi sont moins bien compris
Où sont les pleurnichards pour penser à ces pauvres discriminés?
Ma mère est ch’ti, elle est moins bien comprise, c’est une discrimination ?
Le 27/03/2020 à 09h38
Le 27/03/2020 à 10h04
Je profite de cette actualité pour rappeler l’existence de Common Voice, projet de reconnaissance vocale libre auquel tout le monde peut contribuer (ce qui permet de passer le temps de façon utile en cette période de confinement) " />
C’est la seule véritable alternative aux grandes entreprises chinoises ou américaines, qui permettrait de construire des assistants personnels ou d’équiper les objets du quotidien d’une reconnaissance vocale respectueuse des utilisateurs et de leur vie privée.
Le 27/03/2020 à 10h04
Le 27/03/2020 à 10h07
Pas mieux.
Si les assistants vocaux sont “calibrés” pour comprendre le New-Yorkais CSP-CSP+ (le client type pour ce genre de conneries en même temps) je soupçonne que ces machins doivent avoir nettement plus de difficultés à comprendre des populations à l’accent plus “typé” (pour avoir tenté, sans grand succès, de discuter avec un texan je doutes qu’un assistant vocal comprennent 100% de ce qu’il raconte, même les collègues du gars avaient parfois du mal à le comprendre alors qu’ils discutent avec tous les jours " />)
Le 27/03/2020 à 10h12
A mon avis là on a plein dans le paradoxe de Simpson.
A ma connaissance la couleur de peau n’influe pas sur voie.
Le problème ne se situe sûrement donc pas sur la couleur de peau mais autre part.
Le 27/03/2020 à 10h26
Comme toujours, on donne des % sans les chiffres derrières. Cela ne veut rien dire… Si y’a 2 pelés dans chaque bras…
Le 27/03/2020 à 10h39
Le 27/03/2020 à 10h42
On a eu le même genre de discrimination pendant des décennies avec les pellicules pour appareils photos.
Les pellicules photo n’ont pas été conçues pour les peaux noires
Idem pour la reconnaissance faciale.
Le 27/03/2020 à 11h13
Le 27/03/2020 à 11h16
Le 27/03/2020 à 11h19
j’ai un collègue qui a un timbre de voix dans les graves, j’ai parfois du mal à le comprendre, et c’est pas un problème d’accent, c’est vraiment sa voix
et que certaines populations ait des “tendances” sur le timbre de voix ne me surprendrait pas du tout, à mon avis (de comptoir hein, je prétend pas être un expert du tout) ça peut tout simplement venir de là, et effectivement un manque d’échantillonnage sur ce type de voix.
cela-dit, le coup de l’accent “populaire” vs “csp+” est aussi un biais possible
Le 27/03/2020 à 11h19
Le 27/03/2020 à 11h49
Pour moi, discriminer c’est faire un choix. Je doute fortement que l’assistant demande aux utilisateur s’ils sont afro-américains et fait le choix de moins reconnaître leur voix.
Il est en revanche beaucoup plus problable que l’algorithme de reconnaissance vocale ait été entraîné avec des échantillons de population représentatifs de ceux qui accèdent à ce service.
#Groink n’a pas tort. Ce type de news est uniquement là pour alimenter le fantasme du racisme. La voix, la diction, l’intonation, le vocabulaire sont fortement conditionnés par la culture. Chacun sait que nous sommes peut-être tous égaux mais nous avons des cultures différentes.
Le 27/03/2020 à 12h03
Le 27/03/2020 à 12h17
Le 27/03/2020 à 12h30
Le 27/03/2020 à 12h40
Le 27/03/2020 à 13h38
“Les afro-américains sont aussi discriminés par les assistants vocaux”
Enchainé avec :
“Les systèmes de reconnaissance vocale ont plus de mal à comprendre les
voix des utilisateurs noirs que celles des utilisateurs blancs”
==> Le rapport est fait dès la première phrase de l’article, avec le titre, sur la couleur de peau. Je n’invente rien.
Enfin l’article source ne semble pas parler de discrimination envers les afro-américains. Celui de NextInpact le fait, et le fait de manière appuyée “sont AUSSI discriminés par”.
De même, je n’invente rien.
Le 27/03/2020 à 17h03
Le 27/03/2020 à 18h48
Ce que je retiens c’est surtout que 2 % des blancs on un accent affro, ça c’est vraiment pas normal. " />
Le 28/03/2020 à 11h37
L’étude en disponible en remontant la source de la source :
https://www.pnas.org/content/early/2020/03/17/1915768117
Le 28/03/2020 à 16h58
Faut filtrer les ‘wesh gro bien ou bien’ en début de chaque phrase. En revanche pour le nakamura j’ai pas de solution. Je suppose que c’est du scat et qu’il est illusoire d’y chercher un sens.
Le 28/03/2020 à 21h30
article raciste, bravo NI…. je ferme mon compte
Le 28/03/2020 à 22h25
Le 29/03/2020 à 13h43
Et si tout simplement il s’agissait d’un problème de prononciation, de vocabulaire, syntaxe…
Le 29/03/2020 à 17h52
" />
" />
" />
" />
" />
" />
" />
Le 29/03/2020 à 19h28
J’ajouterai bien ceci !