L'agence européenne des droits fondamentaux met en garde contre les biais algorithmiques

L’agence européenne des droits fondamentaux met en garde contre les biais algorithmiques

Oups

Avatar de l'auteur

Martin Clavey

Publié dansSociété numérique

13/12/2022
6
L'agence européenne des droits fondamentaux met en garde contre les biais algorithmiques

L'Agence des droits fondamentaux de l'Union européenne a publié récemment un rapport sur les biais des algorithmes, notamment quand ils sont utilisés pour la modération de contenus et la police prédictive.

Dans un rapport du 8 décembre (PDF), l'Agence des droits fondamentaux de l'Union européenne (Fundamental Rights Agency ou FRA) a mis en place deux études de cas sur les biais algorithmiques. L'une se penche sur leur amplification par les algorithmes dans les dispositifs de police prédictive. L'autre analyse les biais ethniques et de genre des outils utilisés pour détecter les discours de haine en ligne. Biais qui les conduisent parfois à des résultats absurdes menant à la discrimination de femmes ou de certaines catégories de personnes.

Le rapport affirme que l'utilisation de l'Intelligence artificielle peut toucher beaucoup de droits fondamentaux. Les rapporteurs prennent notamment l'exemple d'algorithmes biaisés par le service des impôts néerlandais en 2020 qui ont conduit à l'accusation de fraude de plus de 26 000 parents sur leurs demandes d'allocations de garde d'enfants. Beaucoup de ces parents avaient un passé d'immigration.

La FRA explique que bien qu'il y ait depuis récemment un éclairage sur le problème des biais dans les algorithmes, « Malgré l'attention accrue portée récemment au problème du biais dans les algorithmes, ce domaine ne dispose toujours pas d'une base de preuves tangibles qui s'appuie sur des évaluations techniques des algorithmes en pratique et de leurs résultats ».

C'est dans cette perspective que l'agence s'est penchée sur ces deux études de cas.

Boucle de rétroaction et police prédictive

La FRA explique que les algorithmes de machine learning peuvent créer une boucle de rétroaction, c'est-à-dire qu'en faisant des prédictions, ils peuvent influencer ce qu'il se passe sur le terrain et ensuite renforcer dans le même sens leurs prédictions.

Elle ajoute que ces rétroactions peuvent être particulièrement problématiques sur les outils de police prédictive. « Par exemple, si le système « détecte » plus de crimes dans une zone A et décide d'y envoyer plus de patrouilles, encore plus de crimes y seront enregistrés, et les données correspondantes à cette zone seront alimentées dans le système, renforçant la « croyance » du système qu'il y a plus de crime dans la zone A », explique le rapport.

Et la rétroaction peut « s'emballer » et finir par recommander une seule solution en surestimant certaines données. Ce qui, dans un système de police prédictive, peut se caractériser par l'envoi de troupes de police toujours dans les mêmes quartiers, avec un effet de sur-représentation policière dans ceux-ci pendant que d'autres quartiers auraient une sous-représentation policière.

Deux simulations de police prédictive

La FRA a conduit deux simulations de police prédictive utilisant du machine learning qui montrent que ces boucles de rétroaction peuvent se mettre en place dans de tels systèmes.

La première simulation compare l'utilisation d'un modèle probabiliste et le machine learning dans seulement deux quartiers. Les chercheurs de la FRA constatent que les boucles de rétroaction n'arrivent que lorsqu'un algorithme de machine learning (une classification naïve bayésienne, en l'occurrence) est utilisé.

Police prédictive rétroaction biais algoCrédits : FRA

Après avoir analysé les boucles de rétroaction de ce système, ils concluent que la distribution initiale des patrouilles est un facteur significatif de leur formation. Les chercheurs observent aussi que les biais internes des modèles de machine learning accélèrent ces boucles de rétroaction.

Ces biais jouent aussi un rôle important dans leur formation quand le nombre de crimes reportés est le même dans les différents quartiers. Mais elles peuvent aussi se produire quand le risque de crimes avec une présence policière est différent d'un quartier à un autre. Les chercheurs de la FRA soulignent qu'on peut observer ce phénomène dans la situation réelle de Bogota, en Bolivie.

La deuxième simulation, que les chercheurs ont appelée « Earthquake policing model », commence avec 25 quartiers qui ont le même taux de criminalité et le même risque de crimes alors que la police y est présente, mais dont l'historique de criminalité diffère.

Après 365 jours, le taux estimé des cinq quartiers où l'historique était le plus haut a augmenté alors que celui des autres a diminué et que le taux réel est resté le même. Les chercheurs soulignent que cette simulation montre l'importance de l'historique de criminalité dans ce genre de boucle de rétroaction des logiciels de police prédictive.

Préjugés ethniques et de genre dans la détection de discours de haine

Se penchant sur les préjugés ethniques et de genre dans la détection de discours de haine, les chercheurs de la FRA ont développé puis entrainé trois algorithmes de détection (du relativement simple à un modèle plus avancé) sur trois langues différentes (anglais, allemand et italien) en utilisant des bases de données accessibles publiquement et contenant des textes étiquetés comme haineux ou non.

Les chercheurs font déjà remarquer que la définition d'un discours haineux n'est pas la même pour tout le monde et que cet étiquetage est encore une autre source de biais des algorithmes de détection des discours haineux. En 2019, un groupe de chercheurs résumait ce problème en quatre mots : « garbage in, garbage out » ou « foutaises en entrée, foutaises en sorties » dans la langue de Molière. 

Ils ont ensuite généré une nouvelle base de données de phrases inventées basée sur des sources de tests de biais déjà existantes, incluant des phrases neutres ou positives, des pronoms genrés en allemand et en italien, ainsi que les versions féminines et masculines de différents mots.

Puis ces chercheurs ont regardé les faux positifs et les faux négatifs que les algorithmes de détection généraient. Le taux de faux positifs indique le potentiel de censure injustifiée, tandis que le taux de faux négatifs indique la part des commentaires jugés offensants par les humains qui ne sont pas pris en compte par l'algorithme.

Leur constat est qu'il y a des différences considérables entre la prédiction de la qualification de haine d'un discours à propos des différents groupes ethniques et nationalité dans l'ensemble des données de test. Cette variation touche en retour la probabilité qu'une phrase soit qualifiée de haineuse ou non. Or, les décisions des modèles sont basées sur ce genre de seuils.

Si dans leurs conclusions, les chercheurs expliquent que leurs résultats ne peuvent pas être généralisés à tous les algorithmes de détection de ce genre, ils affirment qu'on peut y voir quand même certains motifs redondants. Ils font aussi remarquer que certains préjugés n'amènent pas forcément à de la discrimination.

6
Avatar de l'auteur

Écrit par Martin Clavey

Tiens, en parlant de ça :

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Et bonne nuit les petits

00:04 Next 6
dessin de Flock

#Flock distribue des mandales tous azimuts

13:40 Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

11:47 Next 34

Sommaire de l'article

Introduction

Boucle de rétroaction et police prédictive

Deux simulations de police prédictive

Préjugés ethniques et de genre dans la détection de discours de haine

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

652e édition des LIDD : Liens Intelligents Du Dimanche

Next 6
dessin de Flock

#Flock distribue des mandales tous azimuts

Flock 14
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #11 et résumé de la semaine

Next 34
Carte graphique AMD GeForce

Cartes graphiques : 30 ans d’évolution des GPU

Hard 19

Google lance son opération de communications Gemini pour rivaliser avec OpenAI

IA 6
Ecran bleu de Windows

Linux : le composant systemd se dote d’un écran bleu de la mort

Soft 36
Une petite fille en train d'apprendre à programmer et hacker logiciels et appareils électroniques

Un roman graphique explique les logiciels libres aux enfants

SoftSociété 20
Nouveautés pour Messenger

Meta lance (enfin) le chiffrement de bout en bout de Messenger, entre autres

Socials 5

#LeBrief : cloud européen, OSIRIS-REx a frôlée la catastrophe, CPU AMD Ryzen 8040

Windows en 2024 : beaucoup d’IA, mais pas forcément un « 12 »

Soft 21
Einstein avec des qubits en arrière plan

Informatique quantique, qubits : avez-vous les bases ?

HardScience 9
Notifications iPhone

Surveillance des notifications : un sénateur américain demande la fin du secret

DroitSécu 17

En ligne, les promos foireuses restent d’actualité

DroitWeb 19

#LeBrief : modalité des amendes RGPD, cyberattaque agricole, hallucinations d’Amazon Q, 25 ans d’ISS

Logo Twitch

Citant des « coûts prohibitifs », Twitch quitte la Corée du Sud

ÉcoWeb 29
Formation aux cryptomonnaies par Binance à Pôle Emploi

Binance fait son marketing pendant des formations sur la blockchain destinées aux chômeurs

Éco 10
Consommation électrique du CERN

L’empreinte écologique CERN en 2022 : 1 215 GWh, 184 173 teqCO₂, 3 234 Ml…

Science 6
station électrique pour voitures

Voitures électriques : dans la jungle, terrible jungle, des bornes de recharge publiques

Société 77

#LeBrief : intelligence artificielle à tous les étages, fichier biométrique EURODAC

KDE Plasma 6

KDE Plasma 6 a sa première bêta, le tour des nouveautés

Soft 13
Un homme noir regarde la caméra. Sur son visage, des traits blancs suggèrent un traitement algorithmique.

AI Act et reconnaissance faciale : la France interpelée par 45 eurodéputés

DroitSociété 4
Api

La CNIL préconise l’utilisation des API pour le partage de données personnelles entre organismes

SécuSociété 3
Fouet de l’Arcep avec de la fibre

Orange sanctionnée sur la fibre : l’argumentaire de l’opérateur démonté par l’Arcep

DroitWeb 23
Bombes

Israël – Hamas : comment l’IA intensifie les attaques contre Gaza

IA 22

#LeBrief : bande-annonce GTA VI, guerre électronique, Spotify licencie massivement

Poing Dev

Le poing Dev – Round 7

Next 103
Logo de Gaia-X sour la forme d’un arbre, avec la légende : infrastructure de données en forme de réseau

Gaia-X « vit toujours » et « arrive à des étapes très concrètes »

WebSécu 7

Trois consoles portables en quelques semaines

Hard 37
Une tasse estampillée "Keep calm and carry on teaching"

Cyberrésilience : les compromis (provisoires) du trilogue européen

DroitSécu 3

#LeBrief : fuite de tests ADN 23andMe, le milliard pour Android Messages, il y a 30 ans Hubble voyait clair

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (6)


vince120 Abonné
Le 13/12/2022 à 09h08

C’est d’autant plus flippant de se dire que les plateformes ont mis en place ce type d’outils pour le retrait automatisé en 24h “à spectre large” parce qu’ils sont punissable en cas de faux négatif mais n’ont aucune obligation de remise en ligne en cas de faux positif…


Tandhruil
Le 13/12/2022 à 09h11

On ne pourrait pas parler de préjugés sexistes plutôt que de préjugés de genre ? Le genre est un préjugé en lui-même puisqu’il associe un sexe à un stéréotype.


RuMaRoCO Abonné
Le 13/12/2022 à 13h41

Pt être parcequ’il parle d’abord du lexique et non des individus ?


carbier Abonné
Le 13/12/2022 à 09h51

C’est surtout la conclusion qu’il faut retenir:




les chercheurs expliquent que leurs résultats ne peuvent pas être généralisés à tous les algorithmes de détection de ce genre




Concernant le 1er exemple, on voit qu’il s’agit d’une fonction simple qui par défaut va tendre vers zéro. Or dans le cadre de la gestion des patrouilles de police, le minimum serait de pondérer les résultats par le nombre de patrouille, ce qui a un moment devrait arriver à un équilibre qui ne serait ni 0 ou 1 mais plus proche du vrai taux de criminalité d’un quartier.



Pour le second cas, désolé je n’ai rien compris. C’est beaucoup trop vague.



Exemple:




Ils font aussi remarquer que certains préjugés n’amènent pas forcément à de la discrimination.




Il faut rajouter à un temps T.
Car des préjugés répétés ad vitam eternam finissent par aboutir à de la discrimination sur le long terme.


Maxt Abonné
Le 13/12/2022 à 09h52

Quand on lit récemment que Musk veut prioriser la modération algorithmique sur son réseau social pour remplacer les équipes de modérations humaines virées d’un simple email, ça ne va pas aller en s’améliorant sur Twitter..


vizir67 Abonné
Le 13/12/2022 à 10h32

on le voit tous les jours, on se repose TROP su “l’IA.” !
jusqu’au prochain crash, mais il faut ça, AV. de réagir !




  • à chaque fois c’est pareil = “la prévention” : quésako ?