IA biaisée : la FTC rappelle qu’elle peut d’ores et déjà sévir
Le 21 avril 2021 à 08h43
2 min
Sciences et espace
Sciences
La Federal Trade Commission (FTC) rappelle que la loi l'autorise à interdire la vente ou l'utilisation, « par exemple », d'algorithmes biaisés à préjugés racistes, utilisés pour refuser aux gens un emploi, un logement, un crédit, une assurance ou d'autres avantages, ou qui entraîne une discrimination de crédit sur la base de la race, de la couleur, de la religion, de l'origine nationale, du sexe, de l'état matrimonial, de l'âge, ou parce qu'une personne reçoit une aide publique.
Elle indique avoir déjà utilisé son expertise pour rendre compte de l'analyse des mégadonnées et de l'apprentissage automatique, mener une audition sur les algorithmes, l'IA et l'analyse prédictive, mais également pour initier plusieurs actions contre des entreprises ayant trompé ou induit en erreur leurs utilisateurs et clients.
Elle enjoint les développeurs d’intelligences artificielles à se comporter de manière responsable vis-à-vis des performances de leurs algorithmes, dire la vérité sur la façon dont ils utilisent les données, à « ne pas trop promettre » sur leurs fonctionnalités, et à « faire plus de bien que de mal », rappelant qu’en vertu de la loi FTC, « une pratique est injuste si elle cause plus de mal que de bien ».
Le 21 avril 2021 à 08h43
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/04/2021 à 09h16
Mais si l’algo se base sur la situation sociale, ce n’est pas biaisé ?
Autre question : faut-il travaillé sur des données représentatives, ou des données équilibrées ?
Le 21/04/2021 à 10h15
On se souvient de l’expérience avortée du recrutement chez Amazon par une IA:
Amazon avait arrêté l’expérience car les statistiques issues des recrutements avaient révélé une très nette préférence pour les hommes blancs et un rejet très important des femmes et des noirs.
On ne peut pas vraiment dire que l’IA était misogyne et raciste, mais que l’apprentissage de l’IA s’était sans doute basé sur les recrutement passé d’Amazon et qu’au lieu d’être plus neutres les recrutements par l’AI avaient, au contraire, renforcé les tendances de recrutements.
Le 21/04/2021 à 11h25
Amen
Par contre appliquer ce genre de choses dans d’autres domaines, ils peuvent aux USA ? Comme ne pas envahir un pays ou forer pour du pétrole ?
Le 21/04/2021 à 15h05
C’est le problème d’une IA qui devient trop intelligente.
Par exemple, si elle découvre qu’en France l’écrasante majorité des détenus sont d’origine étrangère, noirs ou maghrébins, elle aura tendance à faire un lien entre immigration et délinquance, il faut donc à tout prix brider l’IA pour ne pas que ses algos arrivent à des conclusions interdites de ce genre !
Le 21/04/2021 à 20h38
Même sans parler de données biaisées, l’IA ne ressort que ce qu’elle a appris, elle ne tire pas de conclusions ni d’interprétations. Pour reprendre l’exemple de la prison de Witcher, l’IA ne fera pas le lien entre immigration et délinquance, elle dira juste qu’un immigré a plus de chance d’être en prison…
Donc (au moins) deux points qu’un développeur d’IA doit prendre en compte pour ne pas avoir une IA biaisée :
Le 21/04/2021 à 16h43
Ca m’échappe cette histoire de responsabilité.
Si l’algo est indépendant, apprend par lui même, et conclut une chose par lui même, alors c’est un algo parfait.
Par contre si on lui indique de ne pas prendre certains chemins, c’est là que c’est complètement biaisé.
Le 21/04/2021 à 17h04
L’algorithme ne peut pas apprendre “par lui même”, il ne peut se baser que sur les données qu’on veut bien lui fournir. Si on ne lui présente que des cas où des Noirs sont coupables et des Blancs sont innocents, il apprendra par lui-même que…
C’est ce qu’on reproche aux AI déployées actuellement, c’est que les données d’apprentissages sont biaisées en fonction de caractéristiques physiques (généralement parce que l’échantillon n’est pas représentatif pour certains teints de peau)
Le 21/04/2021 à 18h38
Possible, mais orienter l’algo c’est une hérésie quand on parle d’IA.
Une seule et unique solution : Lui donner un jeu de donnée plus large, non filtré.
Le 21/04/2021 à 18h57
orienter l’algo c’est exactement ce que faisaient les responsables éthiques (ethniques ?) que Google a viré.
Le 22/04/2021 à 06h58
C’est pas si simple, si les données ne sont pas un minium orienté ton IA va pas trouver grand chose.
Data scientist est un métier compliqué :
Donner à manger à ton IA un sous-lot en espérant qu’elle apprenne quelque chose.
Quand l’IA a assez appris tu lui donne à manger un autre échantillon et vérifie ce qu’elle trouve.
Chaque point est complexe et source de biais :
Et même si tous les astres sont alignés, ton IA peut trés bien… ne rien apprendre ou apprendre n’importe quoi : il faut alors jeter ton modèle d’apprentissage à la poubelle, ajusté un paramètre (par ex être moins sensible aux couleurs, ou aux formes) et refaire tourner ton IA de zéro.
Le 22/04/2021 à 14h04
Le problème c’est qu’un humain est très mal équipé pour dire que “ce jeu de données est sans biais”. La route de l’enfer est pavée de bonnes intentions, et un développeur peut très bien enclencher une catastrophe en croyant bien faire.
Un bête exemple, la reconnaissance faciale. Elle sera moins précise sur les visages foncés parce que les cellules CCD sont calibrées pour rendre une image semblable à celle d’une photo papier, procédé qui était calibré pour rendre au mieux les visages des clients de chez Kodak, qui étaient plutôt clairs de peau (je n’ai pas dit blanc, au soleil, la plupart prenaient une belle teinte rouge vif)…
Tu peux danser sur ta tête, augmenter le jeu de données n’y changera rien… Un humain, même venant du plus profond du bassin du Limpopo n’y verra aucun biais, puisque les images qu’il audite sont conformes à ce qu’il a toujours vu à la télévision…
Le 22/04/2021 à 14h07
L’autre souci du cerveau humain : confondre corrélation et causalité…