IA biaisée : la FTC rappelle qu'elle peut d'ores et déjà sévir

IA biaisée : la FTC rappelle qu’elle peut d’ores et déjà sévir

IA biaisée : la FTC rappelle qu'elle peut d'ores et déjà sévir

La Federal Trade Commission (FTC) rappelle que la loi l'autorise à interdire la vente ou l'utilisation, « par exemple », d'algorithmes biaisés à préjugés racistes, utilisés pour refuser aux gens un emploi, un logement, un crédit, une assurance ou d'autres avantages, ou qui entraîne une discrimination de crédit sur la base de la race, de la couleur, de la religion, de l'origine nationale, du sexe, de l'état matrimonial, de l'âge, ou parce qu'une personne reçoit une aide publique.

Elle indique avoir déjà utilisé son expertise pour rendre compte de l'analyse des mégadonnées et de l'apprentissage automatique, mener une audition sur les algorithmes, l'IA et l'analyse prédictive, mais également pour initier plusieurs actions contre des entreprises ayant trompé ou induit en erreur leurs utilisateurs et clients. 

Elle enjoint les développeurs d’intelligences artificielles à se comporter de manière responsable vis-à-vis des performances de leurs algorithmes, dire la vérité sur la façon dont ils utilisent les données, à « ne pas trop promettre » sur leurs fonctionnalités, et à « faire plus de bien que de mal », rappelant qu’en vertu de la loi FTC, « une pratique est injuste si elle cause plus de mal que de bien ».

Commentaires (12)


Mais si l’algo se base sur la situation sociale, ce n’est pas biaisé ?
Autre question : faut-il travaillé sur des données représentatives, ou des données équilibrées ?


On se souvient de l’expérience avortée du recrutement chez Amazon par une IA:
Amazon avait arrêté l’expérience car les statistiques issues des recrutements avaient révélé une très nette préférence pour les hommes blancs et un rejet très important des femmes et des noirs.
On ne peut pas vraiment dire que l’IA était misogyne et raciste, mais que l’apprentissage de l’IA s’était sans doute basé sur les recrutement passé d’Amazon et qu’au lieu d’être plus neutres les recrutements par l’AI avaient, au contraire, renforcé les tendances de recrutements.



rappelant qu’en vertu de la loi FTC, « une pratique est injuste si elle cause plus de mal que de bien ».




Amen



Par contre appliquer ce genre de choses dans d’autres domaines, ils peuvent aux USA ? Comme ne pas envahir un pays ou forer pour du pétrole ?


C’est le problème d’une IA qui devient trop intelligente.
Par exemple, si elle découvre qu’en France l’écrasante majorité des détenus sont d’origine étrangère, noirs ou maghrébins, elle aura tendance à faire un lien entre immigration et délinquance, il faut donc à tout prix brider l’IA pour ne pas que ses algos arrivent à des conclusions interdites de ce genre !



(quote:1869052:33A20158-2813-4F0D-9D4A-FD05E2C42E48)
L’algorithme ne peut pas apprendre “par lui même”, il ne peut se baser que sur les données qu’on veut bien lui fournir. Si on ne lui présente que des cas où des Noirs sont coupables et des Blancs sont innocents, il apprendra par lui-même que…



C’est ce qu’on reproche aux AI déployées actuellement, c’est que les données d’apprentissages sont biaisées en fonction de caractéristiques physiques (généralement parce que l’échantillon n’est pas représentatif pour certains teints de peau)




Même sans parler de données biaisées, l’IA ne ressort que ce qu’elle a appris, elle ne tire pas de conclusions ni d’interprétations. Pour reprendre l’exemple de la prison de Witcher, l’IA ne fera pas le lien entre immigration et délinquance, elle dira juste qu’un immigré a plus de chance d’être en prison…



Donc (au moins) deux points qu’un développeur d’IA doit prendre en compte pour ne pas avoir une IA biaisée :




  1. base d’apprentissage représentative et non faussée.

  2. IA n’interprète rien, elle sort juste la tendance par rapport à ce qu’elle a appris.


Ca m’échappe cette histoire de responsabilité.



Si l’algo est indépendant, apprend par lui même, et conclut une chose par lui même, alors c’est un algo parfait.



Par contre si on lui indique de ne pas prendre certains chemins, c’est là que c’est complètement biaisé.


L’algorithme ne peut pas apprendre “par lui même”, il ne peut se baser que sur les données qu’on veut bien lui fournir. Si on ne lui présente que des cas où des Noirs sont coupables et des Blancs sont innocents, il apprendra par lui-même que…



C’est ce qu’on reproche aux AI déployées actuellement, c’est que les données d’apprentissages sont biaisées en fonction de caractéristiques physiques (généralement parce que l’échantillon n’est pas représentatif pour certains teints de peau)



(reply:1869052:33A20158-2813-4F0D-9D4A-FD05E2C42E48)




Possible, mais orienter l’algo c’est une hérésie quand on parle d’IA.
Une seule et unique solution : Lui donner un jeu de donnée plus large, non filtré.



snowludo a dit:


Possible, mais orienter l’algo c’est une hérésie quand on parle d’IA. Une seule et unique solution : Lui donner un jeu de donnée plus large, non filtré.




orienter l’algo c’est exactement ce que faisaient les responsables éthiques (ethniques ?) que Google a viré.



snowludo a dit:


Une seule et unique solution : Lui donner un jeu de donnée plus large, non filtré.




C’est pas si simple, si les données ne sont pas un minium orienté ton IA va pas trouver grand chose.
Data scientist est un métier compliqué :




  • Il faut trouver des échantillons de données gros sans a priori,

  • Faire le travail manuellement de reconnaissance (par ex : reconnaître un feu tricolore, ou un passage-piétons dans un catcha :) )

  • Re-Vérifier les données,

  • Scinder ton gros échantillon en sous lots.



Donner à manger à ton IA un sous-lot en espérant qu’elle apprenne quelque chose.
Quand l’IA a assez appris tu lui donne à manger un autre échantillon et vérifie ce qu’elle trouve.



Chaque point est complexe et source de biais :




  • Les données ne doivent pas avoir de biais statistiques et être représentative sinon l’IA va apprendre ce biais : SI tu donnes getty images comme source à une IA de reconnaissance faciale, elle va apprendre à reconnaitre des blancs Photoshopés, et sera perdu à la vue d’un vieux, d’un jeune avec de l’acné ou toute autre couleur de peaux :)

  • Les sets de données doivent être de qualité et vérifiés (par ex: que les gens aient vraiment cliquer sur les feux tricolores dans les captchas :) )

  • les sets de données entre apprentissage et évaluation doivent être équilibrés et variés.

  • l’apprentissage doit être suffisamment long pour être fiable, mais il ne faut surtout pas sur-apprendre car à un moment le réseau neuronale se spécialise dans la détection des biais du jeu d’apprentissage.



Et même si tous les astres sont alignés, ton IA peut trés bien… ne rien apprendre ou apprendre n’importe quoi : il faut alors jeter ton modèle d’apprentissage à la poubelle, ajusté un paramètre (par ex être moins sensible aux couleurs, ou aux formes) et refaire tourner ton IA de zéro.



snowludo a dit:


Possible, mais orienter l’algo c’est une hérésie quand on parle d’IA. Une seule et unique solution : Lui donner un jeu de donnée plus large, non filtré.




Le problème c’est qu’un humain est très mal équipé pour dire que “ce jeu de données est sans biais”. La route de l’enfer est pavée de bonnes intentions, et un développeur peut très bien enclencher une catastrophe en croyant bien faire.



Un bête exemple, la reconnaissance faciale. Elle sera moins précise sur les visages foncés parce que les cellules CCD sont calibrées pour rendre une image semblable à celle d’une photo papier, procédé qui était calibré pour rendre au mieux les visages des clients de chez Kodak, qui étaient plutôt clairs de peau (je n’ai pas dit blanc, au soleil, la plupart prenaient une belle teinte rouge vif)…



Tu peux danser sur ta tête, augmenter le jeu de données n’y changera rien… Un humain, même venant du plus profond du bassin du Limpopo n’y verra aucun biais, puisque les images qu’il audite sont conformes à ce qu’il a toujours vu à la télévision…



Mihashi a dit:


IA n’interprète rien, elle sort juste la tendance par rapport à ce qu’elle a appris.




L’autre souci du cerveau humain : confondre corrélation et causalité…


Fermer