Et si on encadrait les IA comme les médicaments ?
Le 16 décembre 2019 à 09h03
1 min
Droit
Droit
Professeur émérite d'intelligence artificielle et de robotique, Noel Sharkley estime que les algorithmes sont tellement « infectés de biais » qu'il appelle les autorités britanniques à cesser immédiatement tous ceux qui pourraient contribuer à des décisions pouvant changer des vies – en matière d'emploi, d'aide sociale ou d'immigration notamment.
Interrogé par le Guardian, le scientifique, figure de proue du mouvement contre les robots tueurs, voudrait leur appliquer la même rigueur que celle avec lesquels sont contrôlés et validés les médicaments, et les tester sur des millions ou au moins des centaines de milliers de gens pour s'assurer qu'ils ne sont pas biaisés avant tout déploiement.
Le 16 décembre 2019 à 09h03
Commentaires (20)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/12/2019 à 09h28
En voilà une idée qu’elle est bonne, faudrait muscler un peu les règles par contre, actuellement les conflits d’intérêts sont légion.
Le 16/12/2019 à 09h34
Je ne comprends pas très bien, chaque information, et donc chaque décision, est infestée de biais. On ne régule pas les journaux pour éviter leurs biais… On en est conscient, et on évite de penser que les journaux sont des sources fiables, mais sans renier leur utilité! Pour l’aide à la décision par ordinateur, c’est pareil.
On pourrait très bien appliquer le raisonnement de Noel à la politique dans son ensemble: chaque mesure devra être testée comme les médicamments, notemment celles en matière d’emploi, d’aide sociale ou d’immigration notamment. J’aime la démarche scientifique, mais j’ai un doute que cela passe.
Le 16/12/2019 à 10h15
Si un algorithme peut changer une vie, il faut surtout ajouter un contrôle humain du résultat. Les tests n’y changeront rien, un contrôle par un humain en chair et en os est nécessaire.
L’algorithme doit faire remonter les indicateurs nécessaires pour permettre de contrôler son résultat.
Le 16/12/2019 à 10h22
Le biais risque d’être très difficile à détecter car sur quoi “noter” ce biais ?
En effet, le si le modèle a appris à optimiser un score qui inclus la note de biais, alors elle optimisera cette note. Le modèle ne sera pas plus pas moins biaisé, elle paraîtra seulement moins biaisé.
Genre d’exemple (un peu simpliste) : on demande a une machine d’apprendre à faire une sélection de quelques candidats pour un poste parmi un liste de CV. Dans un but étique, on voudrait qu’elle ne fasse pas de distinction de sexe ou d’origine. Bêtement, on veut donc que la sélection de candidat soit représentative des CV données en entrée. La machine, très conne, va très certainement apprendre a reconnaître le sexe et l’origine des personne derrière chaque CV (si elle a les noms, c’est gratuit), va trouver ainsi les poids de chaque catégorie et enfin faire sa sélection en fonction.
Le 16/12/2019 à 10h46
Ça me rappelle l’histoire d’une IA qui avait été entraînée à reconnaître des photos de chevaux, et y arrivait avec vraiment un score impressionnant avec les images d’entraînement, mais se plantait lamentablement sur des images prises au pif. Il a fallu quelque temps pour se rendre compte que l’IA s’était entraînée à reconnaître le filigrane de horsesphotos.com !
Moralité de l’histoire : on ne sait pas ce que fait une IA réellement, c’est une boîte noire. Ce serait kamikaze de lui confier des vies.
Le 16/12/2019 à 10h52
Les IA vont être appelées à donner une information qui fera intervenir de très nombreux paramètres, tellement nombreux que cela dépasse les capacités humaines. Oui un journal est biaisé, mais ce n’est qu’un journal, en tant qu’être humain je peux encore m’en rendre compte (et encore, dans les sujets que je connais un tant soit peu).
Quand l’IA nous donnera une information, une “décision” faisant intervenir des paramètres complexes mixant économie, sociologie, parcours pro, santé publique et personnelle, etc… ça va être très compliqué.
Ca peut être une raison de plus d’ailleurs de limiter le recours aux IA… je ne dis pas le contraire ;-)
Le 16/12/2019 à 11h07
Professeur émérite d’intelligence artificielle et de robotique, Noel Sharkley estime que les algorithmes sont tellement « infectés de biais » qu’il appelle les autorités britanniques à cesser immédiatement tous ceux qui pourraient contribuer à des décisions pouvant changer des vies – en matière d’emploi, d’aide sociale ou d’immigration notamment.
Tu remplaces “algorithmes” par “politiciens” ou “institutions” et ca fonctionne aussi… " />
Le 16/12/2019 à 11h28
Ce serait bien d’arrêter de faire l’amalgame entre algorithme et IA.
Le 16/12/2019 à 11h28
Le 16/12/2019 à 12h22
Le 16/12/2019 à 12h26
Le 16/12/2019 à 12h31
Une IA (faible) c’est (ou donne, en fonction de ce qu’on appelle IA) un algorithme.
Contrairement aux algorithmes « classiques », on ne comprend pas comment/pourquoi l’algorithme fonctionne et on serait incapable de l’écrire nous-même, mais ça reste un algorithme.
Le 16/12/2019 à 12h45
Le 16/12/2019 à 12h48
Le 16/12/2019 à 13h30
Cool et l’homme politique qui est encore plus biaisé , on le régule ?
Le 16/12/2019 à 14h02
Encadrer les IA comme les médicaments ?
Il veut dire ne laisser sur le marché que ceux qui rapportent beaucoup de sous, et enterrer ceux qui seraient vraiment efficaces ? 🤔
Le 16/12/2019 à 14h03
Toutafé, les algorithmes utilisés en “IA” n’y sont pour rien là-dedans.
Le journaliste a dû simplifier, et malheureusement ça ne permet du coup pas de comprendre la nature du problème, qui est que les jeux de données utilisés pour entraîner les modèles sont eux-mêmes biaisés.
Je suppose qu’il existe parfois des solutions, notamment lorsqu’il y a un biais de sélection des données (ex : on ne prend pas assez en compte une minorité).
Mais parfois, ces données ne font que capturer les comportements passés d’êtres humains “imparfaits” et qui agissent en fonction de biais cognitifs. Dans ces cas-là, je vois pas comment faire autrement que de remplacer les modèles prédictifs entraînés sur ces données par des algorithmes classiques…mais du coup c’est plus de l’IA, et donc c’est has-been " />
Le 16/12/2019 à 15h33
Ce genre d’algo sont pour ainsi dire que des statistiques. En particulier, l’algo va être très bon pour trouver des corrélations (c’est même ce qu’on lui demande en général), sans pour autant avoir un préjugé étique ni même les relations exacts qui existent entre les événements corrélés.
Truc con par exemple :
Dans le cadre hypothétique d’une surveillance par caméra charger de détecter les pickpockets dans la rue. L’habit ne fait pas le moine, mais la machine va très certainement laisser faire la femme caucasienne cinquantenaire habillé avec un tailleur : statistiquement ce n’est pas un profil suspect.
Le 16/12/2019 à 15h42
Le 16/12/2019 à 16h58
À mon avis la question essentielle est de savoir au service de qui sont ces IA.