À Paris, un forum mondial pour « une intelligence artificielle responsable »
Le 30 octobre 2019 à 09h13
2 min
Sciences et espace
Sciences
Ouvert depuis lundi, le Global Forum on AI for Humanity fermera ses portes aujourd'hui. Le CNRS revient sur cet événement avec Malik Ghallab, directeur de recherche et co-organisateur de l'événement.
Il commence par rappeler que « l’objectif de cette conférence a été annoncé par le président de la République Emmanuel Macron il y a un an, en particulier dans le but d’éclairer les travaux d’une future organisation de coopération internationale sur l’IA ».
La France souhaite marquer son implication puisqu'elle organise ce premier rendez-vous, qui réunit 450 participants de 24 pays. Le but est « de dégager un consensus autour d'un développement responsable de l'IA ».
Cette approche comprend deux volets. « Le premier traite de la mobilisation des technologies issues de l'IA sur les grands défis actuels de l'humanité », le second est axé sur « une meilleure appréciation des risques inhérents à l’IA et sur les moyens à mettre en œuvre pour les circonscrire ».
« Toute technologie porteuse de bienfaits comporte aussi des risques. Les incertitudes inhérentes au développement et au déploiement rapide de l’IA et du numérique nécessitent, autant que possible, d’être anticipées et maîtrisées. Ainsi, l'automatisation de l’industrie et des services a des impacts sur la division sociale du travail et sa transformation », explique le scientifique.
Le 30 octobre 2019 à 09h13
Commentaires (2)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 30/10/2019 à 11h53
Je trouve que ce terme : « une intelligence artificielle responsable » sonne complètement faux.
Autant dans la sonorité que lorsqu’on le rapproche du quotidien de monsieur tout le monde dans le numérique. Cela fait un effet d’arrivée en retard au cinéma au moment du générique de fin.
Une perspective intéressante est que la SF avait vu quelques dérives depuis quelques décades. Dommage que cela n’ait pas inspiré les élus pour faire du préventif.
A moins que ce soit le début de la forge d’un outil pour brandir une taxe (supplémentaire?) sur les données personnelles. Mais ce serait encore un raté. En plus cela mettrai la loi du coté des exploitants de données in finé. Bin oui, on interdirait pas l’utilisation mais on la taxerai. Donc il faudrait un rendement pour que cela rapporte.
Après; tout dépend où on met le curseur quant au mot “responsable”. Grosse interrogation.
Le 30/10/2019 à 13h59
Dans la réalité, je vois déjà 2 points qui pourrait être discuter :
Cas qui est arrivé il y a 1 ou 2 ans : Amazon avait entraîné (en laboratoire) un programme à pré-trier les candidatures pour un poste donnée. Le programme donnait des résultat à priori correct par rapport à la base de donnée. Sauf que la base de donnée étant une “vrai” base de donnée, certain poste étaient majoritairement masculin et d’autre féminin. Le programme, qui ne fait que des statistiques plus ou moins avancé, avait appris à pénalisé selon le sexe et le poste à pourvoir car statistiquement, c’était logique.
Parfois, un problème mal posé peut donner des solutions… inattendu.
Pour le second point, je pense par exemple au questionnaire de Google à propos des choix à faire en cas d’accident en voiture (un programme peut prendre une décision apprise, là où un humain va faire un choix dans la panique) ou à la place qu’aurait un programme d’aide au diagnostiques médicaux (quelle est la responsabilité ici en cas de mauvais diagnostique).