Intelligence artificielle : l’Europe veut des « lignes directrices en matière d’éthique »
Le 09 avril 2019 à 09h32
1 min
Sciences et espace
La Commission lance une « phase pilote » pour des « lignes directrices en matière éthique pour le développement de l'intelligence artificielle ».
Cette démarche s'inscrit dans la stratégie européenne sur l'intelligence artificielle lancée en 2018. Pour la Commission, sept éléments sont essentiels pour parvenir à une IA « digne de confiance » :
- Facteur humain et contrôle humain
- Robustesse et sécurité
- Respect de la vie privée et gouvernance des données
- Transparence
- Diversité, non-discrimination et équité
- Bien-être sociétal et environnemental
- Responsabilisation
À partir de cet été, la Commission va recueillir les réactions des parties prenantes puis « élaborer un consensus international pour une IA centrée sur l'humain ». Elle souhaite également « porter son approche en matière d'IA sur la scène internationale ».
Pour y arriver, elle « renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20 ».
Le 09 avril 2019 à 09h32
Commentaires (14)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 09/04/2019 à 08h57
#1
Je suis en accord avec 5 des points, mais deux m’ont l’air soit bien trop vague, soit impossible à implémenter :
* Diversité, non-discrimination et équité
* Bien-être sociétal et environnemental
Ça va finir comme 2001 l’odyssée de l’espace :
Ou bien
Le 09/04/2019 à 08h57
#2
Si déjà ils appliquaient ces règles éthiques à leur politique et leurs politiciens… Bon, OK, ils seraient en grande partie chômeur ou prisonnier, mais y’aurait une droiture éthique à s’appliquer à soi-même les règles éthiques que l’ont prétend souhaiter pour des IA.
Pourtant, c’est plus simple (même si ce n’est pas simple) d’appliquer à soi-même, humain, ces règles éthiques, plutôt que de compter sur des technos pas maîtrisées pour donner un semblant de sens à nos politiques.
Bref… #fullBullshit
Le 09/04/2019 à 09h18
#3
J’avoue que je ne comprends aucun des éléments essentiels évoqués.
C’est bien simple:
- le Facteur humain et contrôle humain, Transparence, le Respect de la vie privée et gouvernance des données sont déjà impossible : on parle ici d’un programme qui contiendrait des millions et même des milliards de lignes de code. C’est tout simplement et humainement impossible à gérer et à contrôler. On demande une programmation utopique en clair.
Le 09/04/2019 à 10h29
#4
L’IA sera le reflet des donnés sur lesquelles se base sont apprentissage, donc elle sera biaisée et partiale si on laisse faire n’importe quoi. Ça me rappelle la tentative de bâtir une IA à partir des réponses des internautes.
Le 09/04/2019 à 10h48
#5
Le 09/04/2019 à 11h48
#6
Le 09/04/2019 à 12h32
#7
+1
La Commission exige que l’IA fasse ce qu’elle dit… qui est le contraire de ce qu’elle fait: l’IA va se petit suicider à ce rythme " />
Le 09/04/2019 à 12h48
#8
Une IA qui se petit suicide, on pourra dire que l’IA a eu une petite mort ? " />
Le 09/04/2019 à 14h44
#9
Les premiers clients de l’IA sont les armées, impatientes d’avoir un coup d’avance sur les autres pour trouver le meilleur moyen de pulvériser l’ennemi. Une des toutes premières notions inculquées à l’IA est celle de terroriste.
Le 09/04/2019 à 16h08
#10
Bwarf, les “IA” règnent déjà sur les marchés boursiers.
Après, l’argent, la guerre, il ne reste plus que le 3ième secteur : le sexe. A voir ce que vont proposer les industriels du domaine, même si le deep face fait déjà des émules.
Le 09/04/2019 à 18h45
#11
M’est avis qu’il faut plus d’intelligence à un amnésique pour résoudre un problème rationnellement qu’il en faut à un homme cultivé armé d’une bibliothèque.
J’en déduis que le A dans IA désigne en parti le savoir." />
Le 09/04/2019 à 20h42
#12
Dommage de ne pas avoir évoqué l’ensemble des lignes rouges qui ont disparu de ce texte:https://m.tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24…
Le 10/04/2019 à 07h21
#13
C’est vrai qu’a la commission, l’intelligence naturelle fait dans l’éthique:
http://bruxelles.blogs.liberation.fr/2019/04/02/selmayrgate-la-commission-juncke…
Bizarre, un an que ça dure et on n’en entends pas parler. Ca pourrait sans doute attirer bientôt des votes funestes?
Avec désormais le suicide de la juriste qui ne supportait plus de couvrir les irrégularités, la merde commence pourtant à bien sortir du tapis.
En tout cas, on est en droit d’avoir peur pour l’IA vu le modèle de l’IN en place dans la commission du poivrot notoire Juncker, dont profitent au mépris des règles ceux dont les dents rayent le parquet.
Éthique en Toc…
Le 10/04/2019 à 15h54
#14
Bien etre environnemental ? Ils vont nous buter les robots xD