Connexion
Abonnez-vous

Intelligence artificielle : l’Europe veut des « lignes directrices en matière d’éthique »

Intelligence artificielle : l'Europe veut des « lignes directrices en matière d'éthique »

Le 09 avril 2019 à 09h32

La Commission lance une « phase pilote » pour des « lignes directrices en matière éthique pour le développement de l'intelligence artificielle ».

Cette démarche s'inscrit dans la stratégie européenne sur l'intelligence artificielle lancée en 2018. Pour la Commission, sept éléments sont essentiels pour parvenir à une IA « digne de confiance » :

  • Facteur humain et contrôle humain
  • Robustesse et sécurité
  • Respect de la vie privée et gouvernance des données
  • Transparence
  • Diversité, non-discrimination et équité
  • Bien-être sociétal et environnemental
  • Responsabilisation

À partir de cet été, la Commission va recueillir les réactions des parties prenantes puis « élaborer un consensus international pour une IA centrée sur l'humain ». Elle souhaite également « porter son approche en matière d'IA sur la scène internationale ».

Pour y arriver, elle « renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20 ».

Le 09 avril 2019 à 09h32

Commentaires (14)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Je suis en accord avec 5 des points, mais deux m’ont l’air soit bien trop vague, soit impossible à implémenter :

* Diversité, non-discrimination et équité

* Bien-être sociétal et environnemental



Ça va finir comme 2001 l’odyssée de l’espace :




  • HAL, on prend la voiture pour voir mamie à la maison de retraite

  • Je suis désolé Dave, tu as beaucoup pris la voiture ce mois-ci, ça va contre ton bien-être environnemental. Et mamie est en mauvaise santé, ça va contre ton bien-être sociétal.



    Ou bien

  • HAL, on va boire une bière avec des potes

  • Je suis désolé Dave, c’est discriminatoire envers ceux qui n’aiment pas l’alcool. Et il n’y a pas de diversité, il faudrait que tu boives aussi du vin et de l’alcool fort.

votre avatar

Si déjà ils appliquaient ces règles éthiques à leur politique et leurs politiciens… Bon, OK, ils seraient en grande partie chômeur ou prisonnier, mais y’aurait une droiture éthique à s’appliquer à soi-même les règles éthiques que l’ont prétend souhaiter pour des IA.



Pourtant, c’est plus simple (même si ce n’est pas simple) d’appliquer à soi-même, humain, ces règles éthiques, plutôt que de compter sur des technos pas maîtrisées pour donner un semblant de sens à nos politiques.



Bref… #fullBullshit

votre avatar

J’avoue que je ne comprends aucun des éléments essentiels évoqués.



C’est bien simple:

 

 - le Facteur humain et contrôle humain, Transparence, le Respect de la vie privée et gouvernance des données sont déjà impossible : on parle ici d’un programme qui contiendrait des millions et même des milliards de lignes de code. C’est tout simplement et humainement impossible à gérer et à contrôler. On demande une programmation utopique en clair.

 




  • la Robustesse et sécurité et Responsabilisation me font bien rire : il est impossible de sécuriser un logiciel  à 100% et même en y mettant le plus de protection, il y aura toujours une faille pour réduire à néant celle-ci



  • Diversité, non-discrimination et équité, Bien-être sociétal et environnemental : le logiciel n’est que le reflet de ses concepteurs.



     

votre avatar

L’IA sera le reflet des donnés sur lesquelles se base sont apprentissage, donc elle sera biaisée et partiale si on laisse faire n’importe quoi. Ça me rappelle la tentative de bâtir une IA à partir des réponses des internautes.

votre avatar







js2082 a écrit :



 - Diversité, non-discrimination et équité, Bien-être sociétal et environnemental : le logiciel n’est que le reflet de ses concepteurs. 

    



 

Certains cas “amusants” (par exemple celui-ci) ont montré que bien souvent le logiciel est le reflet des données utilisées pour alimenter le processus d’apprentissage, et pas de ses concepteurs, auxquels il a carrément échappé.


votre avatar







loser a écrit :



 

Certains cas “amusants” (par exemple celui-ci) ont montré que bien souvent le logiciel est le reflet des données utilisées pour alimenter le processus d’apprentissage, et pas de ses concepteurs, auxquels il a carrément échappé.





Je vais jouer sur les mots : sachant que l’IA est issue à la fois de la programmation et des données qui l’alimentent, ses concepteurs, ceux qui permettent son émergence, sont donc ceux qui la programment et ceux qui l’alimentent aussi. Tous deux conçoivent l’IA, apportent sa pierre à sa construction (qui se fait en continu par apprentissage).

 


votre avatar

+1



La Commission exige que l’IA fasse ce qu’elle dit… qui est le contraire de ce qu’elle fait: l’IA va se petit suicider à ce rythme <img data-src=" />

votre avatar

Une IA qui se petit suicide, on pourra dire que l’IA a eu une petite mort ? <img data-src=" />

votre avatar

Les premiers clients de l’IA sont les armées, impatientes d’avoir un coup d’avance sur les autres pour trouver le meilleur moyen de pulvériser l’ennemi. Une des toutes premières notions inculquées à l’IA est celle de terroriste.

votre avatar

Bwarf, les “IA” règnent déjà sur les marchés boursiers.

Après, l’argent, la guerre, il ne reste plus que le 3ième secteur : le sexe. A voir ce que vont proposer les industriels du domaine, même si le deep face fait déjà des émules.

votre avatar

M’est avis qu’il faut plus d’intelligence à un amnésique pour résoudre un problème rationnellement qu’il en faut à un homme cultivé armé d’une bibliothèque.



J’en déduis que le A dans IA désigne en parti le savoir.<img data-src=" />

votre avatar

Dommage de ne pas avoir évoqué l’ensemble des lignes rouges qui ont disparu de ce texte:https://m.tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24…

votre avatar

C’est vrai qu’a la commission, l’intelligence naturelle fait dans l’éthique:

http://bruxelles.blogs.liberation.fr/2019/04/02/selmayrgate-la-commission-juncke…



Bizarre, un an que ça dure et on n’en entends pas parler. Ca pourrait sans doute attirer bientôt des votes funestes?



Avec désormais le suicide de la juriste qui ne supportait plus de couvrir les irrégularités, la merde commence pourtant à bien sortir du tapis.



En tout cas, on est en droit d’avoir peur pour l’IA vu le modèle de l’IN en place dans la commission du poivrot notoire Juncker, dont profitent au mépris des règles ceux dont les dents rayent le parquet.



Éthique en Toc…

votre avatar

Bien etre environnemental ? Ils vont nous buter les robots xD

Intelligence artificielle : l’Europe veut des « lignes directrices en matière d’éthique »

Fermer