Intelligence artificielle : l'Europe veut des « lignes directrices en matière d'éthique »

Intelligence artificielle : l’Europe veut des « lignes directrices en matière d’éthique »

Intelligence artificielle : l'Europe veut des « lignes directrices en matière d'éthique »

La Commission lance une « phase pilote » pour des « lignes directrices en matière éthique pour le développement de l'intelligence artificielle ».

Cette démarche s'inscrit dans la stratégie européenne sur l'intelligence artificielle lancée en 2018. Pour la Commission, sept éléments sont essentiels pour parvenir à une IA « digne de confiance » :

  • Facteur humain et contrôle humain
  • Robustesse et sécurité
  • Respect de la vie privée et gouvernance des données
  • Transparence
  • Diversité, non-discrimination et équité
  • Bien-être sociétal et environnemental
  • Responsabilisation

À partir de cet été, la Commission va recueillir les réactions des parties prenantes puis « élaborer un consensus international pour une IA centrée sur l'humain ». Elle souhaite également « porter son approche en matière d'IA sur la scène internationale ».

Pour y arriver, elle « renforcera sa coopération avec les partenaires partageant les mêmes idées, comme le Japon, le Canada ou Singapour, et continuera à jouer un rôle actif dans les discussions et initiatives internationales, y compris au sein du G7 et du G20 ».

Commentaires (14)


Je suis en accord avec 5 des points, mais deux m’ont l’air soit bien trop vague, soit impossible à implémenter :

* Diversité, non-discrimination et équité

* Bien-être sociétal et environnemental



Ça va finir comme 2001 l’odyssée de l’espace :




  • HAL, on prend la voiture pour voir mamie à la maison de retraite

  • Je suis désolé Dave, tu as beaucoup pris la voiture ce mois-ci, ça va contre ton bien-être environnemental. Et mamie est en mauvaise santé, ça va contre ton bien-être sociétal.



    Ou bien

  • HAL, on va boire une bière avec des potes

  • Je suis désolé Dave, c’est discriminatoire envers ceux qui n’aiment pas l’alcool. Et il n’y a pas de diversité, il faudrait que tu boives aussi du vin et de l’alcool fort.


Si déjà ils appliquaient ces règles éthiques à leur politique et leurs politiciens… Bon, OK, ils seraient en grande partie chômeur ou prisonnier, mais y’aurait une droiture éthique à s’appliquer à soi-même les règles éthiques que l’ont prétend souhaiter pour des IA.



Pourtant, c’est plus simple (même si ce n’est pas simple) d’appliquer à soi-même, humain, ces règles éthiques, plutôt que de compter sur des technos pas maîtrisées pour donner un semblant de sens à nos politiques.



Bref… #fullBullshit


J’avoue que je ne comprends aucun des éléments essentiels évoqués.



C’est bien simple:

 

 - le Facteur humain et contrôle humain, Transparence, le Respect de la vie privée et gouvernance des données sont déjà impossible : on parle ici d’un programme qui contiendrait des millions et même des milliards de lignes de code. C’est tout simplement et humainement impossible à gérer et à contrôler. On demande une programmation utopique en clair.

 




  • la Robustesse et sécurité et Responsabilisation me font bien rire : il est impossible de sécuriser un logiciel  à 100% et même en y mettant le plus de protection, il y aura toujours une faille pour réduire à néant celle-ci



  • Diversité, non-discrimination et équité, Bien-être sociétal et environnemental : le logiciel n’est que le reflet de ses concepteurs.



     


L’IA sera le reflet des donnés sur lesquelles se base sont apprentissage, donc elle sera biaisée et partiale si on laisse faire n’importe quoi. Ça me rappelle la tentative de bâtir une IA à partir des réponses des internautes.








js2082 a écrit :



 - Diversité, non-discrimination et équité, Bien-être sociétal et environnemental : le logiciel n’est que le reflet de ses concepteurs. 

    



 

Certains cas “amusants” (par exemple celui-ci) ont montré que bien souvent le logiciel est le reflet des données utilisées pour alimenter le processus d’apprentissage, et pas de ses concepteurs, auxquels il a carrément échappé.









loser a écrit :



 

Certains cas “amusants” (par exemple celui-ci) ont montré que bien souvent le logiciel est le reflet des données utilisées pour alimenter le processus d’apprentissage, et pas de ses concepteurs, auxquels il a carrément échappé.





Je vais jouer sur les mots : sachant que l’IA est issue à la fois de la programmation et des données qui l’alimentent, ses concepteurs, ceux qui permettent son émergence, sont donc ceux qui la programment et ceux qui l’alimentent aussi. Tous deux conçoivent l’IA, apportent sa pierre à sa construction (qui se fait en continu par apprentissage).

 



+1



La Commission exige que l’IA fasse ce qu’elle dit… qui est le contraire de ce qu’elle fait: l’IA va se petit suicider à ce rythme <img data-src=" />


Une IA qui se petit suicide, on pourra dire que l’IA a eu une petite mort ? <img data-src=" />


Les premiers clients de l’IA sont les armées, impatientes d’avoir un coup d’avance sur les autres pour trouver le meilleur moyen de pulvériser l’ennemi. Une des toutes premières notions inculquées à l’IA est celle de terroriste.


Bwarf, les “IA” règnent déjà sur les marchés boursiers.

Après, l’argent, la guerre, il ne reste plus que le 3ième secteur : le sexe. A voir ce que vont proposer les industriels du domaine, même si le deep face fait déjà des émules.


M’est avis qu’il faut plus d’intelligence à un amnésique pour résoudre un problème rationnellement qu’il en faut à un homme cultivé armé d’une bibliothèque.



J’en déduis que le A dans IA désigne en parti le savoir.<img data-src=" />


Dommage de ne pas avoir évoqué l’ensemble des lignes rouges qui ont disparu de ce texte:https://m.tagesspiegel.de/politik/eu-guidelines-ethics-washing-made-in-europe/24…


C’est vrai qu’a la commission, l’intelligence naturelle fait dans l’éthique:

http://bruxelles.blogs.liberation.fr/2019/04/02/selmayrgate-la-commission-juncke…



Bizarre, un an que ça dure et on n’en entends pas parler. Ca pourrait sans doute attirer bientôt des votes funestes?



Avec désormais le suicide de la juriste qui ne supportait plus de couvrir les irrégularités, la merde commence pourtant à bien sortir du tapis.



En tout cas, on est en droit d’avoir peur pour l’IA vu le modèle de l’IN en place dans la commission du poivrot notoire Juncker, dont profitent au mépris des règles ceux dont les dents rayent le parquet.



Éthique en Toc…


Bien etre environnemental ? Ils vont nous buter les robots xD


Fermer