Un député LREM veut faire référence aux lois d’Asimov dans la Constitution
Goldorak, go !
Le 16 janvier 2020 à 18h38
4 min
Droit
Droit
Le député Pierre-Alain Raphan (LREM) veut faire inscrire dans le préambule de la Constitution la référence à la « Charte de l’Intelligence Artificielle et des algorithmes de 2020 » déposée à l'occasion d’une proposition de loi constitutionnelle. Le texte, diffusé par Next INpact, reprend les lois d’Asimov sur la robotique.
Inscrire l’IA dans la Constitution de la Ve République. Voilà le cœur de la proposition de loi déposée par l’élu, articulée autour de deux dispositions. La première consacre cette inscription, la seconde dévoile une charte qui servirait de référence.
Le député tente à ce titre une définition de l’IA, à savoir « un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale ». Il n’entend pas reconnaître de personnalité juridique à cet amas d’instructions informatiques, mais compte bien faire découler des obligations sur les épaules de « la personne morale ou physique qui héberge ou distribue le dit système », considérée comme son représentant juridique.
Concrètement, sa charte sur l'IA affirme qu’un système (robot ou algorithme) :
- Ne peut porter atteinte à un être ou un groupe d’êtres humains, ni, en restant passif, permettre qu'un être ou un groupe d’êtres humains soit exposé au danger ;
- Doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec le point précédent ;
- Doit protéger son existence tant que cette protection n'entre pas en conflit avec les deux points précédents.
Des références qui s’inspirent à plein nez des trois lois d’Asimov, à savoir que :
- Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger
- Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi
Selon l'auteur de la proposition, ce système devrait aussi être conçu « pour satisfaire la mise en application pleinement effective des articles composant la Déclaration Universelle des Droits de l’Homme du 10 décembre 1948 ». L'hébergeur ou l'émetteur devrait de même respecter plusieurs contraintes, comme assurer des audits réguliers « dont la fréquence de mise en œuvre [serait] basée sur celle d’évolution vers une autonomie décisionnelle du ou des algorithme(s) composant le système ».
Prévenir un retard irrattrapable
« Le Législateur doit se saisir de ces questions majeures et de leurs enjeux potentiels » insiste le parlementaire dans l’exposé des motifs. « Cette loi a pour ambition de prévenir un retard irrattrapable dû à des outils créés par quelques individus mais impactant le plus grand nombre ».
Estimant que « les avancées sont tellement intégrées à notre quotidien de citoyen qu’elles ne permettent plus d’imaginer de vivre sans elles », les citoyens sont en passe aujourd’hui de devenir « des êtres humains assistés ou augmentés sans avoir exprimé un choix éclairé ».
La PPL aurait surtout pour ambition d'alerter chaque citoyen : « au même titre que les virus s’intègrent au long cours au patrimoine génétique des Humains, les technologies du quotidien entrent de fait dans les réflexions. Or après l’ignorance, la plupart de nos réactions confinent au dédain l’analyse des avancées technologiques. Cette loi vise donc à interpeller tout un chacun quant à son rôle et sa responsabilité, ses droits et ses devoirs, pour être acteur et garant de ses libertés. »
En conclusion, indique-t-il, « se positionner sur les algorithmes, revient à protéger les Droits de l’Homme dans leur ensemble. Il y a des choix qui sont irréversibles et aujourd’hui dans cette Assemblée, nous sommes à l’aube de l’un d’entre eux ».
Un député LREM veut faire référence aux lois d’Asimov dans la Constitution
-
Prévenir un retard irrattrapable
Commentaires (47)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/01/2020 à 18h49
Et la loi Zéro, alors ? Il n’a pas lu tous les romans le député ? ;)
“Un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger”
Le 16/01/2020 à 18h55
Encore un qui n’a pas compris que globalement, l’idée des romans est de démonter ces lois, dans la pratique.
On n’a pas mieux aujourd’hui, mais elles sont loin d’être suffisantes.
Le 16/01/2020 à 19h03
Le 16/01/2020 à 19h04
Comme les dix commandements." />
Le 16/01/2020 à 19h46
Il n’a pas du aller jusqu’à la fin des romans …
Le 16/01/2020 à 19h46
Ca serait toujours mieux que suivre les “lois” de 1984, comme le gouvernement le fait actuellement " />
Le 16/01/2020 à 20h10
Cela passera jamais ainsi, c’est toute l’industrie militaire qui serait mis de coté, notamment celles des drones autonomes…
Le 16/01/2020 à 21h02
Du coup, les IA qui font du high-frequency trading, elles seraient forcées de se rendre inactives, pour « ne pas porter atteinte à un être ou un groupe d’êtres humains » ?
Le 16/01/2020 à 21h06
Et ça pose pas un petit souci de droits d’auteur sa petite blague financée par nos impôts ?
Le 16/01/2020 à 21h59
Les lois d’Asimov sont au nombre de quatre. Extrait de Social and juristic challenges of artificial intelligence, Matjaž Perc, Mahmut Ozer & Janja Hojnik, Palgrave Communications:
Later on, Asimov added the fourth law, which states that a robot may not harm humanity, or, by inaction, allow humanity to come to harm. But this does not cover social dilemmas, or situations, where the machine inevitably has to select between two evils. Recently, Nagler et al. (2019) proposed an extension of these laws, precisely for a world where artificial intelligence will decide about increasingly many issues, including life and death, thus inevitably facing ethical dilemmas. In a nutshell, since all humans are to be judged equally, when an ethical dilemma is met, let the chance decide.
Le 16/01/2020 à 22h40
Le 17/01/2020 à 07h05
Ce n’est pas un copier-coller non plus, elles ont été reformulées. Et il n’est pas possible de protéger des idées, des concepts, seulement les mises en application (livre…).
Le 17/01/2020 à 07h32
A noter, si j’ai bien compris la niouze,, que cette proposition de loi les gens qui contrôlent les IA, pas les IA elles-mêmes…
Le 17/01/2020 à 08h21
Ou bien sinon on pourrait juste considérer qu’une IA est un outil, et que son utilisateur est soumis aux lois usuelles. Par exemple si je tue quelqu’un via une IA, je suis un meurtrier/assassin/homicideur involontaire selon le contexte… Nul besoin d’ajouter une loi n°1.
Fascinant cette manie de vouloir rajouter des lois spécifiques dès qu’un sujet fait la une. Pour un peu on croirait que certains veulent juste se faire mousser.
Le 17/01/2020 à 08h28
Pas besoin de lire quoi que ce soit pour qu’un problème se pose: qu’est-ce qu’un système, dans sa loi?
bref, qu’est-ce qu’une IA?
A partir de quoi décide-t-on que la voiture autonome n’a plus un problème d’algorithme mais un problème d’IA? (au sens de cette loi)
Le 17/01/2020 à 15h55
pas trop compris l’utilité de cette loi sachant que la 1ere est suffisante.
Le 17/01/2020 à 16h17
Elle permet au robot de violer la 1ère loi pour “sauver” l’humanité.
Le 17/01/2020 à 16h26
ah oui dans ce sens ça s’explique, merci. :)
Le 17/01/2020 à 17h12
c’est pas trop une “utilité” de cette loi, elle est apparue plus tard en tant que dérive et est visible dans le film “I robot” (qui est plus un mix de plusieurs nouvelles réarangées à la sauce hollywood qu’une adaptation d’une des nouvelles (et encore moins de celle dont le titre est tiré), j’aime bien will smith, j’aime bien l’univers et un certain nombre de choses dans ce film, mais le nom (entre autres, susan calvin pas du tout fidèle aux nouvelles) me hérisse au plus haut poil)
elle apparaît comme extrapolation de la loi 1, mais ne peut pas fonctionner pour un robot au champ d’action / connaissances limitées, elle ne peut fonctionner qu’avec une entité omnisciente ou pas loin
Le 17/01/2020 à 17h13
(…)
Juge: Utilisateur, 30 ans de prison pour avoir programmé une IA qui tue les gens
Je ne dis pas que la règle 1 est mauvaise, juste qu’elle découle naturellement du fait de considérer que les utilisateurs sont responsables des outils qu’ils utilisent. Par exemple, on n’a pas eu besoin de faire une loi n° pour les fusils, imposant à leurs utilisateurs ne pas faire en sorte que leur fusil tuent des êtres humains: c’est implicitement contenu dans la notion de meurtre.
Mon opinion est que le fait que l’utilisateur tue les humains avec une IA ou avec un fusil n’a qu’une importance très marginale.
Là où je reconnais être un peu de mauvaise foi c’est sur la composante ‘restant passif, permettre qu’un être humain soit exposé au danger’, qui semble aller bien au-delà de la simple non-assistance à personne en danger.
Là ma critique est que c’est totalement liberticide (laisser manger du gras? danger de cholestérol! piscine? danger de noyade!), en plus d’être difficilement applicable (que considérera-t-on comme étant une passivité coupable, sachant que dans les millions de cas, la passivité sera expliquée par le fait que l’IA n’était pas capable de savoir qu’il y avait danger? cette loi est pensée pour un robot humanoïde dont les moyens de perception sont similaires à ceux d’un humain)
Le 17/01/2020 à 17h20
Je me rappelle plus, y a-t-il une nouvelle pre-loi 0 qui traite du problème de trolley?
Parce que quelque part, cette notion de loi 0 n’en est qu’une généralisation, avec le même problème de savoir comment on pondère les différents critères pour juger de ce qui est bon pour l’humanité ou non (problème que fondation esquive piteusement en partant du principe que le blob est la quintessence de l’humanité, ce que je trouve assez critiquable…)
Le 17/01/2020 à 17h43
" />" />
Le 17/01/2020 à 17h49
" />
Le 17/01/2020 à 17h50
Le 17/01/2020 à 17h50
Le 17/01/2020 à 18h44
boarf, je suis pas forcément d’accord avec le “esquive piteusement” (mais je le suis avec le reste du message et le précédent)
en analysant (maintenant et avec mes souvenirs d’il y a probablement plus de 20 que j’ai lu les bouquins) je me dit que c’est pas une esquive, car c’est pas le centre de la reflexion.
la reflexion n’est pas tant de savoir “comment identifer ce qui est bon pour l’humanité”, mais “si on savait ce qui est bon pour l’humanité”, ce que fait je ne sais plus quelle entité qui “développe” la loi zéro, comment y arriver.
ça c’est le point de départ, on admet qu’une entité à identifié un état ultime et peut nous y guider. est-ce pour autant une raison pour bafouer le reste, ou comment choisir la route (longue, mais en pente douce et tout le monde survit, ou courte, mais c’est une falaise à pic et y’aura des pertes voire des sacrifices en chemin (les libertés individuelles)) ?
je pense que l’intérêt des romans ou des nouvelles est plus sur ce point que sur le “comment juger ce qui est bon pour l’humanité en général”
Le 17/01/2020 à 18h48
Et le reste du monde, il fait quoi avec ses robots ?
Le 18/01/2020 à 01h28
Le mot “robot” a été remplacé par “système”" />
Le 18/01/2020 à 21h38
Du coup, faut faire monter la radioactivité de la Terre pour favoriser SpaceX et la conquête de la galaxie par les américains l’humanité ?
Le 19/01/2020 à 14h36
Hello Marc,
je ne sais pas si la transcription est de vous mais elle comporte une erreur (tout un chacun) :
Cette loi vise donc à interpeller tout à chacun quant à son rôle…
Le 19/01/2020 à 17h50
C’est le robot humanoïde Daneel R. Olivaw de mémoire qui développe la loi 0 dans le cycle de fondation. Quand il l’explique à son comparse robot non humanoïde Giskard R. Rventlov, ce dernier crame son cerveau sur place tellement le concept devient abstrait pour son cerveau positronique « de base »
Le 17/01/2020 à 08h30
+1, tu résumes ma pensée.
Le 17/01/2020 à 08h33
+1, ça fait parti du bluff surement " />
Sinon je vois bien un contournement du genre:
…
(-Hahaha, ils l’ont bien cherché ces cons, des siècles de philosophie, d’intelligence et de psychologie sans être foutu de se définir…)
Le 17/01/2020 à 08h41
C’est comme pour les sites porno : “y’a qu’a faut qu’on”
il te balance une obligation de moyen sans la moindre once d’un début de solution en accompagnement.
Si ça passe je souhaite bien du courage aux entreprises qui se lanceront dans l’IA pour déterminer et implémenter les concept d’humain, de nuisance de ces dis humains ou encore l’auto-protection, tous ses concpet ayant l’air relativement simple (et encore), en les combinant on fait face à une notion de porté des décisions qu’il va falloir arbitrarement limiter et fatalement les lois ne pourront plus être respecter.
Bref encore une fois un truc bien bancale, même si ça par surement d’une bonne intention.
Le 17/01/2020 à 08h50
Chômage, Insécurité, Retraitres… Heureusement, les députés, avec le sens des priorités ont le temps de s’occuper des sujets importants.
Le 17/01/2020 à 09h03
Tiens, encore un député LREM qui brasse du vent.
Je suis sûr que la majorité pourrait subvenir aux besoins électrique d’une commune de 10.000 habitants si on les mettait face à des éoliennes. Ils y seraient bien plus efficient qu’à l’Assemblée :)
Le 17/01/2020 à 09h49
Je trouve qu’on le critique beaucoup le monsieur LREM, mais en attendant, il a raison de vouloir mettre ça en avant. Et même si ce n’est pas parfait, au moins ça permet de faire progresser le dialogue autour de ce sujet.
Faudrait pas attendre que Skynet soit en ligne pour vouloir changer les règles du jeu.
Le 17/01/2020 à 09h56
Pour Skynet, t’inquiètes pas, je suis dessus. " />
Le proto est déployé et en cours de validation. " />
Le 17/01/2020 à 10h26
mouih, enfin ça dépend ce que tu entend par “démonter”
si c’est pour leur intérêt, quand on les lit elles sont pourtant “logiques” et nécessaires
mais c’est leur interprétation (et surtout les biais dans les définitions) qui pose problème et qui est à la base de chacune des histoires
j’apprécie notamment les aventures de Grégory Powel et Mike Donovan, qui sont toujours envoyés sur des cas improbables avec comme consigne de réparer XD
faudrait que je relise tout ça d’ailleurs, ça doit bien faire 20 ans oO
le problème immédiat avec les formulations de la charte, c’est les capacités de ce qu’on appelle IA aujourd’hui : extrêmement limité / spécialisées
je pense qu’aucune n’a de notion “d’être humain”, alors pour identifier un “danger” c’est pas gagné.
je pense que là on est pile dans la nouvelle d’Assimov (j’ai plus le titre en tête) où Grégory et Mike sont envoyés sur je sais plus quelle station spatiale/ satellite qui est un générateur qui envoie de l’énergie (à la terre ? me souvient plus trop) et dont les robots ont créé une espèce de religion autour de leur générateur. les robots n’identifient pas Grégory et Mike comme des humains donc ignorent royalement leurs directives, mais comme ils suivent l’état du générateur les robots corrigent correctement le problème qui risquait de carboniser la terre, ignorant totalement l’humanité pour le coup, la sauvant par effet de bord, plutôt que par volonté
Le 17/01/2020 à 10h51
Cadeau " />
Le 17/01/2020 à 11h08
haha, exactement, bien joué
tu connaissais le nom et t’as trouvé l’article pour fournir un lien, ou t’as décortiqué mon explication et fait des recherches à partir de là ?
edit, j’avais oublié le coup du “on dit rien au tech’ qui vient d’arriver” XD
Le 17/01/2020 à 11h10
J’ai fait une recherche sur : nouvelle asimov gregory mike
Et le hasard a voulu que le premier résultat était le bon. " />
Le 17/01/2020 à 11h58
L’IA n’est jamais qu’une copie fonctionnelle et sous d’autres modalités pratiques de nos pensées.
Le risque de perte de maîtrise apparaît seulement si ces programmes très pointus sont mis en réseau et peuvent se positionner individuellement vis-à-vis de celui-ci.
Là on pourrait parler d’espèce singulière et non plus seulement d’un de ses attributs sur le mode du “cerveau artificiel”.
Quant aux algorithmes c’est la distribution du programme qui est en cause, non son résultat. Il faudrait donc choisir sans emphase au nom de quel statut appliquer une sanction.
Le 17/01/2020 à 12h16
Si on se fie à la définition donnée par le député :
Un algorithme évolutif dans sa structure, apprenant, au regard de sa rédaction initiale
Nul besoin d’un utilisateur à proprement parler.
Le 17/01/2020 à 12h45
Il y a forcément quelqu’un qui a lancé l’exécution de cet algorithme. C’est lui que j’appelle utilisateur.
Le 17/01/2020 à 12h55
Utilisateur : IA, trouve le moyen de réduire la pollution dans le monde.
IA : La pollution est provoquée par les humains, lancement du programme de nettoyage…
Le 17/01/2020 à 13h20
d’où l’émergence de la loi zéro d’Assimov