Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »
Ja tvoi sluga, ja tvoi rabotnik
Le 06 juin 2017 à 07h25
4 min
Droit
Droit
Dans un avis d’initiative portant sur l’intelligence artificielle et ses retombées pour le marché unique, la production, la consommation, l’emploi et la société, le Comité économique et social européen s’oppose à accorder la moindre personnalité juridique aux robots.
Le Comité économique et social européen (ou CESE) est un organe consultatif de l'Union européenne. Composé de « représentants d'organisations de travailleurs et d’employeurs et d’autres groupes d’intérêts » a pour mission notamment de « veiller à ce que la politique et la législation de l'UE soient adaptées à la situation économique et sociale en recherchant un consensus favorable à l'intérêt général. »
Dans un avis publié sur l’IA et sur lequel nous reviendrons plus longuement, le CESE s’est penché sur une question épineuse. Celle de la possibilité d’accorder, ou non, la personnalité juridique aux robots. Dire qu’une entité dispose d’une telle capacité, c’est lui reconnaître des droits et des obligations. Des obligations : indemniser les personnes qui du fait d’un robot, auraient subi un préjudice matériel, corporel ou encore relatif à une violation de la vie privée. Des droits : percevoir une réparation, en cas d’atteinte à l’intégrité de cet amas de tôles et de circuits imprimés.
Un rapport du Parlement européen milite pour une telle reconnaissance
Le 16 février 2017, un rapport d’initiative avait été adopté en ce sens au Parlement européen. Parmi les pistes suggérées, il imaginait la création d’une telle personnalité juridique spécifique aux robots. « Il s’agirait du même principe que celui dont nous disposons actuellement pour les entreprises » exprimait alors la rapporteure Mady Delvaux, eurodéputée S&D.
Très en phase avec la proposition de Me Alain Bensoussan, le texte demandait particulièrement à la Commission européenne, dans le cadre d’une future étude d’impact, « la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers ; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers ».
Abus, risque moral et autres effets collatéraux
L’analyse du CESE est aux antipodes. Le comité « s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou l’IA » expose-t-il dans son avis. Et celui-ci d’expliquer pourquoi : « Les effets correctifs préventifs du droit de la responsabilité civile s’en trouveraient en effet vidés de leur substance. De plus, cela créerait des possibilités d’abus de même qu’un risque moral au niveau tant du développement que de l’utilisation de l’IA ».
Il épingle même un « risque moral inacceptable inhérent à une telle démarche » puisque selon lui, avec une telle réforme, « le fabricant n’assumera plus le risque de responsabilité, celui-ci ayant été transféré au robot (ou au système d’IA) ». Et ce n’est pas tout, « le risque d’utilisation impropre et d’abus d’une telle forme juridique existe » (voir sur ce sujet, notre intervention au GEM Digital Day 2016, à Grenoble).
En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes. Plutôt que le grand saut, le CESE juge plus opportun d’analyser la législation en cours et d’en combler les éventuelles lacunes. En juin 2016, le comité STOA (Science and Technology Options Assessment) au Parlement européen avait d'ailleurs identifié six domaines (transports, systèmes de double utilisation, libertés civiles, sécurité, santé et énergie) où les développements de la robotique et de l’IA pourraient exiger de telles révisions.
Autre piste, le souhait d’une réglementation mondiale, « étant donné qu’une réglementation régionale ne suffira pas et aura même des effets indésirables ». En creux, se dessine le risque de protectionnisme, ou de forum shopping qui consiste à élire une législation plus favorable aux intérêts des concepteurs. Sur ce point, le Comité demande à l’UE « de jouer un rôle moteur dans l’établissement de cadres stratégiques clairs et universels en matière d’IA et de stimuler ce processus au niveau mondial ».
Reconnaître une personnalité juridique aux robots, « un risque moral inacceptable »
-
Un rapport du Parlement européen milite pour une telle reconnaissance
-
Abus, risque moral et autres effets collatéraux
Commentaires (45)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 06/06/2017 à 07h40
je veux pas engager un débat ou quoi que ce soit mais…
je suis le seul à découvrir l’existence du CESE ?" />
Sinon, leur avis est assez intéressant, oui.
Le 06/06/2017 à 07h53
J’ai le sentiment qu’on a d’un côté des gens qui se posent des questions et essaient d’anticiper un peu les défis juridiques à venir, et de l’autre des gens qui n’ont pas envie ne serait-ce que d’entrer en matière sur l’examen de la question.
Qu’on le veuille ou non à un moment donné ces questions de responsabilité vont se poser. Le système actuel n’a pas été pensé pour ces situations. Il serait sain d’accepter au moins d’ouvrir le débat.
Parler de personnalité est une chose, mais on peut aussi examiner les effets qu’on veut accorder à celle-ci (apportant des obligations voire des droits). L’analogie avec la personnalité morale est plutôt pertinente. Peut-être que c’est trop tôt.
En bref, le “risque d’éluder la responsabilité civile” ne justifie pas qu’on ne réfléchisse pas à la question. Idem pour le fait qu’une réglementation régionale (à l’échelle de l’UE quand même) ne proposerait pas de solution convenable: c’est le cas pour tout d’internet au droit pénal, en passant par tous les autres domaines du droit.
Le 06/06/2017 à 07h54
Génial !!
Alors que l’I.A en est seulement à ses balbutiements on commence déjà à discuter de ses éventuels droits alors que, après des millénaires de cohabitation, on commence tout juste à discuter (souvent à reculons) du droit des animaux qui eux sont pourtant des êtres bien vivants et donc sensibles…
Un jour il sera peut-être considéré comme un crime le fait de balancer un coup de marteau sur un tas de ferraille débile alors qu’on pourra continuer à massacrer un taureau innocent dans une arène pour le plus grand plaisir d’une bande d’excités et au nom de la culture et des traditions… " />
Le 06/06/2017 à 08h02
En clair, reconnaître une personnalité juridique à ces systèmes aussi automatisés qu’autonomes entraînerait mécaniquement une déresponsabilisation des concepteurs de ces systèmes.
Outre l’aspect “responsabilité en cas d’accident”, la personnalité juridique permet de définir une subordination juridique robot/entreprise… et donc de créer un contrat de travail.
Et là c’est la porte ouverte a une nouvelle lutte des classes: concurrence humain/robot, gestion des ressources (non) humaines, ….
Groupe Renault
SIREN: 441 639 465,
effectif: 120 275 *
(*) dont 85 724 robots. " />
Le 06/06/2017 à 08h04
Et on pourra de rétorquer : “le droits des animaux ? Mais le droits des femmes alors ? Dans certains pays elles ne sont pas du tout considérées”. Et là on répondra : “et le droits des hommes alors ? Avec des prisons horribles dans certains pays, les sévices etc.” … On répondra encore :“et le droit des enfants alors ? Le travail à 9 ans pour miner ou fabriquer des chaussures”…
Et là un mec ferra remarquer aux autres : le système n’est pas mono tâche.
Le 06/06/2017 à 08h06
Ca dépend comme on voit les choses effectivement. Mais je pense qu’il est bien trop tôt pour penser définir un droit à un robot complètement autonome…
Sinon on va se retrouver avec des robots tueurs, voleurs etc. et “ah bah c’est l’IA”. Pratique pour les services de renseignements, les politiciens…
Le 06/06/2017 à 08h11
Voici une conséquence de ce que je comprends des remarques du CESE:
Aujourd’hui, si je tue/blesse quelqu’un avec ma voiture:
Être responsable signigifie, entre autre, être celui qui dédommage (éventuellement par le biais d’une assurance à qui on a délégué ce risque).
(Constructeur responsable: j’ai au moins un exemple en tête, il a fallu quelques années de procès)
Avec un robot personne morale: Il est responsable, c’est donc lui qui dédommage. " />
Le 06/06/2017 à 08h29
Et que dire du cas d’un robot-taureau de moins de 3 ans ?
Plus sérieusement, pour l’instant je ne vois pas li’ntérêt de cette legislation. Tant qu’on considère qu’un robot appartient à quelqu’un, et qu’il est incapable de lui désobéir, il ne peut être reconnu comme coupable, ou même responsible. Comme aurait dit Jessica, ce n’est pas de sa faute, il a été conçu ainsi.
Donc pour moi c’est beaucoup beaucoup trop tôt pour ça.
Le 06/06/2017 à 08h29
Tu as lu l’article ? Je suppose que non puisque ton commentaire n’as aucuns rapport avec le contenu.
On parle ici de personnalité juridique, donc de donner des droits et des devoirs (éventuellement différents des humains) à des IA. Ce qui est très différent de la protection des animaux.
De plus, les animaux en avaient bien au XIIIème siècle puisque plusieurs animaux ont été jugé dans des tribunaux, ce qui n’as bien entendu aucuns sens puisque les animaux ne comprennent ni notre langue ni nos lois.
C’est avec ce genre de coimmentaire que j’ai l’impression de régresser au moyen-âge " />
Le 06/06/2017 à 08h30
[mode beauf]on a déjà donné des droits aux femmes, maintenant il va falloir en filer aux robots[/mode beauf]
Le 06/06/2017 à 08h43
Bah si justement, le système actuel répond parfaitement à la question sans ambiguïté ni échappatoires : le propriétaire du robot est responsable.
Ensuite, donner des droits et devoirs à une entité qui n’a pas conscience de la loi, je ne pense pas que ce soit une bonne idée. Ça n’est pas pour rien que les enfants et les personnes aux facultés mentales altérés ne sont pas responsables et ont besoin d’un tuteur.
Le 06/06/2017 à 08h46
Sarah Connor " />
Le 06/06/2017 à 08h59
Le 06/06/2017 à 09h01
Donc si un robot est responsable de ses actes il faudra qu’il aille bosser pour gagner sa thune si jamais il doit verser des dommages et intérêts à quelqu’un?
À quand le robot humanoïde qui s’achète une tesla parce qu’il a la flemme de marcher? " />
Le 06/06/2017 à 09h03
Le 06/06/2017 à 09h24
Non mais comme je le disais : le système n’est pas mono tâche.
Et puis les animaux ont déjà pas mal de droits. Les abattoirs qui doivent être mis en conformités, les règles à respecter pour obtenir des labels ou autorisation etc. On a aussi des lois contre la cruautés sur les animaux domestique, les zoo etc.
Donc ton argument “on commence à peine” faut pas déconner non plus… On s’en occupe. Et vu à la vitesse avec laquelle les “IA_qui_n’en_sont_pas_encore” progressent, il devient intéressant de s’en préoccuper.
Et puis, je ne comprend pas ton raisonnement : pour les animaux en gros on s’en occupe tardivement voir trop tard, mais si on veut s’en occuper (d’un problème) en avance, ca ne va pas non plus ? Le nombre de commentaires qu’on peut lire sur “notre gouvernement est toujours en retard”, “les lois ne sont jamais adaptées à temps” etc. et voilà que quand on veut réfléchir avec un peu d’avance, ca ne va pas non plus…
Le 06/06/2017 à 12h35
Le 06/06/2017 à 13h45
Il y a un biais dans pas mal de commentaires qui voudrait qu’une IA soit nécessairement meilleure (ou nécessairement pire) qu’une intelligence humaine.
On peut reconnaitre aux IA une intelligence comparable aux humains (dans une situation donnée).
Le 06/06/2017 à 15h49
Le 06/06/2017 à 16h09
voilà pourquoi on a justement besoin de définir juridiquement le statut des IA: Maintenant, il y a déjà des thématiques assez proches qui sont plutôt compliquées (quid du drone pourtant piloté par un humain dans un bureau qui lance un missile parce que tel identifiant de téléphone portable s’est connecté à tel réseau en même temps que tel téléphone présumé terroriste, qu’il a eu des interactions avec tel personne identifiée comme terroriste, ce qui fait qu’il y a 82% de probabilité d’être un terroriste?) alors qu’on est encore à des années lumières de la question de décisions purement prises par l’IA elle même.
En plus, si les androïdes ne sont pas pour tout-de suite, et si les robots à la i-robot sont de la musique d’avenir, les IA capables d’apprendre, et de faire des choix compliqués sans pour autant être parfaitement intelligentes sont beaucoup plus d’actualité.
Si on ajoute à ça un processus législatif en général très lent et beaucoup plus dans la réaction que dans la prévention, on peut ressentir le besoin de se lancer dans le processus. Au bas mot, il n’y aura pas de législation avant les 10 15 prochaines années, et à ce moment là, il y a de bonne chances que le besoin se fasse sentir.
Après, je n’ai pas porté de jugement de valeur sur le contenu de ce statut: on peut imaginer qu’à terme, les IA soient si développées qu’il deviendrait évident de leur reconnaitre des droits fondamentaux, ou certains droits, dans certaines situations. On peut aussi imaginer qu’à partir d’un certain degré d’intelligence, l’IA puisse être considérée comme devant payer des cotisations sociales, ou autre.
Pour en revenir aux personnes morales, c’est pas parce que celles-ci ont la personnalité que les personnes physiques qui agissent derrière ne sont pas inquiétées. ça pourrait être pareil pour les IA.
C’est vraiment très réducteur et ça m’étonne un peu de ce CESE de dire que parce qu’on donnerait un statut à une entité on éviterait la responsabilité de son concepteur. Le droit de la responsabilité civile est bien plus efficace et robuste que ça.
Le 06/06/2017 à 16h19
après il y a tout un tas de variations:
Un exemple:
Si la voiture appartient à l’employé d’une entreprise et qu’il est en mission, c’est la responsabilité de cette entité non physique que de payer les dégâts (sauf exception).
SI la voiture est pilotée par une IA, est-ce la responsabilité du concepteur ou de celui qui utilise l’IA pour ses travaux?
Plus compliqué: quid lorsque la voiture est pilotée par un humain mais qu’elle se permet de planter les freins dans certaines situations pour sa sécurité?
Encore une fois, tout dépend de ce qu’on va décider de lier à ce statut, et ce qu’on va associer à ce statut. Voilà pourquoi je trouve que la discussion mérite de se faire, et voilà pourquoi je suis en désaccord avec le refus brutal du CESE.
Après, quel incroyable bon en avant on aura fait lorsqu’on devra se demander s’il faudra étendre les déclarations des droits de l’homme aux intelligences artificielles parce qu’elles seront capable de ressentir! mais c’est encore, et pour longtemps à priori, de la science-fiction.
Le 06/06/2017 à 16h32
On en reparlera quand on en aura une, d’IA. Pour le moment, beaucoup d’agitation pour rien.
Ou alors ils parlent des robots actuels, et là c’est délirant.
Le 06/06/2017 à 19h08
Je ne suis pas sûr qu’il soit trop tôt pour se poser la question: on a bien vu avec l’IA de microsoft qui trollait sur twitter.
On condamne bien des humains pour de la diffamation.
Je ne sais pas jusqu’à quand il sera raisonnable de donsidérer les concepteurs comme “responsables légaux” de ces automates, qui de plus en plus vont apprendre, voire se programmer eux-mêmes.
Le 06/06/2017 à 19h23
Je l’avais oublié celle là.
Et qui est responsable ? Le concepteur de l’algorithme de l’IA ou celui du jeu de données d’apprentissage ? " />
Le 06/06/2017 à 20h44
Ja tvoi sluga, ja tvoi rabotnik
Oh cette référence ! :O
“We are the robots… Tin tin Tintin…” " />
Le 07/06/2017 à 12h13
Pour Descartes il faut ajouter la dimension religieuse très présente à l’époque (il comparait les animaux à des machines, et si ces dernières étaient plus complexes que les machines créées par l’homme, c’est juste parce qu’elles avaient été créées par Dieu…). Puis du coup si un chien ça a une âme alors un cafard aussi, et ça ça posait problème à l’époque " />
Le 07/06/2017 à 13h26
Tout à fait et c’est bien pour ça que j’ai bien précisé qu’il raisonnait avec les connaissances et éléments de son époque.
C’est un peu le problème des anciens philosophes dont beaucoup considèrent qu’ils parlaient “d’or” et les citent en exemple en permanence, même si certains de leurs propos sont devenus complètement irrationnels avec le temps.
Et oui, les temps changent et force est de constater beaucoup de leurs pensées sont devenues complètement obsolètes et même parfois à la limite du ridicule voire carrément ridicules comme cet avis de Descartes sur les animaux.
Tout philosophes qu’ils aient pu être ils étaient avant tout des humains comme les autres.
Le 12/06/2017 à 00h54
Les philosophes de l’Antiquité avaient déjà imaginé les androides.
Asimov en a parlé dans ses livres.
Le 12/06/2017 à 05h46
Oui mais déjà Asimov c’est un contemporain, pas un mec des siècles passés…
D’autre part tout ce qu’on pu dire des philosophes des siècles passés n’est pas à mettre à la poubelle, simplement certaines de leurs réflexions et pensées très liées à leur époque ne veulent plus rien dire de nos jours.
Et si on fait l’inventaire de leurs réflexions je crois que tous ont des trucs obsolètes en stock, ce qui n’empêche pas que ces trucs obsolètes sont souvent cités quand même.
Il est normal, compte tenu de l’explosion démographique, de l’arrivée de l’ère industrielle et des avancées scientifiques (entre autres), que des choses dites autrefois ne soient plus valables de nos jours, quel qu’en soit l’auteur. Encore qu’il y a encore des gens pour croire au créationnisme, comme quoi tout est possible. " />
Par contre si tu dis des évidences telles que l’eau ça mouille et le feu ça brûle, il est probable que ça sera encore vrai dans les siècles futurs, enfin on peut le supposer… " />
Le 06/06/2017 à 09h25
Les entreprises et les associations sont des entités juridiques : elles ont des dirigeants, des mandataires. Des responsables humains.
On fera pareil pour les robots. D’ici à ce qu’on les identifie à des personnes physiques sans tutelle …de l’eau aura coulé sous les ponts.
Le 06/06/2017 à 09h30
Le 06/06/2017 à 09h37
Le 06/06/2017 à 09h38
Ca me semble une bonne décision. En tant que personne morale, une entreprise a droit a un compte bancaire et peut donc dédommager une autre personne (physique ou morale) dans le cas où elle serait jugée responsable d’un dommage.
Si on reconnait un robot comme une “personne électronique”, comment fait-on dans le cas où elle est jugée responsable d’un dommage ? Il faut aussi lui permettre d’avoir un compte pour qu’elle puisse dédommager ? Dans ce cas il faut la rémunérer pour le travail qu’elle fournit ?
Quelqu’un a un lien vers un article qui explique la position de ceux qui militent pour cette reconnaissance ?
Le 06/06/2017 à 09h38
Le 06/06/2017 à 09h45
Le 06/06/2017 à 09h50
Le 06/06/2017 à 09h54
La notion de “personne électronique” est surtout abordé dans le cas ou un robot serait capable d’un certain apprentissage et que au bout d’un certain temps ces actions ne pourraient plus être imputables entièrement à son créateur. On pourrait donc avoir des régimes de coresponsabilité entre le créateur du robot et une assurance à prendre par le titulaire du robot.
Pour prendre une analogie pas forcément la plus habile :
De la même façon qu’un enfant n’est pas responsable de tous ses actes pénalement et civilement avant un certain temps, au départ la responsabilité est au créateur (Parents) puis au fur et a mesure de son “apprentissage” il acquiert une responsabilité pénale puis civile autonome (Majorité/émancipation).
Le 06/06/2017 à 09h59
Le 06/06/2017 à 10h09
Le 06/06/2017 à 10h31
Le 06/06/2017 à 10h53
Le 06/06/2017 à 11h55
N’importe quelle machine mécanique est un robot.
Il n’y a pas besoin qu’elle “pense.”
Le 06/06/2017 à 12h02
Elle en a déjà et ce n’est pas codifié. Pense à l’influence des logiciels de Google dans son ensemble.
Le 06/06/2017 à 12h21
Je ne me rappelle pas que l’assistant de Google ait promulgué une loi…
De l’influence oui, c’est obligatoire vu qu’on “vit” avec. D’ailleurs c’est bien pour çà que nous, les humains, voulons commencer à légiférer. Mais donner le pouvoir aux IA de contrôler la justice des hommes, c’est franchement se diriger en courant et têtes baissées vers Terminator et Matrix " />
Le 06/06/2017 à 12h27