Robots tueurs : une centaine d’experts interpellent l’ONU
Avant de tous devenir des Sarah Connor
Le 21 août 2017 à 12h58
7 min
Société numérique
Société
À partir d'aujourd'hui, des experts gouvernementaux devaient se réunir sous l'égide des Nations Unies pour se pencher sur la question des systèmes d’armes létaux autonomes. Le rendez-vous a été annulé et plus d'une centaine d'experts et dirigeants d'entreprise ont décidé de publier une lettre ouverte afin que le sujet ne soit pas oublié.
L'intelligence artificielle séduit autant qu'elle inquiète. Il faut dire qu'elle ouvre de très larges perspectives, dans quasiment tous les domaines. Afin de faire un point sur la situation, l'OPECST (office parlementaire d'évaluation des choix scientifiques et technologiques) publiait il y a quelques mois un épais rapport de 275 pages que nous avions résumé dans cette actualité.
Quelques semaines plus tard, le Comité économique et social européen se penchait également sur la question, en s'attardant principalement sur les risques. L'un d'entre eux concerne justement les armes létales autonomes et la cyberguerre au sens large du terme.
Aujourd'hui, plus d'une centaine d'experts et dirigeants provenant de 26 pays à travers le monde ont décidé de tirer une nouvelle fois la sonnette d'alarme via une lettre ouverte adressée aux Nations Unies. Elle est disponible sur le site de Future of Life Institute (FLI), une association qui s'est fixée pour mission de « catalyser et appuyer la recherche et les initiatives visant à sauvegarder la vie et à développer des visions optimistes du futur ». Elle a été publiée hier, une date symbolique qui ne doit rien au hasard.
Une réunion sur les armes létales autonomes prévue aux Nations Unies, puis annulée
En 2016, aux Nations Unies, se tenait une convention avec un intitulé à rallonge : la « cinquième conférence des Hautes Parties contractantes chargée de l’examen de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques qui peuvent être considérées comme produisant des effets traumatiques excessifs ou comme frappant sans discrimination ». Un des points abordés concernait les systèmes d’armes létaux autonomes (SALA).
Dans ce rapport des Nations Unies, de nombreuses délégations soulignaient l'importance de se pencher rapidement sur cette question. Un groupe d'experts gouvernementaux (GGE) baptisé Lethal Autonomous Weapons Systems (LAWS) avait alors été mis sur pied, avec à sa tête l'ambassadeur indien Amandeep Singh Gill.
Une réunion était planifiée du 21 au 25 août 2017, suivi d'une seconde du 13 au 17 novembre de cette année. Malheureusement, la première a été annulée, comme l'indique les Nations Unies sur son site, sans plus de précision. D'après la lettre ouverte publiée hier, la faute incomberait à « un petit nombre d'états qui n'ont pas payé leurs contributions financières aux Nations Unies ». Une annonce aura lieu d'ici à la fin du mois concernant la réunion du mois de novembre précise les Nations Unies.
Cette question doit être traitée rapidement, avant que la boite de pandore ne soit ouverte
Ce décalage dans le calendrier inquiète les experts et dirigeants cosignataires de la missive adressée aux Nations Unies. Dans le lot on retrouve Elon Musk (Tesla, SpaceX), Mustafa Suleyman (DeepMind) et Jérôme Monceaux (Aldebaran Robotics, Spoon) pour ne citer qu'eux (la liste complète se trouve ici). Certains n'en sont pas à leur premier appel du genre. C'est notamment le cas d'Elon Musk et de plusieurs milliers de personnes qui ont signé une liste de 23 principes en février dernier lors d'une conférence organisée par... Future of Life Institute.
Quoi qu'il en soit, tous « demandent instamment » aux Nations Unies de redoubler d'efforts car les armes létales autonomes pourraient devenir la troisième évolution dans la guerre, après la poudre et le nucléaire. Une fois que des armes du genre auront été développées, elles permettront aux conflits de s'étendre sur des échelles bien plus grandes (temps et/ou espace) précise les auteurs.
Elles pourraient également servir à des terroristes et des dictateurs contre la population, mais aussi être piratées préviennent les cosignataires. « Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer » ajoutent-ils en guise de conclusion.
Une machine peut-elle décider de la vie ou de la mort d'un être humain ?
Dans le compte rendu de la réunion d'experts sur les systèmes d'armes létaux autonomes de 2016, plusieurs points sont abordés. Tout d'abord, il en ressort qu'« il a été généralement admis qu’il n’existait encore aucun système d’armes pleinement autonome ». Par contre, les avis divergeaient concernant leur développement dans un avenir proche ou au contraire éloigné. Il est aussi indiqué que « plusieurs délégations ont affirmé qu’elles n’avaient pas l’intention d’en mettre au point », sans toutefois préciser lesquelles.
Aux Nations Unies, la question de l'éthique avait également été évoquée : « De l’avis général, la question, essentielle, de l’acceptabilité morale des systèmes d’armes létaux autonomes devait être abordée, et il était inenvisageable de déléguer à une machine la capacité de décider de la vie ou de la mort d’un être humain ».
Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu'une machine ne peut pas « mourir » (du moins pas encore) et qu'elles ne devraient donc pas pouvoir disposer de la vie d’un être humain.
Bref, bon nombres de questions restent en suspend et il faudra prendre des décisions avant que des systèmes d'armes létaux autonomes ne voient le jour. C'est dans cette optique qu'un groupe d'experts gouvernementaux devait se réunir à partir d'aujourd'hui afin « se pencher et de s’entendre sur d’éventuelles recommandations » pour le compte des Nations Unies.
De nombreux travaux attendent le groupe d'experts
Le groupe devait envisager deux problématiques : « le recensement des caractéristiques des SALA et l’élaboration d’une définition fonctionnelle de ces systèmes » et « l’application et le respect des principes juridiques et des règles de droit international pertinents, en particulier du droit humanitaire international, dans le cadre des SALA ».
D'autres pistes de réflexion sont également évoquées :
- Le respect du droit international des droits de l’homme, le cas échéant
- Les responsabilités et les obligations sur les plans juridique et politique
- Les questions éthiques et morales
- Les effets sur la sécurité et la stabilité régionales et mondiales
- Les effets sur le seuil nécessaire pour les conflits armés
- Le risque d’une course aux armements
- L’intérêt et les risques militaires
- Les risques de prolifération, y compris pour et par les acteurs non étatiques
- Les risques posés par les cyberopérations eu égard aux SALA
Reste maintenant à voir si les Nations Unies vont programmer une autre date ou bien attendre novembre pour que la première réunion se tienne. Dans tous les cas, il sera intéressant d'en étudier les recommandations et conclusions.
Robots tueurs : une centaine d’experts interpellent l’ONU
-
Une réunion sur les armes létales autonomes prévue aux Nations Unies, puis annulée
-
Cette question doit être traitée rapidement, avant que la boite de pandore ne soit ouverte
-
Une machine peut-elle décider de la vie ou de la mort d'un être humain ?
-
De nombreux travaux attendent le groupe d'experts
Commentaires (41)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 21/08/2017 à 14h03
Le 21/08/2017 à 14h06
et tu tues ceux qui ne veulent pas se soumettre? ….
Le 21/08/2017 à 14h17
Une mine c’est pas déjà une arme létale autonome ?
C’est un peu basique comme IA, elle n’aime pas qu’on lui marche dessus.
Le 21/08/2017 à 14h32
Je pense que malheureusement pour la course à l’armement, il n’y a pas de meilleure solution que “Si tu veux la paix, prépares la guerre”.
Personne ne peut se désarmer de nos jours. Parce qu’il faudrait que tout le monde le fasse, sans secret et dans une absolue confiance… infaisable.
Le 21/08/2017 à 14h33
Les états vont s’en foutre royalement et généralement, ce genre de lettres ouvertes restent souvent lettres mortes…
Quand à l’utilisation de l’IA, si l’être humain peut en faire une utilisation malveillante, il le fera assurément…
Le 21/08/2017 à 14h34
Le 21/08/2017 à 14h46
Le 21/08/2017 à 14h50
Le 21/08/2017 à 14h56
Le 21/08/2017 à 15h59
Le 21/08/2017 à 15h59
il s’agirait pas de tomber dans l’inhumanité, quoi " />
Le 21/08/2017 à 17h18
C’est marrant comment les sites anglophones ont eux, titrés cette news généralement en “Elon Musk interpelle l’ONU sur les robots tueurs”.
Rien a battre des autres scientifiques et experts, Elon Dieu s’est exprimé, que la raison soit.
Le 21/08/2017 à 17h46
Quelle différence avec des soldats qu’on conditionne pour qu’ils aillent assassiner leurs voisins en pensant rendre le monde meilleur? " />
Le 21/08/2017 à 18h00
simple delegation de responsabilite
Et puis comme ca on peut repondre: “mais c’est pas nous qu’on les forme, ils sont pas sous notre responsabilite ma p’tite dame”
Et si les gens ne sont pas contents, on fait un autre contrat avec des mercenaires garantis sans “Exactions” et promis on recommencera plus.
Le 21/08/2017 à 18h21
clinkers Clankers
" />
(pour ceux qui chercheraient sur Google de quoi tu parles)
Le 21/08/2017 à 18h34
L’intelligence dans l’armée ça donne ça:
" /> Les robots tueurs, même programmer par Einstein, ne pourront jamais faire autant d’actions “intelligentes” " />
Le 21/08/2017 à 13h08
Des guerres sans pertes humaines … séduisant.
Déjà que les drones pilotés à des milliers de km réduise considérablement les pertes (pour un camp seulement).
Craintes compréhensible, même si je ne doute pas que de telles armes autonomes soient effectivement développer. Toute la question est de savoir si ça se fera de manière «légal» et par tout le monde ou seulement par les états «voyous» / terroristes.
Le 21/08/2017 à 13h12
Vous imaginez des policiers ou des chirurgiens fabriqués par BostonDynamics ? " />
Le 21/08/2017 à 13h13
En matière d’armes de guerre autonomes, puisqu’on en est encore dans la fiction, je recommande la lecture de la nouvelle Nouveau Modèle de Philip K. Dick, adaptée librement en film (assez moyen, mais qui se laisse regarder) Planète hurlante.
Pour en revenir à la triste réalité, en matière d’armes autonomes, rappelons que Samsung en a construites et déployées le long de la frontière de la zone démilitarisée coréenne. Les recherches dans ce domaine existent, comme le montre cette simulation de combat aérien où l’IA prend systématiquement le dessus sur l’humain.
Le 21/08/2017 à 13h15
Le 21/08/2017 à 13h17
“Pour de nombreuses délégations, « il était inacceptable sur le plan éthique de confier à des machines la décision de vie ou de mort d’un être humain sans aucune forme d’intervention humaine ». Les experts en profitaient pour rappeler qu’une machine ne peut pas « mourir » (du moins pas encore) et qu’elles ne devraient donc pas pouvoir disposer de la vie d’un être humain”
Cool. Parce que bien entendu, disposer de la vue d’autrui sur une intervention humaine c’est acceptable, et comme un humain peut “mourir”, lui il peut disposer de la vie d’un autre humain….
On devrait interdire les armes létales. Point.
Le 21/08/2017 à 13h19
Vu les moyens qu’il faut pour développer ce style d’armes, les états voyous / terroristes ne seront pas le premiers à les mettre en oeuvre. on retrouvera les habituels exportateurs d’armes.
Le 21/08/2017 à 13h20
Les clinkers façon Star Wars première trilogie, c’est pas encore ça si j’ai bien compris…
La question doit être posée, de toute façons.
Le 21/08/2017 à 13h20
t’es en mode bisounours aujourd’hui? " />
Le 21/08/2017 à 13h23
Le 21/08/2017 à 13h24
Le 21/08/2017 à 13h26
Sudo killall risque à l’avenir d’avoir des effets néfastes si on n’y prend garde…
" />" />" />" />" />
Le 21/08/2017 à 13h27
class Human : IDisposable {};
Human target;
target.Dispose();
Le 21/08/2017 à 13h31
ça dépend du point de vue.
avoir un ennemi tétraplégique est plus intéressant stratégiquement: le mec va coûter une blinde à entretenir, et le coût psychologique est peut-être même plus élevé que la mort.
d’un autre coté ça fait un cerveau disponible pour expérimenter la transplantation dans un corps mécanique (pour rester dans le thème du cinéma). " />
Le 21/08/2017 à 13h49
Le 21/08/2017 à 13h53
STP
t’es prié de ne pas divulger mon bootloader.
Il est pas encore sous license GPL/BSD/CC
Le 21/08/2017 à 18h55
Le 21/08/2017 à 21h23
Le 21/08/2017 à 21h29
Le 21/08/2017 à 21h44
Le 21/08/2017 à 21h47
Le 22/08/2017 à 00h39
Le 22/08/2017 à 06h34
Le 22/08/2017 à 06h44
Le 22/08/2017 à 07h45
Le 22/08/2017 à 08h14
voix de dreadnought dans Warhammer 40K “I will purge the unclean !”