Dans un avis rendu le 29 avril, les membres du comité d’éthique de la Défense posent leur veto aux systèmes d’armes létaux pleinement autonomes (SALA, ou « robots tueurs »), mais ouvrent la voie aux armes robotisées pilotées par l’homme, relève Le Monde.
« La France confirme qu’elle ne développera et n’emploiera pas » de SALA, écrivent les dix-huit membres civils et militaires de ce comité présidé par le conseiller d'État Bernard Pêcheur, et où siège notamment l’ancien chef d’état-major des armées, le général Henri Bentégeat.
En revanche, le comité se dit favorable au développement d’armes intermédiaires, appelées systèmes d’armes létaux intégrant de l’autonomie (SALIA). Toute la nuance est dans le « i » de « intégrant ».
En clair, résume Le Monde, le comité d’éthique ouvre la voie à des armes ou des « robots » qui pourront certes tuer, mais seront « incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales », en s’adaptant de manière indépendante à un théâtre de guerre, par exemple. Cette définition peut concerner diverses catégories d’armes, comme des mules de transports, certains missiles ou drones.
Conscient de la compétition qui s’est engagée à l’international et des risques de « décrochages » pour l’armée française, le comité ne ferme en tout cas pas la porte à la recherche dans « les domaines de l’intelligence artificielle de défense et des automatismes dans les systèmes d’armes ».
Les travaux doivent « se poursuivre », insistent même les rédacteurs de l’avis, considérant qu’il s’agit aussi là d’un moyen de se « défendre contre ce type d’armes au cas, qui n’est pas improbable, où un État adverse ou un groupe terroriste entreprendrait de les employer contre nos troupes ou la population française ».
Après le « soldat augmenté » en décembre, c'est le deuxième avis que publie cette structure de réflexion indépendante adossée au ministère des Armées pour le conseiller sur les sujets les plus sensibles.
Cet avis doit encore être « étudié » par le ministère, qui s’exprimera « une fois que ses conclusions [du comité d’éthique] auront fait l’objet d’études d’appropriation au sein des services ».
Commentaires (24)
#1
Un missile de croisière, c’est déjà en quelque sorte déjà un robot tueur?
Il calcule de lui même son chemin le plus sûr pour arriver à destination.
Est-ce qu’une aide à la vidée dans les chars est un algo tueur? Car il améliore la précision, sans l’algo la cible aurait plus de chance de ne pas se faire toucher…
#1.1
La nuance se trouve dans le fait que ni le missile ni l’algorithme dont tu parles ne prennent de décision et ne sont donc pas autonomes. Ca serait des “SALIA” si l’on reprend le terme de l’article.
#1.2
Oui mais non d’après moi : un missile comme une aide visée ne choisi pas sa cible tout seul. L’aide à la visée n’est qu’une aide, le tireur s’il est doué peut y arriver sans ;) Et pour le missile il est toujours possible de l’annuler en plein vol.
Pour moi un SALA c’est un système à qui on dit “va dézinguer tel personne ou tel groupe”, et il trouve par lui même la meilleure façon d’y arriver en fonction de ses capacités.
#2
… Déjà si on arrêtait de vendre ce genre d’armes aux-dits pays et organisations douteuses, on aurait pas besoin d’en arriver là…
…mais c’est sûr que tout de suite ça rapporte moins de sous. Faudrait pas laisser l’exclusivité du marché des faucheurs d’âme de masse aux USA non plus.
#3
Donc, des robots de type SAINT seraient des SALA, d’après cette définition d’armes létales pleinement autonomes ? Comme quoi, encore un exemple où la SF ne fait qu’anticiper la réalité (prochain épisode : KITT, une Tesla avant l’heure ?)…
#4
L’autre sujet important est de savoir qui effectue le “contrôle humain”. Les conventions internationales devraient exiger que cette personne soit un militaire (donc formée au combat avec une capacité de discernement et sous les ordres d’une hiérarchie de l’armée) et non pas de simples civils qui commettraient alors des meurtres. C’est actuellement le cas en France, mais il y a de gros doutes dans d’autres armées notamment lors de l’utilisation de drones qu’on peut supposer être pilotés en toute discrétion par des agences civiles.
#4.1
La CIA a utilisé des Predator armés effectivement. La CIA est civile.
Sinon les drones sont généralement pilotés au combat par des militaires mais entre les mains du fournisseur au moment des décollages et atterissages.
Ainsi le fabriquant du Reaper a crashé un Reaper français et a fait le remplaçant pour l’euro symbolique.
#5
Il n’y a aucun doute que Blackwater par exemple a utilisé des mercenaires pour faire le boulot des militaires (y compris tirer dans la foule).
#6
Le robot fera tout le boulot et demandera juste cliquer sur OK pour zigouiller du monde ?
#7
“court circuit” c’est bien ça ?
(du coup je suppose comme toi que ce seraient des SALA)
#8
Uniquement si tu acceptes les cookies !
#9
On peut espérer qu’il est aussi possible d’annuler les opérations d’un SALA…
Ça pose un tas de problèmes techniques, notamment sur l’identification des cibles et les règles d’engagement.
#10
Oui on peut annuler sa mission, et alors il rentre gentillement a la base. Un missile pour l’annuler, il faut le détruire.
Dans la même veine, pour un SALA peut voir sa mission modifiée alors qu’il est déjà en service, contrairement à un missile.
C’est là d’après moi toute la problématique des SALA.
#11
C’est la forme la plus basique, oui ! La version améliorée c’est le drone qui emporte des missiles.
Après je pense que la définition banalisée du robot tueur c’est le fait de pouvoir engager une cible particulière sans faire un massacre en dommage collatéral. Un simple drone avec un pistolet pourrait donc être un robot tueur.
Après t’a la définition un peu plus science fiction ou le robot est tellement évoluer qu’en gros face à lui tu n’a aucune chance et je pense que c’est la toute la différence.
Un drone qui t’engage avec un pistolet tu peut lui tirer dessus et te planquer dans un lieu clos pour prendre la fuite. Alors qu’un robot bipède et sur roulette pourra surement exploser la porte pour continuer de te traquer.
Le problème des machins avec de l’intelligence artificielle c’est qu’a tout moment il y à un bug, donc si ce n’est pas un humain qui presse la gâchette même à distance, ça peut être très dangereux.
Le meilleur exemple c’est celui ci : https://www.youtube.com/watch?v=yRP3HdkyL24
#12
à mon avis il y aura plusieurs modes : alerter l’opérateur, intimider l’intrus, … et tir automatique sur tout ce qui bouge. Obligé, par exemple dans une pièce dont on sait que des forces hostiles (et seulement elles) vont tenter de s’y introduire. Après bien sur est-ce qu’il y aura un time out maximum, qui obligera à reconfirmer avant 5mn ? 3mn ? 1 heure ? Du coup la frontière est bien mince…
#13
C’est le titre francisé pour le Québec, et donc oui.
Puisque ces robots sont aussi censés être des systèmes complètement autonomes (même si on voit dans cette scène qu’on peut aussi les commander à distance en temps réel), c’est clair qu’ils rentreraient dans la catégorie « SALA ».
#14
aucune idée du titre de sortie en france, j’avais un vieux souvenir de quelques scènes l’ayant vu gamin, je l’ai revu vaguement y’a quelques années sous ce titre XD
(et du coup je suis presque sûr que c’est à ça qu’ils font référence dans borderlands (2) avec la mécromancienne qui sort de temps en temps “numéro 5 en vie” quand elle appelle son robot :p)
#15
Short Circuit, tout simplement. En revanche, sa suite, Short Circuit 2, a été renommée Appelez-moi Johnny 5 chez nous. Avec WarGames, ils constituent le top 3 de mes films préférés de tous les temps.
Je dirais qu’il y a de fortes chances, en effet ! :3
#16
Ils vont en distribuer beaucoup alors 😭
#17
Sarah Connors ?
C’est ça un SALIA (Système d’Arme Létale avec Intelligence Artificielle)
#18
Non c’est très réducteur, ce ne sont pas des robots tueurs mais des systèmes autonomes favorisant l’arrêt de fonctions biologiques.
#18.1
excellent WarGames en effet, même s’il a quand même prit un sacré coup de vieux
j’adore cette formulation “favorisant l’arrêt de fonctions biologiques”, bravo
#19
Le simple fait qu’en 2021 on cherche encore de nouveaux moyens pour tuer des êtres humains me fait
#19.1
Vois le côté positif des choses : on cherche comment tuer des humains en faisant prendre le moins de risque possible à d’autres humains que l’on veut remplacer par des robots.