Thales ne veut pas concevoir de robots tueurs autonomes et réclame une législation internationale
Le 25 janvier 2019 à 09h23
2 min
Sciences et espace
Sciences
L'annonce a été faite par le PDG du groupe, Patrice Caine, lors d'une visite dans les laboratoires de la société, puis reprise par l'AFP.
Le dirigeant ne veut pas de robots tueurs équipés d'une intelligence artificielle et souhaite que « les pays mettent en place une législation au niveau international pour que le terrain de jeu soit clair pour tous ».
Il donne un exemple pratique : « Pensez aux drones construits avec des armes et de la détection faciale : vous aurez alors des assassinats ciblés visant des groupes de population en particulier ».
Le PDG affirme que sa société « n'appliquera pas l'IA dans tout ce qui est létal [même] si les clients le demandent ». Il refuse en effet de « donner de l'autonomie à un système d'armes pour que de lui-même il puisse décider de tuer ou pas ».
Pour rappel, cette question des robots autonomes tueurs s'est également invitée à l'ONU et Thales n'est pas la seule société à s'en inquiéter. Une centaine d'experts ont publié une lettre ouverte pour que cette question ne soit pas oubliée : « Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, il sera difficile de la fermer », expliquaient-ils.
Le 25 janvier 2019 à 09h23
Commentaires (33)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 25/01/2019 à 09h46
” le terrain de jeu “
Le 25/01/2019 à 09h53
Je suis plus qu’étonné de lire ça…
La France est tellement en retard dans le domaine qu’elle préfère faire interdire ça?
Je sais même pas quoi en penser tellement cette déclaration n’a pas de sens, surtout par cette personne.
(non pas que j’approuve le principe)
Le 25/01/2019 à 09h57
Moi au contraire, je ne suis pas étonné du tout. Confier à une IA, dont on ne sait même pas précisément comment ça marche, la responsabilité d’identifier et tuer quelqu’un, c’est super grave comme décision. Clairement, c’est très raisonnable de ne pas vouloir être le patron de la première boîte dont un bug dans un code d’IA aura mené à une exécution d’innocents.
Et je n’aimerait pas non-plus être à la place du juge qui aura à juger de telles affaires à l’avenir…
Le 25/01/2019 à 09h58
Ce genre de déclaration est peut-être aussi le reflet de véritables inquiétudes chez les employés de certaines entreprises.
Le 25/01/2019 à 10h02
Et voilà comment se tirer une balle dans le pied, les USA, la Russie ou bien la chine eux se feront un plaisir d’investir dans ce domaine la, et dans 50 ans on va se dire qu’on est encore en retard la dessus :)
Le 25/01/2019 à 10h05
Y a pas déjà de l’« IA » dans les drones américains ?
Le 25/01/2019 à 10h20
Le 25/01/2019 à 10h37
Si Thalès ne veut pas, je suis sûr que Dassault se fera un plaisir de se positionner, lui, sur ce créneau ! Après tout, il y a des armes à vendre aux Saoudiens, grands promoteurs des droits de l’Homme (surtout au Yémen), et « les affaires sont les affaires », peu importent la couleur et l’odeur (de sang) de l’argent…
Le 25/01/2019 à 10h58
On peut être contre l’idée de robot militaire autonome, n’empêche que ce sera la prochaine bombe nucléaire. Il y aura d’un côté ceux qui l’ont et de l’autre ceux qui y seront soumis. Il est évident qu’on va assister à une nouvelle course à l’armement et qu’on ne peut qu’espérer une multiplicité de détenteurs pour conserver le status quo actuel. C’est pas l’ONU ou un pacte de non prolifération qui feront le job malheureusement.
Le 25/01/2019 à 11h01
Le 25/01/2019 à 11h04
Le 25/01/2019 à 11h12
Mais c’est bien parce que je pense qu’il y aurait destruction mutuelle si on généralisait ces robots. Si t’es obligé de faire un EMP sur ton pays pour espérer te débarrasser du problème, on peut parler de destruction ^^
Le 25/01/2019 à 11h16
Tu veux dire que l’ingé qui bosse dans la boîte qui a conçu la dernière mine antipersonnel tout en fibre de carbone pour échapper aux détecteurs pourrait tout-à-coup avoir des remords ? On est bien en train de parler de gens dont le métier c’est concevoir des armes ; il s’imaginent qu’on fait quoi avec ces armes ? Tirer uniquement sur des cibles en carton ?
Le 25/01/2019 à 11h17
Le 25/01/2019 à 11h27
Le 25/01/2019 à 11h28
Les ingénieurs qui font les mines et système d’armement ne sont certainements pas les mêmes qui s’occupe de faire/travailler sur le sujet des IA.
Ces derniers sont peut etre plus frileux à travailler sur ce genre de projet et d’ailleurs c’est arrivé que à Google.
Ils ont du revenir en arrière sur un projet avec le département de la défense américain parce que les ingé en interne refusaient de bosser sur le projet.
Le 25/01/2019 à 11h59
Déjà la convention de Genève interdit les mines anti-personnel, donc c’est pas vraiment le genre de truc que Thalès va mener comme projet " />
J’ai saisi l’idée de base. Il n’en reste que la guerre ça vend, ça achète, y a un marché que Thalès fournit, ça n’empêche pas à ses employés de garder un poil d’éthique sous le coude.
A Paris, une dérive d’une arme type “fusil d’assaut”, “lance-roquettes” etc, c’est que des groupes d’individus s’en servent eux-mêmes contre d’autres. #Bataclan, toi-MêmeTuSais
A Paris, une dérive d’un système d’arme comme celui-ci ? Sans parler des problématiques de sécurité informatique, c’est des groupes d’individus qui tueront d’autres individus à la carte sans sortir de leur cache en un temps suffisamment court pour pouvoir s’enfuir sans laisser le temps aux autorités de les retrouver.
Des dérives t’en trouves d’autres à la pelle, surtout si tu commences à ratisser large niveau “zone d’application”, ou de la taille/importance/moyens du groupe armé en question
Le 25/01/2019 à 11h59
Euh Thalès ne dit pas juste qu’il ne veut pas le faire mais demande surtout une réglementation internationale (un peu comme pour l’interdiction de certaines armes nucléaires et autres). Si un tel traité est mis en place, tout le monde le respectera. Enfin certes ça n’arrêtera probablement pas la recherche militaire au niveau des pays mais ça devrait empêcher l’utilisation de ces armes sur le terrain
Le 25/01/2019 à 12h27
Ah ! Il faut prévenir les Coréens et Samsung alors…
https://fr.m.wikipedia.org/wiki/Samsung_SGR-A1
Le 25/01/2019 à 12h41
Le 25/01/2019 à 13h17
J’avoue avoir un peu forcé le trait avec mes mines antipersonnel, c’était l’esprit plutôt que la lettre, et tu l’avais bien compris. Ceci dit je crois que les terroristes pourront faire aussi beaucoup de victimes sans s’exposer (avec et sans L…) avec une voiture autonome bourrée d’explosifs… Ca me semble beaucoup plus facile à détourner (et plus discret) comme technologie qu’un “chien” Boston Dynamics.
Tu me diras qu’une voiture sans occupants pourrait éveiller les soupçons, mais quand ces engins seront entrés dans les habitudes, tout le monde se dira que c’est juste une voiture qui va rechercher son propriétaire bourré dans un bar…
Le 25/01/2019 à 13h32
Ce ne sera pas évident de s’assurer qu’une application ne sera pas détournée à des fins militaires, même si tu ne travailles pas dans une boîte à vocation ouvertement guerrière.
Une application civile comme “retrouver et identifier une personne dans une foule pour lui remettre un colis Amazon en mains propres” est fort proche de “retrouver et identifier une personne dans une foule pour lui mettre trois bastos en plein coeur” dans sa conception…
Il est très probable que les ingénieurs du second projet pourront détourner les résultats de ceux du premier projet puis juste ajouter la sous-routine qui presse la détente et une boucle for i = 1 to 3…
Pour revenir sur l’exemple des mines antipersonnel, simplement compter sur l’humanité et les scrupules des ingénieurs ne sera pas suffisant. Il faut des interdictions formelles au niveau mondial, pas des déclarations sur l’honneur des dirigeants d’entreprise.
Le 25/01/2019 à 14h24
Et à l’inverse, une technologie militaire peut se retrouvé dans le civil. Je pense au moteur du missile V2 développé à la base pour bombardé les anglais, mais qui aujourd’hui est à la base des moteur des lanceurs (fusée).
Un technologie peut facilement être détournée, si on peut appeler ça détourner.
Le 25/01/2019 à 15h08
Je suis entièrement d’accord concernant le fait que l’interdiction doit être prise au niveau mondial.
Et oui beaucoup de technologies peuvent être déviées de leur utilisation principale. Du coup on fait quoi ? rien ?
La robotique et l’intelligence artificielle peuvent aussi permettre l’exploration spatiale, aider dans le domaine des transports, etc …
Le 25/01/2019 à 15h33
Le 25/01/2019 à 15h55
Intéressant comme système. Avec l’ancien système, avec un humain impliqué, quand un déserteur du nord arrivait à passer la frontière, ceux du sud le laissaient passer et il obtenait l’asile. Là avec le nouveau système, il va se faire mitrailler automatiquement. C’est beau le progrès.
Le 25/01/2019 à 17h02
Trop de gens ici confondent le fait qu’une techno soit horrible moralement et le fait que 90% des autres pays n’ont pas ces scrupules et l’utiliseront quand même
Le 25/01/2019 à 20h29
" />
Et j’ajouterai que les traités c’est de la blague, y entre qui veut, en sort qui veut.
Ça ne résout rien. Seule la trouille a un effet (celui de forcer les États à faire des coups tordus avec des justifications morales plus ou moins bidonnées plutôt que d’écrabouiller ouvertement leur cible sous leur botte).
Le 25/01/2019 à 22h08
Ils ont raison, il faut une législation :
-Le robot doit avoir une famille qui se fera insulter si les medias rapporte que ce qu’il fait c’est pas bien mais qui touchera une pension si il est mis hors service (jusqu’à sa réparation)
-Le robot devra posséder une zone mémoire pour stocker les images les plus horribles et éprouvera des difficultés a percevoir le bonheur en cas de dépassement de quota (jusqu’à ce que l’admin ajuste le quota)
-Le robot ne devra tuer que les méchants, méchants étant défini depuis la nuit des temps par “ opposé au bien ” notre équipe a donc soumit le concept a notre ébauche d’IA qui en a déduit que ce qui s’opposait a elle était tout simplement “ sur sa route “, ce qui semble être un bon compromis (jusqu’à preuve logique du contraire)
-Par sécurité le robot doit être désactivable a distance mais aussi d’être autonome et de se protéger d’éventuelles piratages en refusant l’interprétation de tout signaux externes (par sécurité aussi).
-Le robot , pour se déplacer , utilisera toute source d’énergie dont il disposera sur le terrain en favorisant les énergies non polluante comme l’énergie solaire,l’éolien, le gas-oil ou le transport a dos de mammifère (équidé ou autre) .
Voyez c’est pas dur (et la on fait moins le kéké asimov" />).
Le 26/01/2019 à 10h20
Ces machines ne sont pas prêtes d’être déployée pour la simple et bonne raison qu’elles ne sont pas prête de voir le jour technologiquement parlant. Suffit de voir le nombre de Nostradamus qui tout le long des 40 années passées ont affirmés sans ciller que “dans les 10⁄20 ans à venir les robots autonome feront la guerre à notre place et patati patata”. Tout ça c’est bon pour vendre du papier mais en terme de prédiction fondée on a vu mieux.
Le 27/01/2019 à 12h46
La techno est sûrement là, mais elle coûte plus cher que d’envoyer des humains se battre
Le 28/01/2019 à 08h38
C’est pas de l’IA ça.
Le 28/01/2019 à 08h41
Il parle règles du commerce.