Elon Musk, le PDG de l’entreprise américaine Tesla, était récemment interviewé dans le cadre de l’AeroAstro Centennial Symposium du MIT (Massachussetts Institute of Technology). Interrogé sur le sujet de l’intelligence artificielle, ses réponses sont devenues des mises en garde, suggérant que la communauté internationale devrait veiller à ce que des bornes ne soient pas dépassées.
Le patron de Tesla enclin à faire très attention avec l'intelligence artificielle
Elon Musk est un entrepreneur de premier plan aux États-Unis et il est célèbre dans le monde entier pour au moins deux de ses entreprises. D’une part, Tesla, un constructeur automobile ne produisant que des modèles électriques. D’autre part, SpaceX, qui produit du matériel destiné aux vols spatiaux et à l’astronautique en général. SpaceX est d’ailleurs un fournisseur privé de la NASA et dispose de plusieurs lanceurs. Il s’agit dans les deux cas de sociétés que l’on pourrait qualifier de « technologie de pointe ».
Au cours de son interview lors du MIT AeroAstro Centennial Symposium, Elon Musk a cependant eu l’occasion d’exprimer ses vues sur tout ce qui touche à l’intelligence artificielle. Globalement, il se montre précautionneux, invitant l’industrie et la communauté internationale à faire très attention à ce qui est réalisé dans ce domaine, en particulier quand la science informatique se penche sur les mécanismes cognitifs de l’être humain.
Les commentaires sur l'intelligence artificielle commencent vers 1 heure et 7 minutes
« Avec l'intelligence artificielle, nous invoquons le démon »
« Je pense que nous devrions faire très attention avec l’intelligence artificielle. Si je devais imaginer quelle serait notre plus grande menace existentielle, c’est probablement ça. Nous devons donc nous montrer très prudents » indique-t-il ainsi. Il enchaine, montrant une véritable crainte à ce sujet : « Je suis de plus en plus enclin à penser qu’il devrait y avoir une supervision régulatrice, peut-être aux niveaux nationaux et internationaux, juste pour être certains que nous ne faisons pas quelque-chose de stupide ».
La discussion prend même un tour mystique : « Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où vous avez un homme avec un pentagramme, et l’eau bénite, et il fait comme si il pouvait contrôler le démon ? Ça ne fonctionne jamais ». Bien que la réplique ait eu le don de faire rire l’assistance, Musk exprime sa peur de voir le génie sortir de sa bouteille pour ne plus jamais y revenir.
L'IA plus dangereuse que les bombes atomiques ?
Les craintes de Musk prennent sans doute racine dans l’anticipation et les très nombreux ouvrages abordant la thématique de l’intelligence artificielle, de l’évolution de la robotique ou même encore de la théorie de la singularité. En août dernier, il indiquait par exemple avoir lu le livre « Superintelligence: Paths, Dangers, Strategies » de Nick Bostrom. L’ouvrage suggère de se méfier de quelle manière nous rendons les machines intelligentes. Ainsi, nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué. Une analogie qui faisait alors dire au patron de Tesla : « Nous devons faire particulièrement attention avec l’intelligence artificielle. Elle est potentiellement plus dangereuse que les bombes atomiques ».
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) 3 Août 2014
Elon Musk est probablement très versé dans la littérature de science-fiction puisqu’il a même demandé à l’un des étudiants dans la salle quelle était son œuvre préférée. Mais pour rester dans ce domaine particulier, Musk semble pour l’instant plus proche du jihad butlérien de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs trois lois fondamentales.
Commentaires (242)
#1
Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !
#2
Ou alors, il était satisfait du président des Etats-unis de Fallout.
#3
« Nous devons faire particulièrement attention avec l’intelligence
artificielle. Elle est potentiellement plus dangereuse que les bombes
atomiques ».
" /> Le probleme est pourtant le même.
Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.
Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,…
Et parfois avec des résultats catastrophique.
Apres au dela de ces dérives. Cela reste de l’informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, …).
Bref, le gros probleme ce n’est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.
#4
Sa réponse prête effectivement à rire. Toute cette thématique a été largement couverte au XXe siècle par les écrivains de scifi.
#5
Je serais elles, j’en profiterai pour demander une de leur bagnole.
#6
Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.
D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.
Quand on sait qu’une voiture électrique moderne c’est 1 million de ligne de code et qu’il est estimé qu’il existe une erreur de programmation tout les 100 lignes de codes, je vous laisse imaginer la bazar.
Si à cela vous rajouter quelques hackers/crackers pour venir foutre le bordel là dedans afin de transformer votre voiture en grille pain, on est pas sorti de l’auberge alors qu’une voiture a juste besoin de 4 roues et d’un volant en principe.
#7
#8
Waou y a de la référence littéraire dans l’article " />
#9
On peut citer Matrix et Hypérion également sur cette thématique. Je pense qu’il est un peu tôt pour s’inquiéter, il y a plus de chance que l’humanité s’autodétruise avant qu’elle soit capable de créer des IA qui nous détruisent à notre place " />
#10
C’est un peu hypocrite pour le coup, le pilote automatique sur les nouvelles Tesla S s’apparente a de la IA et c’est sensé allers de plus en plus loin.
#11
#12
#13
Vous ne réfléchissez pas assez loin, on ne parle pas d’une IA en tant qu’outil, au service de gens plus ou moins bien intentionnés.
On parle de la singularité technologique, d’une IA capable de se programmer, d’évoluer toute seule, de devenir 10^x plus intelligente qu’un être humain, de résoudre des défis technologiques auxquels nous n’arrivons meme pas à penser. Plus grand chose ne pourra l’arrêter… si le besoin s’en fait sentir.
Oui la thématique a été largement traitée dans la SciFi, mais on n’en est plus si loin maintenant, ca devrait devenir une réfléxion contemporaine.
#14
#15
#16
#17
Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o
#18
le principe d’une intelligence c’est justement qu’elle n’est plus contrôlé par des humains…
#19
#20
#21
Il a pas aimé la fin de la saison 3 de “Person of Interest” :-)
#22
citation wikipedia (avec de vrais morceaux de trolls):
Selon Jon Favreau, réalisateur des films Iron Man, Musk est l’inspiration du Tony Stark joué par Robert Downey Jr.
#23
#24
Au vu de la direction que prend la recherche dans ce domaine, je pense qu’on est encore tranquilles pour une bonne cinquantaine d’années.
Tant mieux. Elon ne s’intéresse peut-être pas suffisament au sujet pour comprendre qu’on est loin de machines à l’intelligence humaine, mais s’il le savait, il serait rassuré.
Surtout qu’en avançant dans la mauvaise direction, peu importe le nombre d’années, on n’arrive jamais à destination.
#25
Argggg….
Frank Herbert et non Franck.
#26
#27
“C’est de la SF donc il est bête”.
De la Terre à la Lune était de la SF.
SF ne veut pas dire Sans Fondement.
#28
Ben la bombe nucléaire à quand même empêcher les Etats Unis et la Russie de se mettre sur la tronche….. ça c’est plutôt positif, maintenant de nos jours ça sert à rien car l’ennemi s’appelle le terrorisme contre lequel l’arme nucléaire n’a aucun effet.
Ça a permis de “pacifier” les grandes nations.
#29
C’est un système décisionnel. Et c’est une étape importante sur le chemin de l’IA.
#30
#31
#32
#33
#34
De toute façon, plus ou moins tout est très loin de ce dont il parle là :-p
Je crois qu’il est un peu trop enfermé dans son univers de scifi, un peu inquiétant venant de la part de ce qu’il semble être est un des grands patrons de l’univers des technologies de pointes…
#35
Je vous laisse découvrir une vidéo intéressante de Laurent Alexandre sur les neuro-sciences. NBIC Nanotechnologies, Biotechnologies, Informatique, science-Cognitive:
Faut-il mettre des limites à l’Intelligence Artificielle ?
#36
#37
Leynas.
#38
On a pourtant dépassé l’étape zéro, notamment avec la logique floue.
Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.
#39
Quand on voit ce que l’homme a fait de la bombe atomique et qu’après les inventeurs ont regretté, il serait peut être plus sage de ne pas créer cette IA.
L’homme en la créant va se baser sur sa propre “intelligence”. Cependant, l’homme est la seule espèce à être capable de faire autant d’atrocités dans le monde sur : la faune, la flore, son environnement et sur sa propre espèce. Même si l’homme peut être fait de bonté, le mal est très fort dans l’humain avec tous ses défauts : argent et cupidité, jalousie, …
Comment voulez-vous qu’une intelligence non humaine accepte cela ? C’est impossible. Elle sera obligée de prendre certaines décisions comme la protection de la Terre et des espèces si on le lui inculque et donc elle devra combattre le mal. Si on lui dit de ne pas faire de mal à l’humain et qu’elle soit dotée d’une capacité de réflexion, elle ira à l’encontre de ses règles car l’humain impose des règles mais il les enfreint quand bon lui semble.
C’est une vraie question éthique qui se pose mais une machine n’a pas d’émotion. Donc de lui mettre une IA, ça sera pareil. Ça deviendra un humain qui ne souffrira pas.
La discussion part dans un truc du type IRobot, Terminator and co, mais c’est la réalité des choses. N’importe quelle intelligence est capable de faire face à des problèmes et réfléchir. Elle cherchera à se préserver. Si l’humain est un danger pour elle, elle fera tout pour se défendre.
Ça ne sent pas bon du tout pour notre avenir et l’homme est bien suffisant pour se détruire tout seul. C’est comme un enfant ou un chien, ce sont les maîtres qui éduquent en bien ou en mal. Un chien n’a pas cette capacité de réflexion alors qu’un enfant oui … Un enfant a son libre arbitre et il se fera influencer par son environnement et les autres. Un choix peut tout changer dans une vie.
Enfin, on a encore un peu de sursis étant donné qu’il faut la technologie quantique pour qu’une machine puisse parvenir à réfléchir comme un humain.
Tant que l’homme continuera dans sa lancée actuelle, je pense que l’IA ne doit pas exister.
#40
#41
En effet, toutes les IA existantes ne sont que des scripts ou ensembles de scripts qui réagissent en fonction des variable.
Une vraie IA (comme dit dans les précédents commentaires) est un programme capable de générer son propre code créer aléatoirement ( il est important le aléatoire) et de choisir ce bon code avec les variables pour s’adapter à la situation => avoir un raisonnement.
On en est loin mais cependant on est quand même sur le chemin avec les ordinateurs quantiques.
Il a raison d’avoir peur car quand cette IA sera opérationnelle comme elle nous percevra. L’Homme sera-t-il vu comme un semblable intelligent ou un être ne participant pas à l’évolution de cette nouvelle espèce?
Même les êtres vivants d’intelligences dit peu évoluer peut avoir un comportement complètement diffèrent de ça “destiné” lié ADN qui participe à l’évolution.
Donc en Gros avec un IA , il est et sera impossible de connaître son degrés d’envie destruction face ( effet de gourpes ou non) à des être vivant même avec des verrous programmés (cf: “irobot” ou voir nous même avec le bien et le mal).
#42
C’est une peur ancrée au plus profond de l’humanité, le mythe du Golem, de Frankenstein et même terminator.
Les robots d’Asimov ne sont pas gentils, ils sont contraints et la plupart d’entre eux arrivent à contourner les règles qui sont censées les lier. Ils ne sont d’ailleurs ni meilleurs ni pires que l’homme. Certains sont près au génocide d’autres ne souhaitent que la liberté.
Le véritable problème de conception c’est que l’intelligence, la vrai, celle créative, nécessite le libre arbitre et la contrainte librement choisie. Donc pour créer une véritable intelligence il ne faudrait pas la contraindre.
En sens contraire, désormais les IA, aux capacités très limitées, que nous programmons prennent elles mêmes les décisions de tir dans les systèmes militaires. Elles sont conçues pour tuer et ne respectent donc pas la première règle d’Asimov. Que va t’il se passer si elles deviennent de plus en plus capables? Et à partir de quel moment un pays décidera de confier l’intégralité de la décision militaire et de la gestion des conflits à une machine évoluée? Si cela donne un avantage stratégique aucun état n’hésitera.
Finalement le plus terrible ce ne sera pas une intelligence créatrice qui pourrait avoir conscience et sentiments, le plus terrible ce serait une intelligence non accomplie, proche de celle de l’homme à ses débuts, sans conscience, capable de génocider un peuple pour un simple bit de donnée incompatible à la réalisation de son programme.
#43
Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.
Autre que terminatior, matrix et irobot.
#44
De la part d’un Business Man très porté sur la High Tech, son discours me fait quand même penser fortement à :
”- Houlà, faites pas ça, c’est mal !… (c’est vrai quoi, faudrait pas qu’un concurrent sorte une IA avant mes propres équipes de R&D, sinon comment je vais rentabiliser mes investissements?!)”
#45
#46
#47
Encore un qui a regardé le film (daubesque) Transcendance et qui ne partage pas les rêves de transhumanisme informatique de Google and Co.
#48
#49
En lisant beaucoup de commentaires précédents j’ai l’impression que les craintes de E. Musk sont mal comprises:
Pour moi, ce ne sont pas les IA telles qu’on les conçoit actuellement qui lui font peur, mais celles que l’ont pourraient concevoir à l’avenir, ie une IA totalement autonome capable de se développer et d’apprendre seule de façon plus efficace qu’un cerveau humain, on en est relativement loin encore mais ça peut aller très vite, et je rejoins l’opinion du Monsieur.
Par ailleurs, pour répondre à tous ceux qui “rient” de sa comparaison avec la bombe atomique, ou qui font des parallèles avec des technologies neutres par essence mais utilisées parfois à mauvais escient par l’homme, je me permets d’avancer qu’une véritable IA plus performante qu’un cerveau humain (en terme non seulement de calcul -ça on sait déjà- mais surtout de raisonnement -on en est loin à priori-) est bien au delà d’une technologie neutre. En effet, elle serait autonome, dotée de conscience et de son libre arbitre, c’est bien différent d’un pesticide détourné en arme chimique ou de la fission nucléaire utilisée pour faire des bombes.
J’ai lu des références à Hypérion dans les commentaires précédents, je le recommande chaudement à tout le monde! Sans oublier les suites, La chute d’Hypérion, Endymion et l’éveil d’Endymion.
#50
Il ne faut pas se voiler la face : du couteau à la bombe H, toutes les inventions humaines ayant un pouvoir de destruction ont toujours fini par être utilisées à mauvais escient.
Et s’il y a bien quelque chose que l’Histoire nous apprend, c’est que l’humain est incapable d’apprendre de ses erreurs.
#51
#52
#53
N’oublions pas le hardware et l’interfaçage, facteurs tout aussi limitant pour l’emprise sur le monde matériel. L’uranium ne va pas se miner tout seul.
Sans aller trop loin dans la science-fiction, nous sommes tout de même à l’aube d’observer quelques effets sur notre vie de tous les jours: le secteur bancaire et financier, avec les programmes d’évaluation des risques, le monde militaire et ses drones et outils de décision stratégique, la médecine et l’aide au diagnostic…
#54
#55
" />
#56
#57
“nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué”
Ca sent un peu des pieds cette analogie…La survie du gorille dépend de l’Homme parce que l’Homme a fait n’importe quoi avec la nature, on ne fait que réparer des erreurs en classant des espèces “protégées” etc.Ou alors j’ai pas compris et donc je suis un gorille
#58
Merci, je n’en avais écouté aucun.
#59
#60
Au pire, on implémentera dans la voiture le délit de fuite. Comme ça, le choix à prendre juste avant l’accident sera moins important et pourra être plus simple. " />
#61
D’accord avec toi ^^
Mais elle est bien là la vraie question :p
#62
“Musk semble pour l’instant plus proche du jihad butlérien de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs trois lois fondamentales.”
Sur les lois fondamentales de Asimov, il ne faut pas oublier que dans certains ouvrages, lesdites lois sont contournées, et que des robots arrivent même à s’en détacher naturellement (voir les robots de l’aube; voir aussi dans le cycle des robots, des histoires mettant en avant la capacité d’un robot à devenir président…). Bref, Asimov a peut être posé ces trois lois, mais lui aussi appréhendait ces éléments avec circonspection.
Ce qui est intéressant avec ces propos d’Elon Musk, c’est qu’il y a une vraie prise de distance sur ce qui fait son environnement immédiat, une prise de conscience claire et réfléchie qu’on ne retrouve pas forcément chez tous ceux qui dans le secteur de la high-terh tendent à verser dans un optimisme béat vis à vis des technos, sans réfléchir à leurs implications philosophiques sur la nature et la structure de la société, sur les individus, etc.
#63
Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?
#64
#65
Ce que je dis, c’est que l’être humain ne comprend pas suffisamment sa propre intelligence pour en reproduire une équivalente. Donc qu’il a plus de risques de créer, même involontairement, un système plus intelligent que lui.
Mais cela ne revient pas à dire que tout système complexe peut créer un autre système plus complexe.
Leynas.
#66
#67
Le plus aboutit je pense en terme d’ IA est Watson d’ IBM.
Non seulement il est capable de croiser et puiser dans l’ énorme base de données que représente le net mais il est aussi capable d’ affiner ses recherches pour progresser et surtout, capable de comprendre le langage humain mais surtout d’ y répondre.
Tenir une conversation (question/reponse) est une chose mais il lui reste quand même le plus difficile à programmer pour le rendre réellement non pas intelligent (il l’ est déjà) mais “humain”: la conscience réelle de soi et donc, l’ instinct de survie.
Le jour où cette étape est franchie on aura effectivement du souci à se faire mais d’ ici là, pas de quoi avoir peur.
#68
Ah… ces américains et leur manie de tout ramener à la prière, a Dieu et au Mal.
#69
#70
#71
#72
tous ceux qui parlent de test de turing pour valider une IA sont à coté de la plaque.
Le test de turing n’est pas là pour montrer qu’on a affaire à une IA, il est là pour valider si l’appareil qui passe le test donne l’illusion de l’intelligence.
Aujourd’hui, tous ceux qui concoivent des IA sont des prestidigitateurs.
Et dans IA, il y a le I . et pour ce I, on en est aussi loin que le prestidigitateur est loin de la magie ( la “vraie” magie hein, celle des bouquins de fantasy.. )
#73
Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.
Leynas.
#74
#75
Du côté de Herbert, je loucherai plutôt chez “Destination vide” pour la conception d’une IA
#76
#77
#78
#79
#80
#81
En plus de ce qui a déjà été donné, il y a “l’oeil du mal” avec Shia Laboeuf il me semble (après est-ce un bon film? " /> )
#82
#83
#84
IA revient a créer le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme
L’home est le démon de la vie, l’intelligence est l’outil de la destruction
Nous vivons car nous tuons, prendre la vie pour se nourrir, réduire la vie d’autrui pour augmenter la notre
Telle est la vie, une cruauté, un virus
#85
#86
J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. " />
Quelqun à un avis sur les livres du fiston?
#87
Déjà il faut faire la différence entre une IA faible et une IA forte.
Une IA faible, on en a déjà des tas aujourd’hui, que ce soit dans la finance ou dans les Google cars. C’est limité à un usage spécifique. Toute IA conçue dans un but guerrier (par exemple), et aussi efficace ou puissante soit-elle sera une IA faible et ne restera au final qu’un tas d’algorithmes connus.
L’article parle manifestement au contraire d’une IA forte, qui elle n’est pas conçue dans un but précis. Elle est à l’image de l’intelligence humaine : capable d’apprendre et de développer une conscience.
J’avais assisté il y a quelque temps à une conférence où un chercheur dans le domaine des IA fortes faisait justement le parallèle avec les trois lois de la robotique. En gros, les IA vers lesquelles on se dirige seraient fondamentalement conçues pour apprendre, et donc récolter et protéger toute forme d’information. Or, chaque être humain est une mine d’information, de connaissance et de culture. Ces trois lois seraient donc respectées dans avoir besoin de les implémenter de manière aussi brute que dans les romans d’Asimov.
Je pense que ce type d’IA ne sera pas plus dangereux que n’importe quel humain : ses décisions dépendront uniquement de la manière dont on l’éduque, le respecte et le considère.
#88
Quelque soit l’intelligence, elle prend pour repères son milieu, son entourage, les enseignements reçus enseignement et/ou son vécu.
J’ai cherché ce qui pourrait coller à l’image que tu décirs.
On peut retrouver cela dans certaines espèces animales à même de se débrouiller par elles mêmes dés leur naissance (sans apprentissage préalable), ce n’est pas de l’intelligence mais un réflexe instinctif.
Néanmoins, ce reflexe est codé dans leur genes. Pour une IA, cela revient tout de meme à une intervention humaine pour lui donner une base (utiliser son corps, être à même d’apprendre et de tirer des leçons).
Une ia assise mais vide (avec 0 information) ne sera pas autre chose qu’une poupée posée sur une chaise.
Il faut un minimum afin qu’elle puisse déjà maitriser son corps et être à même d’évoluer/d’apprendre.
L’image la plus parlante (et triste), les lobotomisés dont le coté cognitif à été endommagé (volontairement ou non).
Déjà avant d’en arriver la (à mon avis) il y à encore une sacrée marge.
De plus, (sans théorie du complot), je doute que dans le domaine publique ce genre d’IA puisse voir le jour sans un encadrement très stricte (ce qui ne sera pas forcement le cas en militaire mais vu l’usage).
Apres évidemment, ça reste un avis personnel.
#89
#90
#91
S’il veut de l’IA sans risque, il n’a qu’à s’adresser à EA Sports. Ils sont spécialisés dans l’IA sans I.
#92
Nous sommes les enfants de David. Jamais nous ne mourrons. Nous dominerons cette terre.
" />
#93