Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »
« Tu ne feras point de machine à l’esprit de l’Homme semblable »
Le 27 octobre 2014 à 09h23
4 min
Logiciel
Logiciel
Elon Musk, le PDG de l’entreprise américaine Tesla, était récemment interviewé dans le cadre de l’AeroAstro Centennial Symposium du MIT (Massachussetts Institute of Technology). Interrogé sur le sujet de l’intelligence artificielle, ses réponses sont devenues des mises en garde, suggérant que la communauté internationale devrait veiller à ce que des bornes ne soient pas dépassées.
Le patron de Tesla enclin à faire très attention avec l'intelligence artificielle
Elon Musk est un entrepreneur de premier plan aux États-Unis et il est célèbre dans le monde entier pour au moins deux de ses entreprises. D’une part, Tesla, un constructeur automobile ne produisant que des modèles électriques. D’autre part, SpaceX, qui produit du matériel destiné aux vols spatiaux et à l’astronautique en général. SpaceX est d’ailleurs un fournisseur privé de la NASA et dispose de plusieurs lanceurs. Il s’agit dans les deux cas de sociétés que l’on pourrait qualifier de « technologie de pointe ».
Au cours de son interview lors du MIT AeroAstro Centennial Symposium, Elon Musk a cependant eu l’occasion d’exprimer ses vues sur tout ce qui touche à l’intelligence artificielle. Globalement, il se montre précautionneux, invitant l’industrie et la communauté internationale à faire très attention à ce qui est réalisé dans ce domaine, en particulier quand la science informatique se penche sur les mécanismes cognitifs de l’être humain.
Les commentaires sur l'intelligence artificielle commencent vers 1 heure et 7 minutes
« Avec l'intelligence artificielle, nous invoquons le démon »
« Je pense que nous devrions faire très attention avec l’intelligence artificielle. Si je devais imaginer quelle serait notre plus grande menace existentielle, c’est probablement ça. Nous devons donc nous montrer très prudents » indique-t-il ainsi. Il enchaine, montrant une véritable crainte à ce sujet : « Je suis de plus en plus enclin à penser qu’il devrait y avoir une supervision régulatrice, peut-être aux niveaux nationaux et internationaux, juste pour être certains que nous ne faisons pas quelque-chose de stupide ».
La discussion prend même un tour mystique : « Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où vous avez un homme avec un pentagramme, et l’eau bénite, et il fait comme si il pouvait contrôler le démon ? Ça ne fonctionne jamais ». Bien que la réplique ait eu le don de faire rire l’assistance, Musk exprime sa peur de voir le génie sortir de sa bouteille pour ne plus jamais y revenir.
L'IA plus dangereuse que les bombes atomiques ?
Les craintes de Musk prennent sans doute racine dans l’anticipation et les très nombreux ouvrages abordant la thématique de l’intelligence artificielle, de l’évolution de la robotique ou même encore de la théorie de la singularité. En août dernier, il indiquait par exemple avoir lu le livre « Superintelligence: Paths, Dangers, Strategies » de Nick Bostrom. L’ouvrage suggère de se méfier de quelle manière nous rendons les machines intelligentes. Ainsi, nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué. Une analogie qui faisait alors dire au patron de Tesla : « Nous devons faire particulièrement attention avec l’intelligence artificielle. Elle est potentiellement plus dangereuse que les bombes atomiques ».
Worth reading Superintelligence by Bostrom. We need to be super careful with AI. Potentially more dangerous than nukes.
— Elon Musk (@elonmusk) 3 Août 2014
Elon Musk est probablement très versé dans la littérature de science-fiction puisqu’il a même demandé à l’un des étudiants dans la salle quelle était son œuvre préférée. Mais pour rester dans ce domaine particulier, Musk semble pour l’instant plus proche du jihad butlérien de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs trois lois fondamentales.
Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »
-
Le patron de Tesla enclin à faire très attention avec l'intelligence artificielle
-
« Avec l'intelligence artificielle, nous invoquons le démon »
-
L'IA plus dangereuse que les bombes atomiques ?
Commentaires (242)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/10/2014 à 10h58
Ah… ces américains et leur manie de tout ramener à la prière, a Dieu et au Mal.
Le 27/10/2014 à 10h58
Le 27/10/2014 à 11h05
Le 27/10/2014 à 11h06
Le 27/10/2014 à 11h07
tous ceux qui parlent de test de turing pour valider une IA sont à coté de la plaque.
Le test de turing n’est pas là pour montrer qu’on a affaire à une IA, il est là pour valider si l’appareil qui passe le test donne l’illusion de l’intelligence.
Aujourd’hui, tous ceux qui concoivent des IA sont des prestidigitateurs.
Et dans IA, il y a le I . et pour ce I, on en est aussi loin que le prestidigitateur est loin de la magie ( la “vraie” magie hein, celle des bouquins de fantasy.. )
Le 27/10/2014 à 11h09
Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.
Leynas.
Le 27/10/2014 à 11h09
Le 27/10/2014 à 11h10
Du côté de Herbert, je loucherai plutôt chez “Destination vide” pour la conception d’une IA
Le 27/10/2014 à 11h13
Le 27/10/2014 à 11h22
Le 27/10/2014 à 11h25
Le 27/10/2014 à 11h27
Le 27/10/2014 à 11h27
Le 27/10/2014 à 11h29
En plus de ce qui a déjà été donné, il y a “l’oeil du mal” avec Shia Laboeuf il me semble (après est-ce un bon film? " /> )
Le 27/10/2014 à 11h34
Le 27/10/2014 à 11h36
Le 27/10/2014 à 12h55
Le 27/10/2014 à 13h04
Le 27/10/2014 à 13h04
Le 27/10/2014 à 13h05
Le 27/10/2014 à 13h11
C’est tout de même un peu plus précis que cela : « bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film. »Quand on voit en début de liste : X-Men, Transformers, Captain America 2, Transcendance, Man of Steel, Pacific Rim, Galaxy Quest, Batman & Robin, etc. On peut se dire qu’une vraie liste conseillée par des humains correspondra sans doute mieux à ce qu’il cherche.
Le 27/10/2014 à 13h12
Perso j’imagine facilement qu’encore une fois, on se rendra compte trop tard des boulettes qu’on aura faites. Il y en aura bien une, de ces boulettes, qui causera notre perte. On verra quand. Peut-être avant d’avoir inventé une IA.
Le 27/10/2014 à 13h20
Du moment qu’il nous reste au moins 50 ans “tranquilles” avant l’apocalypse, ça me va " />
Le 27/10/2014 à 13h20
Le 27/10/2014 à 13h20
Juste une remarque : dans IRobot, l’IA n’enfreint pas les règles de bases qu’on lui a fixées : elle agit pour le bien de l’Homme. Comme l’Homme n’est pas capable de s’autogérer correctement (ce qui est vrai), l’IA décide donc, dans le propre bien de l’humain, de prendre les rênes. Et si nous étions au point d’avoir une IA aussi efficace avec ces mêmes règles, la possibilité que l’IA arrive à cette conclusion est loin d’être négligeable à mon sens.
Qu’on soit sur une IA ou une science prédictive s’appuyant sur le big data/données statistiques : faut/faudra se demander où on veut aller et surtout jusqu’où on ne voudra pas aller (le truc style person of interest, ça ne me tente pas plus que ça perso, ou le minority report où tu remplaces les 3 gusses dans la flotte par un super calculateur)
Le 27/10/2014 à 13h22
Le 27/10/2014 à 13h27
A lire, le sciences et vie qui vient de sortir. Il y a dossier au sujet de l’intelligence artificielle et des robots.
Il y a aussi une question importante : comment savoir qu’une IA est vraiment intelligente ?
Si on peut vérifier tous les résultats émis par celle-ci, alors elle ne dépasse pas l’intelligence humaine.
Mais si on ne peut/sait pas vérifier les résultats, comment dire et prouver que l’IA est vraiment intelligente ?
Le 27/10/2014 à 13h27
quote:5205187:Leynas
/quote]
La force et la percée de Watson repose sur 2 choses.
C’ est pas pour rien d’ ailleurs que derrière Watson se trouve un des plus gros fabriquants de supercalculateur du monde.
Si le premier point est du à la puissance de calcul brutes des ordis le second, par contre, est du à une programmation beaucoup plus complexe et hors sentier battu.
L’ un des buts suivit par IBM est la notion d’ apprentissage.
Watson ne peut en effet tirer une conclusion ou une réponse qu’ à partir d’ une donnée qu’ il connaît déjà.
Le voir donner une réponse inédite serait une avancée majeure.
La NASA à déjà réussit plus ou moins cet exploit dans un exemple beaucoup plus basique.
Elle a un temps travaillé sur un robot d’ exploration capable de se mouvoir sur n’ importe quel type de terrain solide.
Au lieu de lui programmer tout les cas de figure possible pour affronter un obstacle avec ses servo moteur les ingénieurs lui ont programmé la capacité d’ apprendre (retenir) de ses échecs et tentatives précédentes pour arriver après moults essais (et retenir pour les fois suivantes) à correctement monter des marches d’ escaliers.
Il a fallut des semaines au robot pour y parvenir mais artificiellement, il a au final comprit sans que cela lui soi programmé à monter un escalier.
La NASA a abandonné le projet dans son utilisation principale (trop de temps et d’ énergie pour l’ apprentissage au détriment de la mission d’ exploration) mais les travaux ont permit au Darpa et Boston Dynamics de mettre au point leur robot mule.
Le jour où (et IBM y travaille) Watson sera capable d’ apprendre de lui même, on fera un nouveau pas immense dans l’ avancée vers une IA sophistiquée et plus complexe.
Ce jour là, il sera intéressant de voir comment Watson (ou son programme suivant) gérera les données qui viennent de ce qu’ on lui donne et de ce qu’ il découvre ou apprend.
Dans le futur et dans le domaine médical ce que l’ on rêve de demander à Watson et tout ses descendants, c’ est, à un problème, donner une réponse inédite que nous même nous cherchons.
Ce genre de chose n’ est pas pour demain mais montre où la recherche en IA se dirige.
Non pas donner une réponse par croisement de données existantes mais une réponse “inédite” par apprentissage.
Le 27/10/2014 à 13h35
Je sais pas si je suis pas over cramé, c’est pas le premier à en parler. Hawking le pense aussi…
http://www.cnet.com/news/stephen-hawking-artificial-intelligence-could-be-a-real…
Le 27/10/2014 à 13h42
Le 27/10/2014 à 13h44
Le 27/10/2014 à 13h46
Le 27/10/2014 à 16h22
Le 27/10/2014 à 16h28
Le 27/10/2014 à 16h30
Le 27/10/2014 à 16h32
Le 27/10/2014 à 16h34
Le 27/10/2014 à 16h38
Le 27/10/2014 à 16h39
Dans le cas d’une voiture autonome qui ne peut éviter un accident fatal. Soit deux piétons sont tués, soit le “conducteur” l’est. Quel choix doit faire l’IA de la voiture ? Et qui est responsable ?
Au pire la voiture est condamnée à deux ans de fourrière dont un avec sursis pour homicide involontaire.
Si la carte grise du véhicule prouve que cela n’ est pas la première fois que cela arrive, ce sera 3 ans de fourrière ferme.
Si la voiture fait marche arrière pour achever une des victimes là, c’ est peine de mort et direct le couloir de la casse en attendant le broyeur.
Plus sérieusement, la question se pose déjà plus ou moins avec toute l’ électronique à bord d’ un avion.
En cas de panne conduisant à une catastrophe, les tribunaux et l’ enquête aérienne délimite les responsabilités de l’ avionneur, la compagnie aérienne en charge de la maintenance ou le pilote.
Ceci dit, la question se posera plus tard pour les voitures full automatique car dans l’ immédiat je pense que le chauffeur à quand même un droit de veille lors du trajet je pense ?
Le 27/10/2014 à 16h39
Surtout que s’il s’agit d’une IA et non d’un système décisionnel, son choix variera selon sa formation. Si c’est un système décisionnel, il respectera toujours ce qui a été prévu, qui sera probablement conforme à la loi. Par contre, je doute qu’un simple système décisionnel sache analyser une telle situation.
Le 27/10/2014 à 16h41
C’est loin d’etre un simple fantasme c’est seulement qu’on en est trés loin encore … et que ce genre de “Théorie” ne s’appui que sur des spéculation, ce dont la science est faite en grande partie je te rappel.
Le 27/10/2014 à 16h41
+1
Le 27/10/2014 à 16h44
Le 27/10/2014 à 16h46
Le 27/10/2014 à 16h47
Une IA ne se pose d’ ailleurs pas la question de “qui je sacrifie ou qui je sauve ? ”
Elle prendra les décisions au cas par cas par exemple: j’ évite le piéton en mettant la voiture sur le côté… je slalom pour éviter un autre piéton… j’ essaie maintenant d’ éviter l’ arbre … raté… impact dans moins d’ un centième de seconde… j’ apelle les secours et active la geolocalisation du véhicule, je prépare l’ airbag… je préviens par sms madame que monsieur est mort… “
Le 27/10/2014 à 16h49
Le 27/10/2014 à 17h00
Le soucis quand on parle d’IA, c’est qu’on se réfère souvent à une des seules marques d’intelligence que l’on imagine, à savoir la nôtre.
Mais il y a, je pense, à peu près autant de formes d’intelligence artificielles que de formes de vie sur terre.
Il ne faut donc pas nécessairement voir une IA comme quelque chose capable d’amour ou de haine, ça n’a rien à voir.
En fait le risque dont parle Musk, c’est surtout d’un programme (car à la base c’est ça) capable de se réécrire et de faire évoluer son code de manière à s’adapter à différents environnements, jusqu’à ce qu’en ressorte une forme de prise de décision qui ne soit plus déterminée et cadrée par l’homme mais par le programme lui-même.
A partir de ce moment, et suivant la vitesse d’évolution du programme ( qui est corrélé au dimensionnement de la plateforme), on parle de ce fameux point de singularité.
De ce point de vue, nous n’en sommes pas si loin.
Mais de là à ce qu’émerge une conscience de ce système..
Le 27/10/2014 à 17h00
Le 27/10/2014 à 17h06
Le 27/10/2014 à 17h08
Le 27/10/2014 à 17h10
Le 27/10/2014 à 17h12
Le 27/10/2014 à 17h14
Le 27/10/2014 à 17h14
Le 27/10/2014 à 17h15
Le 27/10/2014 à 17h18
Le 27/10/2014 à 17h20
Le 27/10/2014 à 17h21
Le 27/10/2014 à 17h21
Le 27/10/2014 à 17h22
Le 27/10/2014 à 17h22
Le 27/10/2014 à 17h25
Le 27/10/2014 à 17h28
Le 27/10/2014 à 17h30
Le 27/10/2014 à 10h33
Le 27/10/2014 à 10h36
N’oublions pas le hardware et l’interfaçage, facteurs tout aussi limitant pour l’emprise sur le monde matériel. L’uranium ne va pas se miner tout seul.
Sans aller trop loin dans la science-fiction, nous sommes tout de même à l’aube d’observer quelques effets sur notre vie de tous les jours: le secteur bancaire et financier, avec les programmes d’évaluation des risques, le monde militaire et ses drones et outils de décision stratégique, la médecine et l’aide au diagnostic…
Le 27/10/2014 à 10h37
Le 27/10/2014 à 10h40
" />
Le 27/10/2014 à 10h40
Le 27/10/2014 à 10h41
“nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué”
Ca sent un peu des pieds cette analogie…La survie du gorille dépend de l’Homme parce que l’Homme a fait n’importe quoi avec la nature, on ne fait que réparer des erreurs en classant des espèces “protégées” etc.Ou alors j’ai pas compris et donc je suis un gorille
Le 27/10/2014 à 10h42
Merci, je n’en avais écouté aucun.
Le 27/10/2014 à 10h44
Le 27/10/2014 à 10h44
Au pire, on implémentera dans la voiture le délit de fuite. Comme ça, le choix à prendre juste avant l’accident sera moins important et pourra être plus simple. " />
Le 27/10/2014 à 10h45
D’accord avec toi ^^
Mais elle est bien là la vraie question :p
Le 27/10/2014 à 10h45
“Musk semble pour l’instant plus proche du jihad butlérien de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs trois lois fondamentales.”
Sur les lois fondamentales de Asimov, il ne faut pas oublier que dans certains ouvrages, lesdites lois sont contournées, et que des robots arrivent même à s’en détacher naturellement (voir les robots de l’aube; voir aussi dans le cycle des robots, des histoires mettant en avant la capacité d’un robot à devenir président…). Bref, Asimov a peut être posé ces trois lois, mais lui aussi appréhendait ces éléments avec circonspection.
Ce qui est intéressant avec ces propos d’Elon Musk, c’est qu’il y a une vraie prise de distance sur ce qui fait son environnement immédiat, une prise de conscience claire et réfléchie qu’on ne retrouve pas forcément chez tous ceux qui dans le secteur de la high-terh tendent à verser dans un optimisme béat vis à vis des technos, sans réfléchir à leurs implications philosophiques sur la nature et la structure de la société, sur les individus, etc.
Le 27/10/2014 à 10h48
Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?
Le 27/10/2014 à 10h50
Le 27/10/2014 à 10h53
Ce que je dis, c’est que l’être humain ne comprend pas suffisamment sa propre intelligence pour en reproduire une équivalente. Donc qu’il a plus de risques de créer, même involontairement, un système plus intelligent que lui.
Mais cela ne revient pas à dire que tout système complexe peut créer un autre système plus complexe.
Leynas.
Le 27/10/2014 à 10h54
Le 27/10/2014 à 10h56
Le plus aboutit je pense en terme d’ IA est Watson d’ IBM.
Non seulement il est capable de croiser et puiser dans l’ énorme base de données que représente le net mais il est aussi capable d’ affiner ses recherches pour progresser et surtout, capable de comprendre le langage humain mais surtout d’ y répondre.
Tenir une conversation (question/reponse) est une chose mais il lui reste quand même le plus difficile à programmer pour le rendre réellement non pas intelligent (il l’ est déjà) mais “humain”: la conscience réelle de soi et donc, l’ instinct de survie.
Le jour où cette étape est franchie on aura effectivement du souci à se faire mais d’ ici là, pas de quoi avoir peur.
Le 27/10/2014 à 21h33
Le 27/10/2014 à 22h00
Pas d’accord, le principe meme d’une IA si evoluee est que justement elle est capable d’apprendre, de creer ses heuristiques, de nouvelles fonctions etc … en d’autre mot s’etendre elle meme. Cela passe par 2 choses, soit elle reecrit des bouts de code d’elle meme comme le fait le cerveau en creant de nouvelle connections et fait evoluer sa structure (l’ia comme le cerveau) soit elle ecrit une nouvelle ia avant de s’auto detruire dans un processus d’evolution.
Le seul moment ou elle ne le fera pas au final, c’est quand elle aura rencontree tellement de problem qu’elle n’aura plus besoin de s’etendre pour resoudre de nouveaux problem, mais je pense que l’on doit etre dans un cas proche de 0
Le 28/10/2014 à 02h27
Il a raison pourvu qu’ils ne laissent pas des IA gérer le fonctionnement des infrastructures critiques.
Connaissant nos gugusses au gouvernement, ça risque d’être drôle si tenté qu’ils en aient les moyens.
Le 28/10/2014 à 05h01
Le 28/10/2014 à 06h40
De mon temps y avait pas trop de bons bouquins dessus malheureusement j’ai appris sur le tas et grâce à des gens qui bossaient déjà dans le JV (j’ai fait une école spécialisé dans le JV).
Quelques bonnes lectures ce sont les codes sources de jeux déjà existants., les cours d’intel (qui sont des références dans la programmation et que plus de gens devraient lire dans le milieu “industriel”) et les articles sur gamasutra parlant de l’IA.
Mais mon meilleur conseil c’est : plus l’IA est random plus on te dira qu’elle est vachement intelligente (test fait sur un panel de 500 joueurs ou non " />, sur une IA de jeu de plateau porté sur PC)
Le 28/10/2014 à 07h15
Le 28/10/2014 à 08h01
Le 28/10/2014 à 08h30
Ce n’est pas juste une question de reseau de neurone mais aussi de configuration de celui ci, si il reconfigure son reseau, donc la facon dont c’est connecte, changer les fonctions de transfert ou autre… cela demande aussi bien des changements de code que de recompiler etc…
Le 28/10/2014 à 08h33
Le 28/10/2014 à 08h35
A la base, il n’y a pas forcement besoin d’algos pour cela, si tu prends la theorie des systemes complexes, alliees a la theorie des graphes tu as une structure matricielle du systeme qui te permet de voir des interactions que tu aurais rates par exemple dans ton archi etc… mais tout cela ne revele en rien de l’IA que ce soit les algo d’optimisation ou ce dont je parle
Le 28/10/2014 à 08h36
Le 28/10/2014 à 08h42
Ben c’est le principe meme de l’evolution et du genre d’IA dont on parle, pour pouvoir resoudre de nouveaux probleme, soit l’IA est deja paree et elle ne change pas, au pire elle apprend, en faisant de nouveaux reseaux et… soit elle ne peut pas resoudre le probleme et doit evoluer pour le resoudre.
Le 28/10/2014 à 09h01
Le 28/10/2014 à 09h03
Le 28/10/2014 à 09h06
Le 28/10/2014 à 09h10
Le 27/10/2014 à 09h27
Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !
Le 27/10/2014 à 09h28
Ou alors, il était satisfait du président des Etats-unis de Fallout.
Le 27/10/2014 à 09h37
« Nous devons faire particulièrement attention avec l’intelligence
artificielle. Elle est potentiellement plus dangereuse que les bombes
atomiques ».
" /> Le probleme est pourtant le même.
Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.
Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,…
Et parfois avec des résultats catastrophique.
Apres au dela de ces dérives. Cela reste de l’informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, …).
Bref, le gros probleme ce n’est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.
Le 27/10/2014 à 10h12
Le 27/10/2014 à 10h13
Leynas.
Le 27/10/2014 à 10h14
On a pourtant dépassé l’étape zéro, notamment avec la logique floue.
Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.
Le 27/10/2014 à 10h15
Quand on voit ce que l’homme a fait de la bombe atomique et qu’après les inventeurs ont regretté, il serait peut être plus sage de ne pas créer cette IA.
L’homme en la créant va se baser sur sa propre “intelligence”. Cependant, l’homme est la seule espèce à être capable de faire autant d’atrocités dans le monde sur : la faune, la flore, son environnement et sur sa propre espèce. Même si l’homme peut être fait de bonté, le mal est très fort dans l’humain avec tous ses défauts : argent et cupidité, jalousie, …
Comment voulez-vous qu’une intelligence non humaine accepte cela ? C’est impossible. Elle sera obligée de prendre certaines décisions comme la protection de la Terre et des espèces si on le lui inculque et donc elle devra combattre le mal. Si on lui dit de ne pas faire de mal à l’humain et qu’elle soit dotée d’une capacité de réflexion, elle ira à l’encontre de ses règles car l’humain impose des règles mais il les enfreint quand bon lui semble.
C’est une vraie question éthique qui se pose mais une machine n’a pas d’émotion. Donc de lui mettre une IA, ça sera pareil. Ça deviendra un humain qui ne souffrira pas.
La discussion part dans un truc du type IRobot, Terminator and co, mais c’est la réalité des choses. N’importe quelle intelligence est capable de faire face à des problèmes et réfléchir. Elle cherchera à se préserver. Si l’humain est un danger pour elle, elle fera tout pour se défendre.
Ça ne sent pas bon du tout pour notre avenir et l’homme est bien suffisant pour se détruire tout seul. C’est comme un enfant ou un chien, ce sont les maîtres qui éduquent en bien ou en mal. Un chien n’a pas cette capacité de réflexion alors qu’un enfant oui … Un enfant a son libre arbitre et il se fera influencer par son environnement et les autres. Un choix peut tout changer dans une vie.
Enfin, on a encore un peu de sursis étant donné qu’il faut la technologie quantique pour qu’une machine puisse parvenir à réfléchir comme un humain.
Tant que l’homme continuera dans sa lancée actuelle, je pense que l’IA ne doit pas exister.
Le 27/10/2014 à 10h17
Le 27/10/2014 à 10h18
En effet, toutes les IA existantes ne sont que des scripts ou ensembles de scripts qui réagissent en fonction des variable.
Une vraie IA (comme dit dans les précédents commentaires) est un programme capable de générer son propre code créer aléatoirement ( il est important le aléatoire) et de choisir ce bon code avec les variables pour s’adapter à la situation => avoir un raisonnement.
On en est loin mais cependant on est quand même sur le chemin avec les ordinateurs quantiques.
Il a raison d’avoir peur car quand cette IA sera opérationnelle comme elle nous percevra. L’Homme sera-t-il vu comme un semblable intelligent ou un être ne participant pas à l’évolution de cette nouvelle espèce?
Même les êtres vivants d’intelligences dit peu évoluer peut avoir un comportement complètement diffèrent de ça “destiné” lié ADN qui participe à l’évolution.
Donc en Gros avec un IA , il est et sera impossible de connaître son degrés d’envie destruction face ( effet de gourpes ou non) à des être vivant même avec des verrous programmés (cf: “irobot” ou voir nous même avec le bien et le mal).
Le 27/10/2014 à 10h20
C’est une peur ancrée au plus profond de l’humanité, le mythe du Golem, de Frankenstein et même terminator.
Les robots d’Asimov ne sont pas gentils, ils sont contraints et la plupart d’entre eux arrivent à contourner les règles qui sont censées les lier. Ils ne sont d’ailleurs ni meilleurs ni pires que l’homme. Certains sont près au génocide d’autres ne souhaitent que la liberté.
Le véritable problème de conception c’est que l’intelligence, la vrai, celle créative, nécessite le libre arbitre et la contrainte librement choisie. Donc pour créer une véritable intelligence il ne faudrait pas la contraindre.
En sens contraire, désormais les IA, aux capacités très limitées, que nous programmons prennent elles mêmes les décisions de tir dans les systèmes militaires. Elles sont conçues pour tuer et ne respectent donc pas la première règle d’Asimov. Que va t’il se passer si elles deviennent de plus en plus capables? Et à partir de quel moment un pays décidera de confier l’intégralité de la décision militaire et de la gestion des conflits à une machine évoluée? Si cela donne un avantage stratégique aucun état n’hésitera.
Finalement le plus terrible ce ne sera pas une intelligence créatrice qui pourrait avoir conscience et sentiments, le plus terrible ce serait une intelligence non accomplie, proche de celle de l’homme à ses débuts, sans conscience, capable de génocider un peuple pour un simple bit de donnée incompatible à la réalisation de son programme.
Le 27/10/2014 à 10h21
Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.
Autre que terminatior, matrix et irobot.
Le 27/10/2014 à 10h22
De la part d’un Business Man très porté sur la High Tech, son discours me fait quand même penser fortement à :
”- Houlà, faites pas ça, c’est mal !… (c’est vrai quoi, faudrait pas qu’un concurrent sorte une IA avant mes propres équipes de R&D, sinon comment je vais rentabiliser mes investissements?!)”
Le 27/10/2014 à 10h25
Le 27/10/2014 à 10h26
Le 27/10/2014 à 10h29
Encore un qui a regardé le film (daubesque) Transcendance et qui ne partage pas les rêves de transhumanisme informatique de Google and Co.
Le 27/10/2014 à 10h29
Le 27/10/2014 à 10h30
En lisant beaucoup de commentaires précédents j’ai l’impression que les craintes de E. Musk sont mal comprises:
Pour moi, ce ne sont pas les IA telles qu’on les conçoit actuellement qui lui font peur, mais celles que l’ont pourraient concevoir à l’avenir, ie une IA totalement autonome capable de se développer et d’apprendre seule de façon plus efficace qu’un cerveau humain, on en est relativement loin encore mais ça peut aller très vite, et je rejoins l’opinion du Monsieur.
Par ailleurs, pour répondre à tous ceux qui “rient” de sa comparaison avec la bombe atomique, ou qui font des parallèles avec des technologies neutres par essence mais utilisées parfois à mauvais escient par l’homme, je me permets d’avancer qu’une véritable IA plus performante qu’un cerveau humain (en terme non seulement de calcul -ça on sait déjà- mais surtout de raisonnement -on en est loin à priori-) est bien au delà d’une technologie neutre. En effet, elle serait autonome, dotée de conscience et de son libre arbitre, c’est bien différent d’un pesticide détourné en arme chimique ou de la fission nucléaire utilisée pour faire des bombes.
J’ai lu des références à Hypérion dans les commentaires précédents, je le recommande chaudement à tout le monde! Sans oublier les suites, La chute d’Hypérion, Endymion et l’éveil d’Endymion.
Le 27/10/2014 à 10h30
Il ne faut pas se voiler la face : du couteau à la bombe H, toutes les inventions humaines ayant un pouvoir de destruction ont toujours fini par être utilisées à mauvais escient.
Et s’il y a bien quelque chose que l’Histoire nous apprend, c’est que l’humain est incapable d’apprendre de ses erreurs.
Le 27/10/2014 à 10h31
Le 27/10/2014 à 14h39
Le 27/10/2014 à 14h41
ce que tu ne comprends c’est qu’à la différence de l’Homme ce genre d’IA controlerait le processus d’évolution de bout en bout, contrairement à nous. Donc au final, avoir le contrôle absolu sur ce processus lui donne toute les capacites imaginable même si au départ elle avait l’intelligence d’un ver de terre
Le 27/10/2014 à 14h42
Le 27/10/2014 à 14h43
Le 27/10/2014 à 14h44
Le 27/10/2014 à 14h45
Le 27/10/2014 à 14h46
Ben c’est Harisson Ford quoi … Fallait rentabiliser le cachet " />
Le 27/10/2014 à 14h46
Le problème des IA ne se pose même pas, c’ est trop tard, actuellement la pluspart des entreprises dans ce domaine font des avancées énormes depuis une grosse dizaine d’ années et je les vois mal faire marche arrière.
Le seul problème en fait réside dans le fantasme SF de certains parce que, pour arriver à créer un HAL qui aurait sa propre conscience de soi de manière autonome, il va encore y avoir un paquet d’ années avant que cela arrive.
Le but d’ une IA n’ est pas de remporter un Nobel de philosophie ou de tenir une conversation de salon comme un être humain (aucun intérêt à part de la recherche formelle peut être) mais bien de créer par exemple des algorithmes et des programmes pouvant aider à prendre de bonnes décisions vu leur potentiel énorme quand ils sont associés à des bases de données que n’ importe quel humain ne pourrait prendre en compte de manière aussi vite.
Une IA comme interface permettant la compréhension et le dialogue machine/être humain est également je pense une autre voie vers laquelle on travaille beaucoup.
Le travail sur les IA ressemble beaucoup plus à ces 2 exemples qu’ à la mise au point d’ un futur Skynet.
C’ est un peu pareil avec la robotique, la pluspart de ceux ci bossent en usine et leur conception tend à leur faire accomplir des tâches lourdes, répétitives ou dangereuses plutôt que des Daleks ou des futurs cylons…
Le 27/10/2014 à 14h48
Bah disons que dans IRobot, ça allait dans le sens : ne pas se foutre sur la tronche.
C’est un peu comme dans le 5ème élément où elle se demande si ça vaut vraiment le coup de sauver la terre.
Mais bon une fois que Bruce lui a roulé une galoche elle estime que oui : ouf!
Le 27/10/2014 à 14h48
Le 27/10/2014 à 14h49
Le 27/10/2014 à 14h50
oui tu vois plus ça comme on voit dans les films l’ordinateur de bord d’un vaisseau spacial : on lui pose des questions, il donne des réponses et du coup le commandant de bord humain lui dit qu’elle décision a été prise et lui demande de la mettre en oeuvre : c’est ça?
Le 27/10/2014 à 14h50
Le but de creer une IA serait surtout au final d’avoir des esclaves a pas cher pour assurer notre survie pendant qu’on ne branle plus rien … il n’y a qu’a voir l’automatisation de l’industrie pour le comprendre et la plupart des scenarios catastrophe ce basent la dessus a raison.
Le 27/10/2014 à 14h52
Plus fan de Dune que d’Asimov… Mais justement, dans Dune les “machines pensantes”, ordinateurs et assimilés sont devenu interdits !
Le 27/10/2014 à 14h53
Le 27/10/2014 à 15h22
Le 27/10/2014 à 09h52
Le 27/10/2014 à 09h53
Il a pas aimé la fin de la saison 3 de “Person of Interest” :-)
Le 27/10/2014 à 09h54
citation wikipedia (avec de vrais morceaux de trolls):
Selon Jon Favreau, réalisateur des films Iron Man, Musk est l’inspiration du Tony Stark joué par Robert Downey Jr.
Le 27/10/2014 à 09h54
Le 27/10/2014 à 09h58
Au vu de la direction que prend la recherche dans ce domaine, je pense qu’on est encore tranquilles pour une bonne cinquantaine d’années.
Tant mieux. Elon ne s’intéresse peut-être pas suffisament au sujet pour comprendre qu’on est loin de machines à l’intelligence humaine, mais s’il le savait, il serait rassuré.
Surtout qu’en avançant dans la mauvaise direction, peu importe le nombre d’années, on n’arrive jamais à destination.
Le 27/10/2014 à 09h59
Argggg….
Frank Herbert et non Franck.
Le 27/10/2014 à 10h00
Le 27/10/2014 à 10h03
“C’est de la SF donc il est bête”.
De la Terre à la Lune était de la SF.
SF ne veut pas dire Sans Fondement.
Le 27/10/2014 à 10h03
Ben la bombe nucléaire à quand même empêcher les Etats Unis et la Russie de se mettre sur la tronche….. ça c’est plutôt positif, maintenant de nos jours ça sert à rien car l’ennemi s’appelle le terrorisme contre lequel l’arme nucléaire n’a aucun effet.
Ça a permis de “pacifier” les grandes nations.
Le 27/10/2014 à 10h05
C’est un système décisionnel. Et c’est une étape importante sur le chemin de l’IA.
Le 27/10/2014 à 10h07
Le 27/10/2014 à 10h07
Le 27/10/2014 à 10h09
Le 27/10/2014 à 10h10
Le 27/10/2014 à 10h11
De toute façon, plus ou moins tout est très loin de ce dont il parle là :-p
Je crois qu’il est un peu trop enfermé dans son univers de scifi, un peu inquiétant venant de la part de ce qu’il semble être est un des grands patrons de l’univers des technologies de pointes…
Le 27/10/2014 à 10h11
Je vous laisse découvrir une vidéo intéressante de Laurent Alexandre sur les neuro-sciences. NBIC Nanotechnologies, Biotechnologies, Informatique, science-Cognitive:
Faut-il mettre des limites à l’Intelligence Artificielle ?
Le 27/10/2014 à 11h41
IA revient a créer le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme
L’home est le démon de la vie, l’intelligence est l’outil de la destruction
Nous vivons car nous tuons, prendre la vie pour se nourrir, réduire la vie d’autrui pour augmenter la notre
Telle est la vie, une cruauté, un virus
Le 27/10/2014 à 11h49
Le 27/10/2014 à 11h50
J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. " />
Quelqun à un avis sur les livres du fiston?
Le 27/10/2014 à 11h56
Déjà il faut faire la différence entre une IA faible et une IA forte.
Une IA faible, on en a déjà des tas aujourd’hui, que ce soit dans la finance ou dans les Google cars. C’est limité à un usage spécifique. Toute IA conçue dans un but guerrier (par exemple), et aussi efficace ou puissante soit-elle sera une IA faible et ne restera au final qu’un tas d’algorithmes connus.
L’article parle manifestement au contraire d’une IA forte, qui elle n’est pas conçue dans un but précis. Elle est à l’image de l’intelligence humaine : capable d’apprendre et de développer une conscience.
J’avais assisté il y a quelque temps à une conférence où un chercheur dans le domaine des IA fortes faisait justement le parallèle avec les trois lois de la robotique. En gros, les IA vers lesquelles on se dirige seraient fondamentalement conçues pour apprendre, et donc récolter et protéger toute forme d’information. Or, chaque être humain est une mine d’information, de connaissance et de culture. Ces trois lois seraient donc respectées dans avoir besoin de les implémenter de manière aussi brute que dans les romans d’Asimov.
Je pense que ce type d’IA ne sera pas plus dangereux que n’importe quel humain : ses décisions dépendront uniquement de la manière dont on l’éduque, le respecte et le considère.
Le 27/10/2014 à 12h01
Quelque soit l’intelligence, elle prend pour repères son milieu, son entourage, les enseignements reçus enseignement et/ou son vécu.
J’ai cherché ce qui pourrait coller à l’image que tu décirs.
On peut retrouver cela dans certaines espèces animales à même de se débrouiller par elles mêmes dés leur naissance (sans apprentissage préalable), ce n’est pas de l’intelligence mais un réflexe instinctif.
Néanmoins, ce reflexe est codé dans leur genes. Pour une IA, cela revient tout de meme à une intervention humaine pour lui donner une base (utiliser son corps, être à même d’apprendre et de tirer des leçons).
Une ia assise mais vide (avec 0 information) ne sera pas autre chose qu’une poupée posée sur une chaise.
Il faut un minimum afin qu’elle puisse déjà maitriser son corps et être à même d’évoluer/d’apprendre.
L’image la plus parlante (et triste), les lobotomisés dont le coté cognitif à été endommagé (volontairement ou non).
Déjà avant d’en arriver la (à mon avis) il y à encore une sacrée marge.
De plus, (sans théorie du complot), je doute que dans le domaine publique ce genre d’IA puisse voir le jour sans un encadrement très stricte (ce qui ne sera pas forcement le cas en militaire mais vu l’usage).
Apres évidemment, ça reste un avis personnel.
Le 27/10/2014 à 12h08
Le 27/10/2014 à 12h10
Le 27/10/2014 à 12h11
S’il veut de l’IA sans risque, il n’a qu’à s’adresser à EA Sports. Ils sont spécialisés dans l’IA sans I.
Le 27/10/2014 à 12h14
Nous sommes les enfants de David. Jamais nous ne mourrons. Nous dominerons cette terre.
" />
Le 27/10/2014 à 12h16
Oui mais le fait qu’il gagne à Jeopardy! n’est pas une preuve qu’il comprenne le langage humain, ni qu’il soit intelligent. Si sa capacité à synthétiser est déjà très intéressante, en aucun cas il n’a une représentation d’un terme telle qu’on puisse parler de compréhension. Quand tu lui demandes de t’expliquer un terme, il va faire des recherches, un résumé, et te donner un résultat.
Si tu veux, c’est comme la différence entre comprendre une autre langue et la traduire.
Et bon tu parles des échecs, mais ça fait longtemps que le challenge en matière de calcul et de compréhension d’un jeu de la part des IA est passé vers le jeu de go. Je doute que Watson comprenne la notion d’influence mieux qu’un autre.
Leynas.
Le 27/10/2014 à 12h16
Un jihadiste ! " />" />" />
Que font la NSA/MI-5/DGSE ??
" />
Le 27/10/2014 à 12h30
Le 27/10/2014 à 12h41
Le 27/10/2014 à 12h41
HS
Le 27/10/2014 à 12h44
Je les ai lues en parties, j’ai trouvé ça très divertissant mais un peu “facile”, peu de prise de risque.
Le 27/10/2014 à 12h47
c’est ce même elon musk qui va rendre sa voiture autonome??
Le 27/10/2014 à 15h26
Le 27/10/2014 à 15h28
Le 27/10/2014 à 15h31
Le 27/10/2014 à 15h37
Je pense que tu sous estimes le nombre de choses que l’on a inventé par pur hasard.
Le 27/10/2014 à 15h43
Mouais, on a bien vu ou ca nous a mené les 3 lois d’Asimov, on s’est qd meme fait dominé et dirigé par des robots. Sus aux robots!
Le 27/10/2014 à 15h44
Le 27/10/2014 à 15h50
Le 27/10/2014 à 15h56
Le 27/10/2014 à 15h57
Le 27/10/2014 à 15h57
Tout comme certains abusent de la guerre des étoiles, je crains que Elon Musk ait abusé de terminator.
Le 27/10/2014 à 16h01
La complexite n’a rien a voir la dedans. Puis sur ce sujet, la theorie de la singularite n’est pas le juste pour faire beau.
Le 27/10/2014 à 16h02
Le 27/10/2014 à 16h04
bien sur mais la finalite de tout cela c’est d’avoir une IA totalement autonome et intelligente pour nous remplacer dans les taches de tout les jours comme l’ouvrier remplace dans son usine. Reste a voir si cet IA sera assez intelligente pour nous dire “demmerdez vous” ou juste assez intelligente pour etre asservie completement>
Le 27/10/2014 à 16h10
à la lecture en diagonale des coms, j’ai la désagréable impression que les enjeux ne sont pas pris au sérieux.
ceux qui parlent d’erreurs humaines sont amha à côté de la plaque : une IA aboutie sera autonome dans son développement (sinon c’est un jouet pour enfant technologique, pas une vraie IA).
Le 27/10/2014 à 16h11
Le 27/10/2014 à 16h18
Je connaissais pas cette “théorie”
Mais après une petite recherche google. Je constate que c’est un simple concept, très différent d’une théorie donc.
J’essaye juste de faire la part entre ce qui est de l’ordre de la science et de l’ordre du fantasme, tu m’as simplement l’air de mélanger un peu les 2, mais bon je vais arrêter de faire le rabat joie et te laisser fantasmer donc " />
Le 27/10/2014 à 09h38
Sa réponse prête effectivement à rire. Toute cette thématique a été largement couverte au XXe siècle par les écrivains de scifi.
Le 27/10/2014 à 09h39
Je serais elles, j’en profiterai pour demander une de leur bagnole.
Le 27/10/2014 à 09h42
Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.
D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.
Quand on sait qu’une voiture électrique moderne c’est 1 million de ligne de code et qu’il est estimé qu’il existe une erreur de programmation tout les 100 lignes de codes, je vous laisse imaginer la bazar.
Si à cela vous rajouter quelques hackers/crackers pour venir foutre le bordel là dedans afin de transformer votre voiture en grille pain, on est pas sorti de l’auberge alors qu’une voiture a juste besoin de 4 roues et d’un volant en principe.
Le 27/10/2014 à 09h42
Le 27/10/2014 à 09h43
Waou y a de la référence littéraire dans l’article " />
Le 27/10/2014 à 09h44
On peut citer Matrix et Hypérion également sur cette thématique. Je pense qu’il est un peu tôt pour s’inquiéter, il y a plus de chance que l’humanité s’autodétruise avant qu’elle soit capable de créer des IA qui nous détruisent à notre place " />
Le 27/10/2014 à 09h46
C’est un peu hypocrite pour le coup, le pilote automatique sur les nouvelles Tesla S s’apparente a de la IA et c’est sensé allers de plus en plus loin.
Le 27/10/2014 à 09h47
Le 27/10/2014 à 09h48
Le 27/10/2014 à 09h49
Vous ne réfléchissez pas assez loin, on ne parle pas d’une IA en tant qu’outil, au service de gens plus ou moins bien intentionnés.
On parle de la singularité technologique, d’une IA capable de se programmer, d’évoluer toute seule, de devenir 10^x plus intelligente qu’un être humain, de résoudre des défis technologiques auxquels nous n’arrivons meme pas à penser. Plus grand chose ne pourra l’arrêter… si le besoin s’en fait sentir.
Oui la thématique a été largement traitée dans la SciFi, mais on n’en est plus si loin maintenant, ca devrait devenir une réfléxion contemporaine.
Le 27/10/2014 à 09h50
Le 27/10/2014 à 09h50
Le 27/10/2014 à 09h51
Le 27/10/2014 à 09h51
Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o
Le 27/10/2014 à 09h51
le principe d’une intelligence c’est justement qu’elle n’est plus contrôlé par des humains…
Le 27/10/2014 à 09h52
Le 27/10/2014 à 17h34
Le 27/10/2014 à 17h35
Le 27/10/2014 à 17h40
Le 27/10/2014 à 17h41
Le 27/10/2014 à 17h44
Le 27/10/2014 à 17h54
Un autre exemple : chez l’être humain plusieurs parties du cerveau sont dédiées à la réalisation de traitements mathématiques des signaux reçus (audition, vision, etc). Ce ne sont évidemment pas des comportements acquis, ce sont des programmes innés. Et c’est en interagissant avec ces parties programmées du cerveau que les parties intelligentes de notre vision fonctionnent.
Intelligence = circuits adaptatifs + programmes.
Le 27/10/2014 à 17h58
Le 27/10/2014 à 18h02
Le 27/10/2014 à 18h04
Le 27/10/2014 à 18h28
Le 27/10/2014 à 18h48
Si l’humanité a foirer l’éducation, la communication et la cohabitation avec une IA qu’ils ont crée, vous croyais pas que l’humanité mérite de crever ?" />
Le 27/10/2014 à 19h06
Le 27/10/2014 à 20h17
Le 27/10/2014 à 20h53
Il a au moins le mérite d’en parler et de soulever la question.
Pas comme un patron de Google ou FB….
Le 27/10/2014 à 20h58
Le 27/10/2014 à 21h02
Tu confonds intelligence et réactions ataviques.
Mes paramètres préprogrammés comme tu dis m’interdisent de faire des bonds de 8000km de long… et pourtant des milliers de personnes font ça chaque jour…
Et c’est bien l’intelligence collective de mon espece qui a permit ça, et c’est cette intelligence qui lui a également permis de s’affranchir de la crainte des prédateurs,etc… Autrement dit, on est sorti de nos paramètres soit disant préprogrammés. Ce seul exemple suffit à casser ta logique à propos de cette histoire de paramètres. Et l’art et la science qui seraient dans des paramètre préprogrammés.. J’avais oublié qu’on se transmet ça par génétique…
Et les arguments que tu avances sur la google car sont à coté de la plaque. Si une google car s’arrêtait d’elle même, alors ce qui se passe après, je m’en tape. La question, c’est de savoir pourquoi, et c’est là que j’explique que SI le pourquoi de cet arrêt n’est pas dans le programme etc… mais bon, quand on veut pas comprendre…
Le 27/10/2014 à 13h46
Le 27/10/2014 à 13h57
Le 27/10/2014 à 14h04
Le 27/10/2014 à 14h05
Le 27/10/2014 à 14h11
Le 27/10/2014 à 14h15
Le 27/10/2014 à 14h16
Le 27/10/2014 à 14h20
Le 27/10/2014 à 14h23
l’être humain existe … il n’y a en théorie aucune impossibilité, nous ne sommes que des bio machines au final, si la nature a pu nous créer, il n’y a aucune raison pour que l’on ne puisse pas créer une IA aussi intelligente voir plus que nous.
Cela ne reste qu’une question de potentiel au final, avec la multitude d’espèce sur terre, pourquoi n’y en a t-il qu’une aussi “douée” ? 2 raisons me viennent a l’esprit, les autres espèces n’ont pas un potentiel aussi gros ou bien nous avons tués (volontairement ou pas) les autres candidats au cours de notre évolution.
Le 27/10/2014 à 14h26
Le 27/10/2014 à 14h27
Le 27/10/2014 à 14h28
Le 27/10/2014 à 14h35
Le 27/10/2014 à 14h36
Le 27/10/2014 à 14h37
Si l’intelligence artificielle est en mesure de s’auto-programmer, ça peut devenir dangereux, en effet…
Mais si un “programme suprême” peut imposer quelques conditions pour que l’ordinateur obéisse à certaines règles fondamentales, pourquoi pas ?
Le 27/10/2014 à 14h37
Le 28/10/2014 à 09h17
Le 28/10/2014 à 10h04
Quand tu qualifies les IA d’aujourd’hui “d’intelligentes” tu leur prête déjà l’intelligence, et c’est précisément là où on n’est pas d’accord. Pour moi, tu utilises simplement un postulat qui reste à démontrer.
Tu définis l’intelligence comme le fruit de l’évolution, et je ne suis pas d’accord non plus : il y a eu évolution d’un organisme déjà intelligent ( c’est toujours la même chose : problème de postulat ).
Que l’intelligence soit enfermée dans une boite physique aux dimensions finies (comme celle d’un cerveau ) ne permet pas d’expliquer actuellement cette intelligence ni comment elle fonctionne. On sait comment fonctionne le cerveau, mais pas l’intelligence qui est avec.
Tu sors la carte de la complexité avec les “réseaux neuronaux”, et que c’est de cette complexité que sortira l’intelligence, j’affirme pour ma part que ça n’est pas ça qui provoquera son émergence. Comme déjà dit, en ce qui me concerne , l’intelligence, c’est un peu comme la vie, c’est quand le tout est “plus” que la somme des parties. On sait créer des mécanismes comme ces fameux réseaux neuronaux, des “sommes de parties” qui sont très complexes mais qui ne sont QUE la somme des parties.
Le 28/10/2014 à 10h34
De toute manière, une IA existera réellement quand elle saura répondre avec ses propres mots à ça :
As-tu conscience de ta propre existence ?
Si elle saura le faire, on pourra s’inquiéter :)
Le 28/10/2014 à 10h38
Le 28/10/2014 à 11h02
Le 28/10/2014 à 12h14
Le 28/10/2014 à 13h39
Le 28/10/2014 à 13h46
Le 28/10/2014 à 14h39
Le 28/10/2014 à 15h19
Le 28/10/2014 à 15h26
potenti
Le 28/10/2014 à 15h36
Le 28/10/2014 à 15h37
Le 28/10/2014 à 19h01
Merci, je vais regarder" />
Le 28/10/2014 à 19h23