Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »

Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »

« Tu ne feras point de machine à l’esprit de l’Homme semblable »

242

Pour Elon Musk, l’intelligence artificielle revient à « invoquer le démon »

Elon Musk, le PDG de l’entreprise américaine Tesla, était récemment interviewé dans le cadre de l’AeroAstro Centennial Symposium du MIT (Massachussetts Institute of Technology). Interrogé sur le sujet de l’intelligence artificielle, ses réponses sont devenues des mises en garde, suggérant que la communauté internationale devrait veiller à ce que des bornes ne soient pas dépassées.

Le patron de Tesla enclin à faire très attention avec l'intelligence artificielle

Elon Musk est un entrepreneur de premier plan aux États-Unis et il est célèbre dans le monde entier pour au moins deux de ses entreprises. D’une part, Tesla, un constructeur automobile ne produisant que des modèles électriques. D’autre part, SpaceX, qui produit du matériel destiné aux vols spatiaux et à l’astronautique en général. SpaceX est d’ailleurs un fournisseur privé de la NASA et dispose de plusieurs lanceurs. Il s’agit dans les deux cas de sociétés que l’on pourrait qualifier de « technologie de pointe ».

 

Au cours de son interview lors du MIT AeroAstro Centennial Symposium, Elon Musk a cependant eu l’occasion d’exprimer ses vues sur tout ce qui touche à l’intelligence artificielle. Globalement, il se montre précautionneux, invitant l’industrie et la communauté internationale à faire très attention à ce qui est réalisé dans ce domaine, en particulier quand la science informatique se penche sur les mécanismes cognitifs de l’être humain.

 

Les commentaires sur l'intelligence artificielle commencent vers 1 heure et 7 minutes

« Avec l'intelligence artificielle, nous invoquons le démon »  

« Je pense que nous devrions faire très attention avec l’intelligence artificielle. Si je devais imaginer quelle serait notre plus grande menace existentielle, c’est probablement ça. Nous devons donc nous montrer très prudents » indique-t-il ainsi. Il enchaine, montrant une véritable crainte à ce sujet : « Je suis de plus en plus enclin à penser qu’il devrait y avoir une supervision régulatrice, peut-être aux niveaux nationaux et internationaux, juste pour être certains que nous ne faisons pas quelque-chose de stupide ».

 

La discussion prend même un tour mystique : « Avec l’intelligence artificielle, nous invoquons le démon. Vous savez, ces histoires où vous avez un homme avec un pentagramme, et l’eau bénite, et il fait comme si il pouvait contrôler le démon ? Ça ne fonctionne jamais ». Bien que la réplique ait eu le don de faire rire l’assistance, Musk exprime sa peur de voir le génie sortir de sa bouteille pour ne plus jamais y revenir.

L'IA plus dangereuse que les bombes atomiques ?

Les craintes de Musk prennent sans doute racine dans l’anticipation et les très nombreux ouvrages abordant la thématique de l’intelligence artificielle, de l’évolution de la robotique ou même encore de la théorie de la singularité. En août dernier, il indiquait par exemple avoir lu le livre « Superintelligence: Paths, Dangers, Strategies » de Nick Bostrom. L’ouvrage suggère de se méfier de quelle manière nous rendons les machines intelligentes. Ainsi, nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué. Une analogie qui faisait alors dire au patron de Tesla : « Nous devons faire particulièrement attention avec l’intelligence artificielle. Elle est potentiellement plus dangereuse que les bombes atomiques ».

 

 

Elon Musk est probablement très versé dans la littérature de science-fiction puisqu’il a même demandé à l’un des étudiants dans la salle quelle était son œuvre préférée. Mais pour rester dans ce domaine particulier, Musk semble pour l’instant plus proche du jihad butlérien de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs trois lois fondamentales.

Commentaires (242)


Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !


Ou alors, il était satisfait du président des Etats-unis de Fallout.


« Nous devons faire particulièrement attention avec l’intelligence

artificielle. Elle est potentiellement plus dangereuse que les bombes

atomiques ».

&nbsp;<img data-src=" />&nbsp; Le probleme est pourtant le même.







Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.



Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,…

Et parfois avec des résultats catastrophique.



Apres au dela de ces dérives. Cela reste de l’informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, …).



Bref, le gros probleme ce n’est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.


Sa réponse prête effectivement à rire. Toute cette thématique a été largement couverte au XXe siècle par les écrivains de scifi.


Je serais elles, j’en profiterai pour demander une de leur bagnole.


Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.

D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.



Quand on sait qu’une voiture électrique moderne c’est 1 million de ligne de code et qu’il est estimé qu’il existe une erreur de programmation tout les 100 lignes de codes, je vous laisse imaginer la bazar.

&nbsp;Si à cela vous rajouter quelques hackers/crackers pour venir foutre le bordel là dedans afin de transformer votre voiture en grille pain, on est pas sorti de l’auberge alors qu’une voiture a juste besoin de 4 roues et d’un volant en principe.








x689thanatos a écrit :



Le probleme n’est pas l’intelligence artificielle en elle même mais les 3 gus humains qui sont derrière.





Toujours pareil avec les nouvelles technologies, elles ne sont pas dans les mains de monsieur tout le monde.<img data-src=" />

Et perso, je pense que le problème viendrai plutôt de là…



Waou y a de la référence littéraire dans l’article <img data-src=" />


On peut citer Matrix et Hypérion également sur cette thématique. Je pense qu’il est un peu tôt pour s’inquiéter, il y a plus de chance que l’humanité s’autodétruise avant qu’elle soit capable de créer des IA qui nous détruisent à notre place <img data-src=" />


C’est un peu hypocrite pour le coup, le pilote automatique sur les nouvelles Tesla S s’apparente a de la IA et c’est sensé allers de plus en plus loin.








gokudomatic a écrit :



Sa réponse prête effectivement à rire. Toute cette thématique a été largement couverte au XXe siècle par les écrivains de scifi.





hmmm de même que les dérives dans le contrôle et “l’espionnage” des populations, ça n’a pourtant pas empêché la mise en place de tels systèmes, pas plus que ça n’a moralisé leur utilisation…



&nbsp;









Zyami a écrit :



Pour ma part, ce n’est pas tellement l’IA qui me fait peur mais plutôt l’être humain qui programme une IA.

D’une part l’erreur est humaine et d’autre part il existe aussi des cerveaux tordus.





Pour ma part, Elon va justement plus loin.

Ta remarque suppose que c’est encore l’Homme qui a la maitrise des outils informatiques, et aussi des IAs qu’il crée.

&nbsp;



&nbsp;La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

Mais bon, comme déjà dit, cela a déjà été traité et retraité par toute l’univers scifi, que ce soient livres, films, jeux, etc.

&nbsp;



Vous ne réfléchissez pas assez loin, on ne parle pas d’une IA en tant qu’outil, au service de gens plus ou moins bien intentionnés.

On parle de la singularité technologique, d’une IA capable de se programmer, d’évoluer toute seule, de devenir 10^x plus intelligente qu’un être humain, de résoudre des défis technologiques auxquels nous n’arrivons meme pas à penser. Plus grand chose ne pourra l’arrêter… si le besoin s’en fait sentir.



Oui la thématique a été largement traitée dans la SciFi, mais on n’en est plus si loin maintenant, ca devrait devenir une réfléxion contemporaine.








Nnexxus a écrit :



Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !





Ca serait con de se faire détruire notre planete a cause des robots aspirateurs









Jean_Peuplus a écrit :



On peut citer Matrix et Hypérion également sur cette thématique. Je pense qu’il est un peu tôt pour s’inquiéter, il y a plus de chance que l’humanité s’autodétruise avant qu’elle soit capable de créer des IA qui nous détruisent à notre place <img data-src=" />





+1



A force de laisser des festivals comme HellFest se dérouler, les métalleux vont un jour arriver à invoquer Satan…









trash54 a écrit :



Waou y a de la référence littéraire dans l‘article <img data-src=" />











C’est pas non plus des références super underground quoi <img data-src=" />



Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o


le principe d’une intelligence c’est justement qu’elle n’est plus contrôlé par des humains…








ActionFighter a écrit :



+1



A force de laisser des festivals comme HellFest se dérouler, les métalleux vont un jour arriver à invoquer Satan…









Ils ont déjà réussi à provoquer le réchauffement climatique <img data-src=" />









Gemini_Power a écrit :



Pour ma part, Elon va justement plus loin.

Ta remarque suppose que c’est encore l’Homme qui a la maitrise des outils informatiques, et aussi des IAs qu’il crée.

&nbsp;



&nbsp;La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

Mais bon, comme déjà dit, cela a déjà été traité et retraité par toute l’univers scifi, que ce soient livres, films, jeux, etc.

&nbsp;





Oui le Multivac qui deviendrait dieu : “Que la lumière soit et la lumière fut” lorsque le dernier humain vient à mourir. &nbsp;;)



Il a pas aimé la fin de la saison 3 de “Person of Interest” :-)


citation wikipedia (avec de vrais morceaux de trolls):

Selon Jon Favreau, réalisateur des films Iron Man, Musk est l’inspiration du Tony Stark joué par Robert Downey Jr.








Gemini_Power a écrit :



&nbsp;&nbsp; La crainte d’Elon, et je le rejoint un peu là dessus, c’est que les systèmes IA deviennent autonome, évolutifs, et par conséquent hors de contrôle, même pour des hackers.

&nbsp;





C’est déjà le cas de certains algorithmes actuels : apprentissage par réseaux de neurones, optimisation par algorithmes génétiques, code mutant… C’est pratique quand on cherche à résoudre un problème qu’on ne comprend pas trop : on le pose formellement, et on laisse l’algo explorer les solutions à notre place. Du coup toute la difficulté est reportée sur la modélisation du problème, parce que les algos étant très cons (pas du tout de “bon sens”) il faut très bien les cadrer.



On est loin d’avoir des trucs assez malins pour aller prendre le contrôle d’un réseau d’armes nucléaires ou renvoyer des robots dans le passé, mais bon, y’a pas d’obstacle théorique à ça…



Au vu de la direction que prend la recherche dans ce domaine, je pense qu’on est encore tranquilles pour une bonne cinquantaine d’années.



Tant mieux. Elon ne s’intéresse peut-être pas suffisament au sujet pour comprendre qu’on est loin de machines à l’intelligence humaine, mais s’il le savait, il serait rassuré.



Surtout qu’en avançant dans la mauvaise direction, peu importe le nombre d’années, on n’arrive jamais à destination.


Argggg….



Frank Herbert et non Franck.








SuperMot a écrit :



C’est un peu hypocrite pour le coup, le pilote automatique sur les nouvelles Tesla S s’apparente a de la IA et c’est sensé allers de plus en plus loin.





Clairement le “pilotage automatique” s’apparente plus à un ensemble de scripts qu’à une “intelligence”&nbsp;<img data-src=" />



Si distance voiture &lt; Distance de freinage + distance de sécurité =&gt; verifier possibilité de dépassement, sinon freiner …



on est TRES loin de ce dont il parle là&nbsp;<img data-src=" />



&nbsp;“C’est de la SF donc il est bête”.

De la Terre à la Lune était de la SF.



SF ne veut pas dire Sans Fondement.


Ben la bombe nucléaire à quand même empêcher les Etats Unis et la Russie de se mettre sur la tronche….. ça c’est plutôt positif, maintenant de nos jours ça sert à rien car l’ennemi s’appelle le terrorisme contre lequel l’arme nucléaire n’a aucun effet.



Ça a permis de “pacifier” les grandes nations.


C’est un système décisionnel. Et c’est une étape importante &nbsp;sur le chemin de l’IA.








dematbreizh a écrit :



&nbsp;“C’est de la SF donc il est bête”.

De la Terre à la Lune était de la SF.



SF ne veut pas dire Sans Fondement.





Non, effectivement. SF signifie Simplet Farfelu.









Jean_Peuplus a écrit :



Ils ont déjà réussi à provoquer le réchauffement climatique <img data-src=" />





A force de suer en se frottant, ils sont en train d’exterminer plein d’espèces pour servir leur dessein diabolique <img data-src=" />









MatouDAR a écrit :



Argggg….



Frank Herbert et non Franck.





C’est corrigé&nbsp;<img data-src=" />









Nnexxus a écrit :



Encore un qui n’a pas été satisfait par la fin de Mass Effect 3 !









GierrePattaz a écrit :



Ou alors, il était satisfait du président des Etats-unis de Fallout.







Ou alors il a lu les comics Age of Ultron !



De toute façon, plus ou moins tout est très loin de ce dont il parle là :-p

Je crois qu’il est un peu trop enfermé dans son univers de scifi, un peu inquiétant venant de la part de ce qu’il semble être est un des grands patrons de l’univers des technologies de pointes…


Je vous laisse découvrir une vidéo intéressante de Laurent Alexandre sur les neuro-sciences. NBIC Nanotechnologies, Biotechnologies, Informatique, science-Cognitive:

&nbsp;Faut-il mettre des limites à l’Intelligence Artificielle ?








gokudomatic a écrit :



C’est un système décisionnel. Et c’est une étape importante &nbsp;sur le chemin de l’IA.





Tout comme naître est une étape importante sur le chemin de la présidence de la république&nbsp;<img data-src=" />



&nbsp;Cet algo ne peux pas évoluer, il est figé par son code en “dur”, rien de ce code ne pourra être récupéré dans le cadre d’un IA “digne de ce nom” si ce n’est qu’en terme de “code témoin” pour valider que l’IA répond de manière identique aux mêmes scénario.&nbsp;



C’est l’étape “Zero” de l’IA. C’est sur le chemin, mais c’est plus une “illusion” d’intelligence qu’une réelle intelligence.




  1. Non, il ne semble pas du tout plus proche du Jihad Butlérien que des règles d’Asimov. C’est même un contresens puisqu’il n’est pas fondamentalement contre l’IA mais contre une confiance aveugle et une irresponsabilité vis à vis de celle-ci ;



    1. Si la thématique de l’IA a déjà largement été explorée par la science-fiction, cela ne veut pas dire que la science-fiction a tout anticipé en détails, et encore moins que cette anticipation va s’avérer exacte ;

    2. Même si c’était le cas, je ne crois pas que les cas anticipés soient forcément souhaitables, qu’au contraire un certain nombre sont ouvertement des mises en garde dont il est bienvenu de faire une piqûre de rappel aujourd’hui ;

    3. Évidemment, on parle ici d’une IA qui évoluerait, apprendrait et s’améliorerait elle-même. On en est encore loin, mais on s’en rapproche et surtout une partie de la communauté scientifique va dans cette direction ;



      Leynas.



On a pourtant dépassé l’étape zéro, notamment avec la logique floue.



Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.


Quand on voit ce que l’homme a fait de la bombe atomique et qu’après les inventeurs ont regretté, il serait peut être plus sage de ne pas créer cette IA.



L’homme en la créant va se baser sur sa propre “intelligence”. Cependant, l’homme est la seule espèce à être capable de faire autant d’atrocités dans le monde sur : la faune, la flore, son environnement et sur sa propre espèce. Même si l’homme peut être fait de bonté, le mal est très fort dans l’humain avec tous ses défauts : argent et cupidité, jalousie, …



Comment voulez-vous qu’une intelligence non humaine accepte cela ? C’est impossible. Elle sera obligée de prendre certaines décisions comme la protection de la Terre et des espèces si on le lui inculque et donc elle devra combattre le mal. Si on lui dit de ne pas faire de mal à l’humain et qu’elle soit dotée d’une capacité de réflexion, elle ira à l’encontre de ses règles car l’humain impose des règles mais il les enfreint quand bon lui semble.



C’est une vraie question éthique qui se pose mais une machine n’a pas d’émotion. Donc de lui mettre une IA, ça sera pareil. Ça deviendra un humain qui ne souffrira pas.



La discussion part dans un truc du type IRobot, Terminator and co, mais c’est la réalité des choses. N’importe quelle intelligence est capable de faire face à des problèmes et réfléchir. Elle cherchera à se préserver. Si l’humain est un danger pour elle, elle fera tout pour se défendre.



Ça ne sent pas bon du tout pour notre avenir et l’homme est bien suffisant pour se détruire tout seul. C’est comme un enfant ou un chien, ce sont les maîtres qui éduquent en bien ou en mal. Un chien n’a pas cette capacité de réflexion alors qu’un enfant oui … Un enfant a son libre arbitre et il se fera influencer par son environnement et les autres. Un choix peut tout changer dans une vie.



Enfin, on a encore un peu de sursis étant donné qu’il faut la technologie quantique pour qu’une machine puisse parvenir à réfléchir comme un humain.

&nbsp;

Tant que l’homme continuera dans sa lancée actuelle, je pense que l’IA ne doit pas exister.








XMalek a écrit :



Merde je suis un grand sataniste sans même le savoir… ben ouais j’ai fait pleins d’ia dans les jeux vidéos O_o







Au bûcher !! <img data-src=" />



<img data-src=" />



En effet, toutes les IA existantes ne sont que des scripts ou ensembles de scripts qui réagissent en fonction des variable.



Une vraie IA (comme dit dans les précédents commentaires) est un programme capable de générer son propre code créer aléatoirement ( il est important le aléatoire) et de choisir ce bon code avec les variables pour s’adapter à la situation =&gt; avoir un raisonnement.



On en est loin mais cependant on est quand même sur le chemin avec les ordinateurs quantiques.



Il a raison d’avoir peur car quand cette IA sera opérationnelle comme elle nous percevra. L’Homme sera-t-il vu comme un semblable intelligent ou un être ne participant pas à l’évolution de cette nouvelle espèce?



Même les êtres vivants d’intelligences dit peu évoluer peut avoir un comportement complètement diffèrent de ça “destiné” lié ADN qui participe à l’évolution.



Donc en Gros avec un IA , il est et sera impossible de connaître son degrés d’envie destruction face ( effet de gourpes ou non) à des être vivant même avec des verrous programmés (cf: “irobot” ou voir nous même avec le bien et le mal).



&nbsp;


C’est une peur ancrée au plus profond de l’humanité, le mythe du Golem, de Frankenstein et même terminator.



Les robots d’Asimov ne sont pas gentils, ils sont contraints et la plupart d’entre eux arrivent à contourner les règles qui sont censées les lier. Ils ne sont d’ailleurs ni meilleurs ni pires que l’homme. Certains sont près au génocide d’autres ne souhaitent que la liberté.



Le véritable problème de conception c’est que l’intelligence, la vrai, celle créative, nécessite le libre arbitre et la contrainte librement choisie. Donc pour créer une véritable intelligence il ne faudrait pas la contraindre.



En sens contraire, désormais les IA, aux capacités très limitées, que nous programmons prennent elles mêmes les décisions de tir dans les systèmes militaires. Elles sont conçues pour tuer et ne respectent donc pas la première règle d’Asimov.&nbsp; Que va t’il se passer si elles deviennent de plus en plus capables? Et à partir de quel moment un pays décidera de confier l’intégralité de la décision militaire et de la gestion des conflits à une machine évoluée? Si cela donne un avantage stratégique aucun état n’hésitera.



Finalement le plus terrible ce ne sera pas une intelligence créatrice qui pourrait avoir conscience et sentiments, le plus terrible ce serait une intelligence non accomplie, proche de celle de l’homme à ses débuts, sans conscience, capable de génocider un peuple pour un simple bit de donnée incompatible à la réalisation de son programme.


Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.


De la part d’un Business Man très porté sur la High Tech, son discours me fait quand même penser fortement à :

&nbsp;”- Houlà, faites pas ça, c’est mal !… (c’est vrai quoi, faudrait pas qu’un concurrent sorte une IA avant mes propres équipes de R&D, sinon comment je vais rentabiliser mes investissements?!)”



&nbsp;








gokudomatic a écrit :



On a pourtant dépassé l’étape zéro, notamment avec la logique floue.



Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.







La grande différence entre ce genre d’IA, et le cerveau, c’est la capacité d’apprentissage.



tant qu’une voiture automatique n’apprendra pas de ses erreurs, ne sera pas capable de réagir de façon autonome à un cas inattendu (un policier qui fait signe de s’arrêter, un faux policier qui fait signe de s’arrêter, faire demi-tour quand un tsunami arrive&nbsp;etc), on sera loin d’une intelligence …









von-block a écrit :



Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.





Pour ce qui me vient à l’esprit : Blade Runner, Ghost in the shell, Summer Wars, Metropolis



Encore un qui a regardé le film (daubesque) Transcendance et qui ne partage pas les rêves de transhumanisme informatique de Google and Co.








candriant a écrit :



En effet, toutes les IA existantes ne sont que des scripts ou ensembles de scripts qui réagissent en fonction des variable.



Une vraie IA (comme dit dans les précédents commentaires) est un programme capable de générer son propre code créer aléatoirement ( il est important le aléatoire) et de choisir ce bon code avec les variables pour s’adapter à la situation =&gt; avoir un raisonnement.



On en est loin mais cependant on est quand même sur le chemin avec les ordinateurs quantiques.



&nbsp;





On n’en est pas loin du tout : ça existe déjà ! C’est le principe des “codes mutants” : le programme s’auto-modifie pour améliorer ses résultats. Le principe des réseaux de neurones permet également l’apprentissage, sans pour autant modifier le code (juste des pondérations, des variables). Un exemple assez bluffant de réseau de neurones :http://fr.akinator.com



OK on est très loin d’une vraie intelligence qui serait capable de passer le test de Turing et tout ça, mais les principes mathématiques et informatiques sont déjà là.



En lisant beaucoup de commentaires précédents j’ai l’impression que les craintes de E. Musk sont mal comprises:



Pour moi, ce ne sont pas les IA telles qu’on les conçoit actuellement qui lui font peur, mais celles que l’ont pourraient concevoir à l’avenir, ie une IA totalement autonome capable de se développer et d’apprendre seule de façon plus efficace qu’un cerveau humain, on en est relativement loin encore mais ça peut aller très vite, et je rejoins l’opinion du Monsieur.



Par ailleurs, pour répondre à tous ceux qui “rient” de sa comparaison avec la bombe atomique, ou qui font des parallèles avec des technologies neutres par essence mais utilisées parfois à mauvais escient par l’homme, je me permets d’avancer qu’une véritable IA plus performante qu’un cerveau humain (en terme non seulement de calcul -ça on sait déjà- mais surtout de raisonnement -on en est loin à priori-) est bien au delà d’une technologie neutre. En effet, elle serait autonome, dotée de conscience et de son libre arbitre, c’est bien différent d’un pesticide détourné en arme chimique ou de la fission nucléaire utilisée pour faire des bombes.



J’ai lu des références à Hypérion dans les commentaires précédents, je le recommande chaudement à tout le monde! Sans oublier les suites, La chute d’Hypérion, Endymion et l’éveil d’Endymion.


Il ne faut pas se voiler la face : du couteau à la bombe H, toutes les inventions humaines ayant un pouvoir de destruction ont toujours fini par être utilisées à mauvais escient.



Et s’il y a bien quelque chose que l’Histoire nous apprend, c’est que l’humain est incapable d’apprendre de ses erreurs.








gokudomatic a écrit :



On a pourtant dépassé l’étape zéro, notamment avec la logique floue.



Edit: de toutes façons, tant qu’on ne comprend pas notre propre cerveau, on se dira que ce n’est qu’une illusion. Mais s’il se révèle que le cerveau n’est qu’une autre mécanique qui est simplement organique, et que notre comportement, voir notre conscience, est en fait aussi prédictible qu’un programme, alors ce ne sera plus une illusion.





Serieusement, on comprend déjà assez le cerveau pour savoir qu’un script est une illusion d’intelligence&nbsp;<img data-src=" />

Après à partir du moment où on a un code “évolutif”, qui suite à une phase d’apprentissage donnera une réponse différente à une même situation, de mon point de vue, on ne sera plus dans l’illusion …&nbsp;



et ça, ça existe déjà&nbsp;









atomusk a écrit :



Clairement le “pilotage automatique” s’apparente plus à un ensemble de scripts qu’à une “intelligence”&nbsp;<img data-src=" />



Si distance voiture verifier possibilité de dépassement, sinon freiner …



on est TRES loin de ce dont il parle là&nbsp;<img data-src=" />







A terme la voiture devra “choisir” si elle doit s’arrêter ou non devant un piéton qui traverse, out tout autre action qui peut entraîner la mort, si par exemple elle choisi d’écraser un piéton pour sauver le passager ça va poser exactement le genre de problèmes que Musk craint.



Nos actions et choix intelligent sont juste déterminer par des liaisons de neurone construite sur nos expériences passé, pas si éloigné du principe d’un scripte.



Apres il va effectivement plus loin en parlent d’IA totalement autonome qui peuvent se modifier etc.. mais la c’est vraiment de la SF, les enjeu sont difficilement prévisible a notre époque.&nbsp;



N’oublions pas le hardware et l’interfaçage, facteurs tout aussi limitant pour l’emprise sur le monde matériel. L’uranium ne va pas se miner tout seul.



&nbsp;

Sans aller trop loin dans la science-fiction, nous sommes tout de même à l’aube d’observer quelques effets sur notre vie de tous les jours: le secteur bancaire et financier, avec les programmes d’évaluation des risques, le monde militaire et ses drones et outils de décision stratégique, la médecine et l’aide au diagnostic…








Nnexxus a écrit :



OK on est très loin d’une vraie intelligence qui serait capable de passer le test de Turing et tout ça, mais les principes mathématiques et informatiques sont déjà là.





Selon certains, Watson d’ IBM est largement en mesure de passer le test de Turing.



Une équipe d’ ingénieurs est d’ ailleurs en train de le préparer (ils espèrent réussir d’ ici 2021) à passer les test d’ entrée à l’ université de Tokyo …

&nbsp;



<img data-src=" />







SuperMot a écrit :



A terme la voiture devra “choisir” si elle doit s’arrêter ou non devant un piéton qui traverse, out tout autre action qui peut entraîner la mort, si par exemple elle choisi d’écraser un piéton pour sauver le passager ça va poser exactement le genre de problèmes que Musk craint.



Nos actions et choix intelligent sont juste déterminer par des liaisons de neurone construite sur nos expériences passé, pas si éloigné du principe d’un scripte.



Apres il va effectivement plus loin en parlent d’IA totalement autonome qui peuvent se modifier etc.. mais la c’est vraiment de la SF, les enjeu sont difficilement prévisible a notre époque.&nbsp;





A terme, la voiture fera comme partout : du “best effort”.&nbsp;



Elle essayera de freiner au mieux de ses capacités, essayera de l’éviter au mieux de ses capacités préparera les passagers pour l’impact et si accident il y a, c’est qu’il n’y avait pas de solution.&nbsp;



La voiture n’ira pas dire : ah il est tout seul sur le passage pieton, et j’ai 4 passagers ? ok c’est cool je l’écrase sans ralentir &nbsp;j’ai la priorité&nbsp;<img data-src=" />



L’idée que quelqu’un pourrait imaginer un algo qui irait caluler le moins pire des accidents, et irait “potentiellement” tuer le conducteur pour ne pas toucher un bus de petits enfants , mais se comporterait différemment si il n’y a pas d’enfant dans le bus, est “de mon point de vue” complètement débile&nbsp;<img data-src=" />



La voiture essayera au mieux d’éviter les accidents, si c’est pas possible elle se débrouillera pour que l’accident soit le moins brutal possible, mais ne détranchera pas un autre accident pour l’éviter.









Matsod a écrit :



En lisant beaucoup de commentaires précédents j‘ai l’impression que les craintes de E. Musk sont mal comprises:



Pour moi, ce ne sont pas les IA telles qu‘on les conçoit actuellement qui lui font peur, mais celles que l’ont pourraient concevoir à l‘avenir, ie une IA totalement autonome capable de se développer et d’apprendre seule de façon plus efficace qu‘un cerveau humain, on en est relativement loin encore mais ça peut aller très vite, et je rejoins l’opinion du Monsieur.



Par ailleurs, pour répondre à tous ceux qui &quot;rient&quot; de sa comparaison avec la bombe atomique, ou qui font des parallèles avec des technologies neutres par essence mais utilisées parfois à mauvais escient par l‘homme, je me permets d’avancer qu‘une véritable IA plus performante qu’un cerveau humain (en terme non seulement de calcul -ça on sait déjà- mais surtout de raisonnement -on en est loin à priori-) est bien au delà d‘une technologie neutre. En effet, elle serait autonome, dotée de conscience et de son libre arbitre, c’est bien différent d‘un pesticide détourné en arme chimique ou de la fission nucléaire utilisée pour faire des bombes.



J’ai lu des références à Hypérion dans les commentaires précédents, je le recommande chaudement à tout le monde! Sans oublier les suites, La chute d‘Hypérion, Endymion et l’éveil d‘Endymion.









ça reste à prouver que l’homme est capable de créer une intelligence supérieure à la sienne je pense (et donc potentiellement réellement dangereuse). Vaste sujet <img data-src=" />



&nbsp;&nbsp;“nous sommes plus intelligents que les gorilles, dont la survie dépend essentiellement de l’homme et de son cerveau plus évolué”



&nbsp;Ca sent un peu des pieds&nbsp;cette analogie…La survie du&nbsp;gorille dépend de l’Homme parce que l’Homme a fait n’importe quoi&nbsp;avec la nature, on ne fait que réparer des erreurs en classant des espèces “protégées” etc.Ou alors j’ai pas compris et donc je suis un gorille &nbsp;


Merci, je n’en avais écouté aucun.








Jean_Peuplus a écrit :



ça reste à prouver que l’homme est capable de créer une intelligence supérieure à la sienne je pense (et donc potentiellement réellement dangereuse). Vaste sujet <img data-src=" />







Vu comment l’homme comprend sa propre intelligence, la probabilité de créer une intelligence supérieure à la sienne me semble strictement supérieure à la probabilité d’en créer une équivalente. Ou bien les deux sont nulles.



Leynas.



Au pire, on implémentera dans la voiture le délit de fuite. Comme ça, le choix à prendre juste avant l’accident sera moins important et pourra être plus simple.&nbsp;<img data-src=" />


D’accord avec toi ^^

Mais elle est bien là la vraie question :p


“Musk semble pour l’instant plus proche du&nbsp;jihad butlérien&nbsp;de Frank Herbert (Dune) que des gens robots d’Isaac Asimov et de leurs&nbsp;trois lois fondamentales.”



&nbsp;Sur les lois fondamentales de Asimov, il ne faut pas oublier que dans certains ouvrages, lesdites lois sont contournées, et que des robots arrivent même à s’en détacher naturellement (voir les robots de l’aube; voir aussi dans le cycle des robots, des histoires mettant en avant la capacité d’un robot à devenir président…). Bref, Asimov a peut être posé ces trois lois, mais lui aussi appréhendait ces éléments avec circonspection.&nbsp;



Ce qui est intéressant avec ces propos d’Elon Musk, c’est qu’il y a une vraie prise de distance sur ce qui fait son environnement immédiat, une prise de conscience claire et réfléchie qu’on ne retrouve pas forcément chez tous ceux qui dans le secteur de la high-terh tendent à verser dans un optimisme béat vis à vis des technos, sans réfléchir à leurs implications philosophiques sur la nature et la structure de la société, sur les individus, etc.


Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?








gokudomatic a écrit :



Au pire, on implémentera dans la voiture le délit de fuite. Comme ça, le choix à prendre juste avant l’accident sera moins important et pourra être plus simple.&nbsp;<img data-src=" />







J’imagine le popup :

Voulez vous tuer des enfants ?&nbsp;



[défaut] Oui : Fuck les enfants , par contre masque la plaque que et fonce après

Non : Je veux mourrir

&nbsp;

Vous avez 20ms pour répondre



Ce que je dis, c’est que l’être humain ne comprend pas suffisamment sa propre intelligence pour en reproduire une équivalente. Donc qu’il a plus de risques de créer, même involontairement, un système plus intelligent que lui.



Mais cela ne revient pas à dire que tout système complexe peut créer un autre système plus complexe.



Leynas.








gokudomatic a écrit :



Es-tu en train de dire qu’un système complexe peut créer un autre système qui soit plus complexe que l’original?





C’est le principe même d’un algorithme d’optimisation (qu’il faut certes guider par une intelligence humaine… pour le moment).



Des algos qui concoivent des avions, ça existe… j’irais même jusqu’à dire que des avions conçus sans algorithme d’optimisation, ça n’existe presque plus… Avec, encore une fois, le bémol que c’est un ingénieur humain qui formalise le problème à destination de l’algo (mais ensuite c’est bien l’algo qui choisit tout seul la meilleure solution).



&nbsp;



Le plus aboutit je pense en terme d’ IA est Watson d’ IBM.



Non seulement il est capable de croiser et puiser dans l’ énorme base de données que représente le net mais il est aussi capable d’ affiner ses recherches pour progresser et surtout, capable de comprendre le langage humain mais surtout d’ y répondre.



Tenir une conversation (question/reponse) est une chose mais il lui reste quand même le plus difficile à programmer pour le rendre réellement non pas intelligent (il l’ est déjà) mais “humain”: la conscience réelle de soi et donc, l’ instinct de survie.



Le jour où cette étape est franchie on aura effectivement du souci à se faire mais d’ ici là, pas de quoi avoir peur.


Ah… ces américains et leur manie de tout ramener à la prière, a Dieu et au Mal.








bombo a écrit :



De toute façon, plus ou moins tout est très loin de ce dont il parle là :-p

Je crois qu’il est un peu trop enfermé dans son univers de scifi, un peu inquiétant venant de la part de ce qu’il semble être est un des grands patrons de l’univers des technologies de pointes…







Tout à fait d’accord, Elon Musk devrait vraiment arrêter de lire des livres de SF et s’interesser un peu plus à l’économie. Ou bien, il faut qu’il se consacre uniquement à la recherche et laisse de coté ses ambitions de pdg et d’industriel. Ce qui serait dommage car sur certains points Elon Musk a de trés bonnes idées.



C’est bien joli d’avoir de l’ambition et de viser le très très long terme (genre dans 50 ou 100 ans), mais il faut aussi savoir rester réaliste et en adéquation avec la réalité économique et technique actuelle.



CE qui n’est par exemple pas du tout le cas du projet Hyperloop, qui non content d’être assez irréaliste d’un point de vue technique; démontre clairement que l’aspecté économique est complètement ignoré. Je doit avouer avoir bien ri lorsque la construction d’un tel bazar a été présentée comme 10 fois moins chère qu’une ligne de train à grande vitesse. Si il est quasiment impossible d’eva&luer le cout d’une technologie qui n’existe même pas sur papier, je pense qu’un tube parfaitement étanche de 1000km de long coûtera bien plus cher que des rails métalliques à l’air libre.



D’ailleurs, il n’est pas dit que cette sortie sur l’IA soit très bien vue par les actionnaires de Tesla ou de spacex, la bourse et la finance ne sont pas vraiment des milieux ou les rêveurs sont bienvenus









lionnel a écrit :



Tout à fait d’accord, Elon Musk devrait vraiment arrêter de lire des livres de SF et s’interesser un peu plus à l’économie. Ou bien, il faut qu’il se consacre uniquement à la recherche et laisse de coté ses ambitions de pdg et d’industriel. Ce qui serait dommage car sur certains points Elon Musk a de trés bonnes idées.



C’est bien joli d’avoir de l’ambition et de viser le très très long terme (genre dans 50 ou 100 ans), mais il faut aussi savoir rester réaliste et en adéquation avec la réalité économique et technique actuelle.



CE qui n’est par exemple pas du tout le cas du projet Hyperloop, qui non content d’être assez irréaliste d’un point de vue technique; démontre clairement que l’aspecté économique est complètement ignoré. Je doit avouer avoir bien ri lorsque la construction d’un tel bazar a été présentée comme 10 fois moins chère qu’une ligne de train à grande vitesse. Si il est quasiment impossible d’eva&luer le cout d’une technologie qui n’existe même pas sur papier, je pense qu’un tube parfaitement étanche de 1000km de long coûtera bien plus cher que des rails métalliques à l’air libre.



D’ailleurs, il n’est pas dit que cette sortie sur l’IA soit très bien vue par les actionnaires de Tesla ou de spacex, la bourse et la finance ne sont pas vraiment des milieux ou les rêveurs sont bienvenus





Il doit quand même avoir “relativement les pieds sur terre” pour avoir &nbsp;déjà accompli tout ça… J’imagine qu’il n’est pas vraiment un néophyte des milieux financiers et industriels… M’enfin ça n’engage que moi.









x689thanatos a écrit :



«&nbsp;Nous devons faire particulièrement attention avec l’intelligence

artificielle. Elle est potentiellement plus dangereuse que les bombes

atomiques&nbsp;».

&nbsp;<img data-src=" />&nbsp; Le probleme est pourtant le même.







Ce n’est pas l’intelligence artificielle en elle même qui peut poser probleme mais les humains qui sont derrière.




Vu comment de nombreuses choses sont détournées, pourtant basées sur de bonnes intentions, vers du militaire, espionnage, intérêts personnels, publicitaires,...      



Et parfois avec des résultats catastrophique.




Apres au dela de ces dérives. Cela reste de l'informatique. Donc soumis aux même risques qu’un ordinateur (failles, détournement de l’usage, ...).      






Bref, le gros probleme ce n'est pas intelligence artificielle mais les humains qui le programment ou peuvent modifier son comportement.







Pas spécialement.

&nbsp;

La question devrait être plutôt si l’humain peut-il maitriser parfaitement le processus de conception de l’IA…

Après tout, l’homme comprend-t-il suffisamment ce qu’est l’intelligence, la conscience pour savoir créer une IA selon sa volonté à partir d’une vision biaisée et d’idées préconçues ?

De plus, on tend à vouloir créer une IA afin de reproduire une intelligence humaine. Cependant, une machine n’étant pas par sa nature humaine, n’est-ce pas une erreur ?

Et qu’en est-il de l’éthique, de la morale, de l’éducation et donc des comportements, des choix ? La machine intelligente sera-t-elle éclairée ?



tous ceux qui parlent de test de turing pour valider une IA sont à coté de la plaque.



Le test de turing n’est pas là pour montrer qu’on a affaire à une IA, il est là pour valider si l’appareil qui passe le test donne l’illusion de l’intelligence.

Aujourd’hui, tous ceux qui concoivent des IA sont des prestidigitateurs.

&nbsp;

Et dans IA, il y a le I . et pour ce I, on en est aussi loin que le prestidigitateur est loin de la magie ( la “vraie” magie hein, celle des bouquins de fantasy.. )


Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.



Leynas.








Nnexxus a écrit :



On n’en est pas loin du tout : ça existe déjà ! C’est le principe des “codes mutants” : le programme s’auto-modifie pour améliorer ses résultats. Le principe des réseaux de neurones permet également l’apprentissage, sans pour autant modifier le code (juste des pondérations, des variables). Un exemple assez bluffant de réseau de neurones :http://fr.akinator.com



OK on est très loin d’une vraie intelligence qui serait capable de passer le test de Turing et tout ça, mais les principes mathématiques et informatiques sont déjà là.





Le réseau de neurones (au passage est bien vieux) peut être bluffant mais il est limité (cf: wiki) . Pour les codes mutants , c’est pareil (c’est pas tout jeune) ,c’est limité (cf: wiki).



&nbsp;



Du côté de Herbert, je loucherai plutôt chez “Destination vide” pour la conception d’une IA








von-block a écrit :



Un peu hors sujet mais personne n’aurait de bon films à me conseiller sur la problématique d’un AI mal géré….dont c’est l’élément centrale du film.



Autre que terminatior, matrix et irobot.





2001, A Space Odyssey

Wargames

Blade Runner

Ghost in the Shell

Robocop



La série&nbsp;Battlestar Gallactica

Black Mirror, Saison 2 Épisode 1

La série Real Humans/Akta Manniskor

Les 2 épisodes «Seconde Renaissance» d’Animatrix (je sais que c’est Matrix mais ça parle précisément de cet élément)









Leynas a écrit :



Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.



Leynas.





A force de parler de droits des femmes à l’ONU, en effet. On peut conclure que Watson n’est pas intelligent. <img data-src=" />



Au fait, on parle toujours des machines au masculin… Mais en fait, question essentielle : c’est quel sexe/genre ?&nbsp;<img data-src=" />









Ph11 a écrit :



Et qu’en est-il de l’éthique, de la morale, de l’éducation et donc des comportements, des choix ? La machine intelligente sera-t-elle éclairée ?





Comme les premiers concepteurs de l’IA vont chercher à la rentabiliser, et comme l’économie moderne (le capitalisme) n’en à rien à carrer de la condition humaine on sais très bien qu’on peut se les foutre au cul ces “réflexions de bas étage de gauchiste”.









Ph11 a écrit :



Au fait, on parle toujours des machines au masculin… Mais en fait, question essentielle : c’est quel sexe/genre ? <img data-src=" />





Herma, puisque l’on y trouve des prises mâle et des prises femelle.<img data-src=" />









SuperMot a écrit :



Apres il va effectivement plus loin en parlent d’IA totalement autonome qui peuvent se modifier etc.. mais la c’est vraiment de la SF, les enjeu sont difficilement prévisible a notre époque.&nbsp;





C’est partiellement de la science-fiction parce qu’il y a des travaux en R&D qui vont dans ce sens. Cependant vaut mieux poser le débat dès maintenant pendant qu’on est au prémice des travaux sur l’IA que de se réveiller un jour avec une IA incontrôlable en train de déclencher des catastrophes partout dans le monde parce que le sujet n’aura pas été débattu en amont pour éviter ce genre de problème.



On parle d’une technologie qui est capable de potentiellement rayer toute forme de vie sur Terre, ce serait bien de commencer à discuter sur les limites que doivent avoir les IA (limite sur la quantité de code qui peut être réécrit (mais tout en protégeant certaines fonctions clés pour justement éviter de réécrire ces parties) ? Des fonctions de bases écrites sur de la mémoire non écrivable (comme une variante des lois d’Asimov) ? Etc…



En plus des ouvrages qui traitent du sujet, le dernier épisode de Person of Interest montrent bien les problématiques liés à l’IA (de manière très légère mais c’est une bonne image rapide pour le grand public).



La problématique est aussi traité de manière assez sympa (bien que de manière assez légère également) dans la licence Mass Effect entre les IA et les IV (Intelligence Virtuelle), où cette dernière serait peut-être plus proche de ce que devrait faire l’Homme (mais cela existe déjà plus ou moins à l’heure actuelle), c’est à dire à se limiter à ce niveau de technologie et interdire, peut-être, la création d’IA tout simplement (car c’est une technologie que l’Homme a de grandes “chances” de ne pas pouvoir contrôler au final).



En plus de ce qui a déjà été donné, il y a “l’oeil du mal” avec Shia Laboeuf il me semble (après est-ce un bon film? <img data-src=" /> )








Leynas a écrit :



Watson n’est pas déjà intelligent, non (sinon il serait nommé Sherlock… #chapeau). L’intelligence c’est quand même un peu plus que de déchiffrer un langage et répondre à des questions en fouillant une base de données. Bon par exemple, rien ne prouve qu’il comprend ce qu’on peut lui dire, même s’il reconnaît la structure d’une phrase.



Leynas.





Watson est capable de faire plus que répondre à un phrase en analysant sa structure puis en y répondant à travers sa base donnée.



Il est capable de réunir par exemple plusieurs documents pour en faire un résumé concis (ce qui va au delà du simple fait de compiler des données mais bien, de savoir faire un tri dans ceux ci pour n’ en retenir que les plus pertinents et de les mixer pour en faire un texte humainement lisible et compréhensible).



Watson est aussi capable à partir de données d’ en tirer des conclusions.

Sa démonstration et son aide dans le diagnostic médical est pour le moins bluffant (même quand on y glisse des paramètres volontairement faussés pour l’ induire en erreur).

Il synthétise des données en les comparant de la manière la plus pertinente puis en y faisant un choix et un diagnostic (et donc une solution).

A ce jeu, il est aussi fort et fait jeu égal avec les meilleures spécialistes humains.



Si Watson réussit le pari de réussir l’ examen d’ entrée de l’ Université de Tokyo portant sur 5 matières (mathématiques, sciences physiques/biologie, sciences humaines, langue japonaise et langue étrangère) à travers des épreuves écrites et orales en même temps que les candidats humains ont pourra quand même dire que les avancées d’ IBM en la matière s’ affine de plus en plus.



De la mathématique pure pour battre un champion d’ échec puis, la compréhension du langage humain pour gagner à Jeopardy, vient maintenant un mix des deux pour rentrer en concurrence avec des êtres humains sur un test d’ aptitude à suivre des cours dans une université prestigieuse.



On est certe loin de ce que certain appelle une IA mais en moins de 20 ans les travaux d’ IBM ont fait des progrès immense là où, auparavant on imaginait même pas arriver au centième des résultats actuels.









maestro321 a écrit :



Comme les premiers concepteurs de l’IA vont chercher à la rentabiliser, et comme l’économie moderne (le capitalisme) n’en à rien à carrer de la condition humaine on sais très bien qu’on peut se les foutre au cul ces “réflexions de bas étage de gauchiste”.





C’est pas ce que j’ai dit.

&nbsp;

Je demande simplement si, en plus d’une IA, on peut créer cela et si les scientifiques, pouvant être de sacrés ignares de la métaphysique ou des sciences humaines ou tout simplement les mépriser, s’en soucient seulement ou croient que l’intelligence suffira à elle seule pour créer une personne…



IA revient a&nbsp;créer&nbsp;le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme



L’home est le&nbsp;démon&nbsp;de la vie, l’intelligence est l’outil de la destruction



Nous vivons car nous tuons, prendre la vie pour se&nbsp;nourrir,&nbsp;réduire&nbsp;la vie&nbsp;d’autrui&nbsp;pour augmenter la notre



Telle est la vie, une cruauté, un virus








Naneday a écrit :



IA revient a&nbsp;créer&nbsp;le sentiment, l’a haine, le mensonge, la manipulation, tout ce qu’est l’homme



L’home est le&nbsp;démon&nbsp;de la vie, l’intelligence est l’outil de la destruction



Nous vivons car nous tuons, prendre la vie pour se&nbsp;nourrir,&nbsp;réduire&nbsp;la vie&nbsp;d’autrui&nbsp;pour augmenter la notre



Telle est la vie, une cruauté, un virus





<img data-src=" />



J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. <img data-src=" />

&nbsp;Quelqun à un avis sur les livres du fiston?


Déjà il faut faire la différence entre une IA faible et une IA forte.



Une IA faible, on en a déjà des tas aujourd’hui, que ce soit dans la finance ou dans les Google cars. C’est limité à un usage spécifique. Toute IA conçue dans un but guerrier (par exemple), et aussi efficace ou puissante soit-elle sera une IA faible et ne restera au final qu’un tas d’algorithmes connus.



L’article parle manifestement au contraire d’une IA forte, qui elle n’est pas conçue dans un but précis. Elle est à l’image de l’intelligence humaine : capable d’apprendre et de développer une conscience.



J’avais assisté il y a quelque temps à une conférence où un chercheur dans le domaine des IA fortes faisait justement le parallèle avec les trois lois de la robotique. En gros, les IA vers lesquelles on se dirige seraient fondamentalement conçues pour apprendre, et donc récolter et protéger toute forme d’information. Or, chaque être humain est une mine d’information, de connaissance et de culture. Ces trois lois seraient donc respectées dans avoir besoin de les implémenter de manière aussi brute que dans les romans d’Asimov.



Je pense que ce type d’IA ne sera pas plus dangereux que n’importe quel humain : ses décisions dépendront uniquement de la manière dont on l’éduque, le respecte et le considère.


Quelque soit l’intelligence, elle prend pour repères son milieu, son entourage, les enseignements reçus enseignement et/ou son vécu.

&nbsp;

J’ai cherché ce qui pourrait coller à l’image que tu décirs.

On peut retrouver cela dans certaines espèces animales à même de se débrouiller par elles mêmes dés leur naissance (sans apprentissage préalable), ce n’est pas de l’intelligence mais un réflexe instinctif.

Néanmoins, ce reflexe est codé dans leur genes. Pour une IA, cela revient tout de meme à une intervention humaine pour lui donner une base (utiliser son corps, être à même d’apprendre et de tirer des leçons).



Une ia assise mais vide (avec 0 information) ne sera pas autre chose qu’une poupée posée sur une chaise.

Il faut un minimum afin qu’elle puisse déjà maitriser son corps et être à même d’évoluer/d’apprendre.

L’image la plus parlante (et triste), les lobotomisés dont le coté cognitif à été endommagé (volontairement ou non).



&nbsp;

Déjà avant d’en arriver la (à mon avis) il y à encore une sacrée marge.

De plus, (sans théorie du complot), je doute que dans le domaine publique ce genre d’IA puisse voir le jour sans un encadrement très stricte (ce qui ne sera pas forcement le cas en militaire mais vu l’usage).





Apres évidemment, ça reste un avis personnel.








sebcap26 a écrit :



Déjà il faut faire la différence entre une IA faible et une IA forte.



Une IA faible, on en a déjà des tas aujourd’hui, que ce soit dans la finance ou dans les Google cars. C’est limité à un usage spécifique. Toute IA conçue dans un but guerrier (par exemple), et aussi efficace ou puissante soit-elle sera une IA faible et ne restera au final qu’un tas d’algorithmes connus.





Tout à fait.&nbsp;<img data-src=" />

D’ailleurs, on peut observer sur certains MMO (wow,lol…) des troupeaux entiers d’IA faibles.









jedipc a écrit :



J’ai jamais osé lire les prequels à Dune. trop peur d’être déçu. <img data-src=" />

&nbsp;Quelqun à un avis sur les livres du fiston?





Je pense perso que toute la saga écrite par le père: Dune, Le Messie de Dune, Les Enfants de Dune, L’Empereur-Dieu de Dune, Les Hérétiques de Dune, La Maison des mères suffit largement.



Un prequel de Franck Herbert existe: “Et l’ homme créa un Dieu”.



Je préfère franchement lire une autre saga originale comme celle du Cycle Ender par exemple de Orson Scott Card plutôt que de lire des rajouts post mortem d’ autres écrivains à des sagas que leurs auteurs estimaient clôturées ou, que le temps et les aléas de la vie ont laissés orphelines.



S’il veut de l’IA sans risque, il n’a qu’à s’adresser à EA Sports. Ils sont spécialisés dans l’IA sans I.


Nous sommes les enfants de David. Jamais nous ne mourrons. Nous dominerons cette terre.

<img data-src=" />


Le 27/10/2014 à 12h16