Le CNRS fait le point sur la robotique et l'intelligence artificielle

Le CNRS fait le point sur la robotique et l’intelligence artificielle

Le CNRS fait le point sur la robotique et l'intelligence artificielle

« Les robots sont-ils ou seront-ils capables de nous remplacer ? Pour quelles tâches ? L’intelligence artificielle va-t-elle dépasser l’intelligence humaine ? » Jean-Paul Laumond, directeur de recherche au CNRS, apporte quelques éléments de réponses à ces vastes questions.

Le chercheur part d'abord d'un constat général : « Nous sommes conscients que ces logiciels ne sont pas parfaitement fiables et nous nous en accommodons car finalement ils ne marchent pas si mal et leurs erreurs ne prêtent pas à conséquence ». Néanmoins, les conséquences peuvent être bien différentes sur d'autres systèmes.

« Confondre une autruche et tante Adèle n’a pas le même niveau de gravité que confondre sur une radiographie du sein des microcalcifications et des tumeurs naissantes. C’est au médecin qu’il revient, in fine, d’établir le diagnostic et d’en endosser la responsabilité ».

Même problématique dans la robotique : « La moindre erreur de logiciel peut conduire un robot humanoïde à chuter [...] Les algorithmes, les logiciels qui en résultent et les informations qui découlent du calcul doivent être certifiés. C’est tout le défi de la robotique que de rendre compte du monde physique sous cet impératif ».

Au final, l'Homme « s’accommode bien dans la pratique des limitations de ces technologies logicielles. On ne cherche pas des logiciels fiables à coup sûr. Il suffit qu’ils soient corrects la plupart du temps »… mais ce n'est pas le cas dans bien d'autres domaines. 

Bref, « les progrès en robotique sont plus lents qu’il n’y paraît ». 

Commentaires (12)


C’est surtout les “journalistes” et les “tech” (startup de technologie) qui abusent du mot “intelligence artificiel”. Les algo qui sont utilisé découle très souvent de formule mathématique et de tests empiriques, il n’y a rien d’intelligent, ni d’artificiel.

La marche du Roméo de chez Aldebaran ne sera dévoilé au public que lorsque le robot ne tombera pas parce que y’a un peu vent car si le public va un robot de 250kg, 1,40m tombé, ça pourrait faire peur.


Perso je ne vois pas de différence entre une autruche et tante Adèle, donc je n’en veux pas au programme s’il a le même résultat que moi.


Les êtres humains aussi tombent, pourquoi la machine serait plus parfaite que nous ? 

C’est comme la conduite autonome, oui il y aura des morts mais si ils sont moins nombreux que lorsque que ce sont des humains qui conduisent, est ce que cela ne serait pas déjà un progrès ?


<Insérer un commentaire sur l’usage d’outils formels en info ici>










LeJuge a écrit :



Les êtres humains aussi tombent, pourquoi la machine serait plus parfaite que nous ?





Parce qu’elle remplace un être humain. Si elle ne fait pas mieux que lui (et je ne vais pas jusqu’à l’infaillibilité, hein), c’est un juste un remplacement pour gagner du fric et ça ne passerait probablement pas auprès de la société.







LeJuge a écrit :



C’est comme la conduite autonome, oui il y aura des morts mais si ils sont moins nombreux que lorsque que ce sont des humains qui conduisent, est ce que cela ne serait pas déjà un progrès ?





Et c’est ce que dit Jean-Paul Laumond : si tu lâche dans la nature un système autonome (quel que soit le degré d’autonomie, en fait), tu dois pouvoir prouver que ce qui le dirige tient la route.



Comme pour la voiture autonome, la vraie question à la fin c’est sur qui on tape quand il y a une couille dans le potage… (en terme plus juridique : comment faire évoluer le droit de la responsabilité)



Voilà, autant on tolère de mourir par notre propre faute (on assume, quoi), autant mourir à cause d’une machine ou d’un programme, c’est très loin d’être accepté. Quand bien même la machine ferait 1000 fois moins d’accidents mortels que l’humain, on se retrouverait toujours à dire “oui mais dans cet accident, un humain aurait pu s’en sortir s’il avait gardé la main”. Personne n’accepte d’être celui qui meurt, même si c’est pour en sauver 1000 : ça n’arrive que dans les films américains :-)


La principale différence avec l’humain, c’est que nous pouvons rendre la machine quasi-infaillible, pas l’humain, notamment avec des process de vérification/confirmation/redondance multiple qui peuvent se faire en temps réel.



Cette distinction permet d’exiger la perfection pour une machine, là où nous ne le faisons pas pour l’humain.


Au contraire, les machines savent uniquement faire ce qu’on leur apprend, elles gèrent mal tout ce qui sort du process normal. Les machines restent gouvernées par des algorithmes conçus par des humains.

Aussi, pour prendre le cas de l’automobile, il s’agit d’un environnement très difficile, où non seulement les divers capteurs peuvent mal accomplir leur tâche (ex: une canette confondue avec un camion à cause du reflet du soleil, qui a forcé un autopilote à freiner sur une voie rapide), voir à mal fonctionner (défaut ou usure, même doublé parfois ça ne suffit pas) ou même rendre l’âme.

On fantasme beaucoup sur la machine parfaite, mais ça reste de la science fiction.


 La machine parfaite ? Il va falloir sacrement la doper aux hormones :

-Algo random privé sinon ça bluff pas la partie logique active

Et la rendre faillible :

-Temps de latence pour simuler le doute et favoriser le lien social avec des unités calculants moins vite

-Pirouette logique autour de l’algo privé pour simuler personnalité, instinct de survie et éventuellement si il y a assez de place des croyances



On diminuera aussi sa durée de vie pour en vendre plein et comme on ne sait pas combien de temps l’expérience va durer le mieux serait de rendre le corps biodégradable et/ou recyclable.



D’ailleurs ça serait bien que le corps sente mauvais a la fin, il ne faudrait pas qu’ils restent trop statique et qu’ils découvrent trop vite de quoi ils sont fait.





Si on ne fait pas tout ça les investisseur ne suivront pas…une idée pour le nom ?



l’Homme ? <img data-src=" />


Du coup maintenant vous faites du commentaire d’articles publiés par d’autres sites. <img data-src=" />


Ah oui, la fameuse redondance, j’avais oublié, merci pour cette éclaircissement. <img data-src=" /><img data-src=" />








ajangot a écrit :



C’est surtout les “journalistes” et les “tech” (startup de technologie) qui abusent du mot “intelligence artificiel”. Les algo qui sont utilisé découle très souvent de formule mathématique et de tests empiriques, il n’y a rien d’intelligent, ni d’artificiel.

La marche du Roméo de chez Aldebaran ne sera dévoilé au public que lorsque le robot ne tombera pas parce que y’a un peu vent car si le public va un robot de 250kg, 1,40m tombé, ça pourrait faire peur.







Ou que le terme Intelligence Artificiel est juste un terme flou qui n’a, et n’aura jamais de définition. En effet, autant on arrive assez bien à cerner ce qui est “artificiel” (et même là il y a une limite flou) autant définir ce qu’est l’intelligence est purement une question philosophique qui trouve une réponse souvent anthropocentrique.

Le terme Intelligence Artificiel, c’est surtout du marketing. Ca fait rêver, ça fait penser aux robots avec des cerveaux positroniques d’Asimov.







js2082 a écrit :



La principale différence avec l’humain, c’est que nous pouvons rendre la machine quasi-infaillible, pas l’humain, notamment avec des process de vérification/confirmation/redondance multiple qui peuvent se faire en temps réel.



Cette distinction permet d’exiger la perfection pour une machine, là où nous ne le faisons pas pour l’humain.





Pas vraiment infaillible. Les données d’entrées seront toujours incomplètes et avec une variabilité interne ce qui posera toujours un flou dans la décision.



Par exemple, pour un véhicule autonome, on peut estimer les trajectoires possibles d’un piéton et calculé les probabilité de sa position dans les prochaines secondes. Cependant, on n’est pas dans sa tête. Par exemple parce qu’il vient de se rendre compte qu’il a oublié quelque chose, il va soudainement changer de direction et il se trouvera à une position qui était à l’origine très peu probable. Or la décision que le véhicule autonome se base sur les événements les plus probables.



Cependant, oui, pour de nombreuses tâches spécialisé, une machine va pouvoir être plus efficace qu’un humain (modulo le nombre d’exemple et la capacité du modèle dans le cadre d’un apprentissage supervisé).



Fermer