Le CNRS fait le point sur la robotique et l’intelligence artificielle
Le 16 septembre 2019 à 09h37
2 min
Sciences et espace
« Les robots sont-ils ou seront-ils capables de nous remplacer ? Pour quelles tâches ? L’intelligence artificielle va-t-elle dépasser l’intelligence humaine ? » Jean-Paul Laumond, directeur de recherche au CNRS, apporte quelques éléments de réponses à ces vastes questions.
Le chercheur part d'abord d'un constat général : « Nous sommes conscients que ces logiciels ne sont pas parfaitement fiables et nous nous en accommodons car finalement ils ne marchent pas si mal et leurs erreurs ne prêtent pas à conséquence ». Néanmoins, les conséquences peuvent être bien différentes sur d'autres systèmes.
« Confondre une autruche et tante Adèle n’a pas le même niveau de gravité que confondre sur une radiographie du sein des microcalcifications et des tumeurs naissantes. C’est au médecin qu’il revient, in fine, d’établir le diagnostic et d’en endosser la responsabilité ».
Même problématique dans la robotique : « La moindre erreur de logiciel peut conduire un robot humanoïde à chuter [...] Les algorithmes, les logiciels qui en résultent et les informations qui découlent du calcul doivent être certifiés. C’est tout le défi de la robotique que de rendre compte du monde physique sous cet impératif ».
Au final, l'Homme « s’accommode bien dans la pratique des limitations de ces technologies logicielles. On ne cherche pas des logiciels fiables à coup sûr. Il suffit qu’ils soient corrects la plupart du temps »… mais ce n'est pas le cas dans bien d'autres domaines.
Bref, « les progrès en robotique sont plus lents qu’il n’y paraît ».
Le 16 septembre 2019 à 09h37
Commentaires (12)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/09/2019 à 09h07
#1
C’est surtout les “journalistes” et les “tech” (startup de technologie) qui abusent du mot “intelligence artificiel”. Les algo qui sont utilisé découle très souvent de formule mathématique et de tests empiriques, il n’y a rien d’intelligent, ni d’artificiel.
La marche du Roméo de chez Aldebaran ne sera dévoilé au public que lorsque le robot ne tombera pas parce que y’a un peu vent car si le public va un robot de 250kg, 1,40m tombé, ça pourrait faire peur.
Le 16/09/2019 à 09h49
#2
Perso je ne vois pas de différence entre une autruche et tante Adèle, donc je n’en veux pas au programme s’il a le même résultat que moi.
Le 16/09/2019 à 09h53
#3
Les êtres humains aussi tombent, pourquoi la machine serait plus parfaite que nous ?
C’est comme la conduite autonome, oui il y aura des morts mais si ils sont moins nombreux que lorsque que ce sont des humains qui conduisent, est ce que cela ne serait pas déjà un progrès ?
Le 16/09/2019 à 10h00
#4
<Insérer un commentaire sur l’usage d’outils formels en info ici>
Le 16/09/2019 à 10h04
#5
Le 16/09/2019 à 10h17
#6
Voilà, autant on tolère de mourir par notre propre faute (on assume, quoi), autant mourir à cause d’une machine ou d’un programme, c’est très loin d’être accepté. Quand bien même la machine ferait 1000 fois moins d’accidents mortels que l’humain, on se retrouverait toujours à dire “oui mais dans cet accident, un humain aurait pu s’en sortir s’il avait gardé la main”. Personne n’accepte d’être celui qui meurt, même si c’est pour en sauver 1000 : ça n’arrive que dans les films américains :-)
Le 16/09/2019 à 11h26
#7
La principale différence avec l’humain, c’est que nous pouvons rendre la machine quasi-infaillible, pas l’humain, notamment avec des process de vérification/confirmation/redondance multiple qui peuvent se faire en temps réel.
Cette distinction permet d’exiger la perfection pour une machine, là où nous ne le faisons pas pour l’humain.
Le 16/09/2019 à 11h40
#8
Au contraire, les machines savent uniquement faire ce qu’on leur apprend, elles gèrent mal tout ce qui sort du process normal. Les machines restent gouvernées par des algorithmes conçus par des humains.
Aussi, pour prendre le cas de l’automobile, il s’agit d’un environnement très difficile, où non seulement les divers capteurs peuvent mal accomplir leur tâche (ex: une canette confondue avec un camion à cause du reflet du soleil, qui a forcé un autopilote à freiner sur une voie rapide), voir à mal fonctionner (défaut ou usure, même doublé parfois ça ne suffit pas) ou même rendre l’âme.
On fantasme beaucoup sur la machine parfaite, mais ça reste de la science fiction.
Le 16/09/2019 à 12h10
#9
La machine parfaite ? Il va falloir sacrement la doper aux hormones :
-Algo random privé sinon ça bluff pas la partie logique active
Et la rendre faillible :
-Temps de latence pour simuler le doute et favoriser le lien social avec des unités calculants moins vite
-Pirouette logique autour de l’algo privé pour simuler personnalité, instinct de survie et éventuellement si il y a assez de place des croyances
On diminuera aussi sa durée de vie pour en vendre plein et comme on ne sait pas combien de temps l’expérience va durer le mieux serait de rendre le corps biodégradable et/ou recyclable.
D’ailleurs ça serait bien que le corps sente mauvais a la fin, il ne faudrait pas qu’ils restent trop statique et qu’ils découvrent trop vite de quoi ils sont fait.
Si on ne fait pas tout ça les investisseur ne suivront pas…une idée pour le nom ?
l’Homme ? " />
Le 16/09/2019 à 12h14
#10
Du coup maintenant vous faites du commentaire d’articles publiés par d’autres sites. " />
Le 16/09/2019 à 12h34
#11
Ah oui, la fameuse redondance, j’avais oublié, merci pour cette éclaircissement. " />" />
Le 16/09/2019 à 15h23
#12