Voiture autonome Uber et accident mortel : Intel et Waymo vantent leur technologie
Le 27 mars 2018 à 09h16
2 min
Sciences et espace
Suite à l'accident mortel d'un piéton la semaine dernière, Doug Duce (gouverneur de l'Arizona) a décidé de suspendre l'autorisation délivrée à Uber de mener des expérimentations sur les routes publiques de l'État. Dans une lettre envoyée à Dara Khosrowshahi, PDG d'Uber, il explique que les vidéos de l'accident « soulèvent des inquiétudes » sur la capacité d'Uber à mener des tests en toute sécurité.
Cette décision a été prise indépendamment des enquêtes, toujours en cours, des différentes autorités. Dans la pratique, elle ne change rien pour le moment : Uber avait décidé de laisser ses voitures autonomes au garage suite à l'accident mortel. Face à cette déconvenue, les réactions des partenaires et concurrents d'Uber n'ont pas tardé.
Velodyne, le fabricant du Lidar utilisé par le VTC, s'expliquait il y a quelques jours auprès de Bloomberg. « Notre Lidar est capable de représenter clairement Elaine et sa bicyclette dans cette situation. Cependant, il ne prend pas la décision de freiner ou de s'écarter de son chemin », cette manœuvre incombe au système de pilotage automatique de la voiture, en se basant sur les différents capteurs. Pour le PDG, « l'accident n'a pas été causé par le Lidar. Le problème est ailleurs ».
Intel (Mobileye) en profite pour mettre en avant les capacités de détection de son logiciel ADAS (aide à la conduite automobile). En se basant sur les vidéos transmises par la police de Tempe, c'est-à-dire avec une plage dynamique réduite et sans aucun autre capteur, la solution d'Intel aurait été capable d'obtenir « une détection claire environ une seconde avant l'impact ».
Même son de cloche chez Waymo (filiale d'Alphabet) : « dans le cas d’un piéton ou d’un cycliste, nous sommes confiants dans la capacité de notre technologie à s’adapter à une situation de genre » affirme John Krafcik. Des attitudes à visée promotionnelle que certains jugeront pour le moins déplacées dans un tel contexte.
Pour le moment, Toyota et nuTonomy ont décidé de mettre en pause leurs expérimentations sur les voitures autonomes. Les autres constructeurs n'ont pas fait de déclaration en ce sens et devraient donc continuer normalement.
Le 27 mars 2018 à 09h16
Commentaires (38)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 27/03/2018 à 08h37
#1
Je comprends tout à fait l’interdiction: on parle d’une boîte qui veut atteindre le niveau maximum de conduite autonome et n’est même pas capable d’atteindre les premiers niveaux d’assitance qu’on a sur de nombreuses voitures grand public actuellement.
Je n’entre pas dans le débat du comportement des humains (autre que les équipes d’Uber).
La même Volvo sans l’électronique d’Uber aurait certainement limité la gravité de l’accident. Et là je parle des outils considérés comme “assistance à la conduite”, loin, très loin de l’appelation “conduite autonome”.
Ca manque de garde-fous pour rouler sur route ouverte.
Le 27/03/2018 à 08h56
#2
Le 27/03/2018 à 09h00
#3
Ça m’étonnera toujours qu’on parle plus d’un mort à cause d’une voiture autonome que des 1,3 millions d’ accidents de voitures mortels sur les routes au niveau mondial…
Le 27/03/2018 à 09h10
#4
“Des attitudes à visée promotionnelle que certains jugeront pour le moins déplacées, étant donné la situation.”
Plutot normal de vouloir se différencier du système Uber.
Beaucoup de gens ne font pas de distinction entre les différentes boites faisant de la navigation autonome (waymo, Uber, Tesla, …) et parlent de “voiture autonome” en général.
Les concurrents ne veulent certainement pas se retrouver freiner au niveau de leurs tests à cause d’Uber.
Comme @thomgamer, j’attends avec impatience les conclusions de l’enquête.
Le 27/03/2018 à 09h13
#5
Le 27/03/2018 à 09h32
#6
Le 27/03/2018 à 09h40
#7
De ce que je me souviens de la vidéo, la personne au volant regarde vers le milieu du tableau de bord.
Celà peut aussi être un écran de contrôle pour vérifier l’état du système autonome ou voir ce qui est vu par le véhicule.
Et même si cette personne avait le contrôle pour pouvoir freiner rien ne dit que l’accident mortel aurait été évité. Personnelement je ne vois la piétonne que au moment où elle apparait dans la lumière des phares -> déjà trop tard
Le 27/03/2018 à 09h46
#8
[Envoi de commentaire erroné, commentaire original perdu, tant pis, j’efface.]
Le 27/03/2018 à 10h17
#9
Ton lien est KO, mais la vidéo était passée sur NextInpact je crois, le problème de la vidéo c’est qu’on sait pas si il a des écrans de contrôle ou non, j’ai pas trouvé d’image de l’intérieur d’une “Uber Car autonome” mais à l’époque les Google Car autonome c’était ça mais si c’est plutôt ça c’est sur qu’il regardait pas l’écran de contrôle, ou alors il était vraiment absorbé par la route !
Bon là, visiblement le chauffeur + le système Uber ont eu un manque d’attention …
Le 27/03/2018 à 10h52
#10
ENFIIIIN ils retirent la licence à UBER " />
J’étais passé à coté de l’interview de la boite qui fait le Lidar, je me disais aussi, Uber à bel et bien tué cette femme par négligence…
Le 27/03/2018 à 10h58
#11
Ha mince, alors pour retrouver mets ça dans google : “video-shows-driver-in-fatal-autonomous-uber-crash-was-l-1823970417” et ce sera le premier site.
On vois la conductrice de face seulement ,sans pouvoir voir ses mains, et oui c’est une double défaillance ^^
Le 27/03/2018 à 11h42
#12
“Dans une lettre envoyée à Dara Khosrowshahi, PDG d’Uber, il explique que les vidéos de l’accident « soulèvent des inquiétudes » sur la capacité d’Uber à mener des tests en toute sécurité.”
Pour moi, il y a quelque chose d’encore plus anormal : comment peut-on délivrer des autorisations de faire des tests sur les routes sans aucun contrôle ou certification par un organisme indépendant au préalable ?
Il y a une double responsabilité : le constructeur, ici le développeur de l’IA, et l’organisme qui distribue des autorisations sans aucun contrôle.
Surtout il faut que les autorités légifèrent pour déterminer les conditions d’octroi des autorisations de tests sur route. Parce que le mode d’apprentissage par l’échec c’est acceptable en labo mais pas sur route.
Le 27/03/2018 à 11h50
#13
Comment perdre des années de recherche à cause d’une cycliste suicidaire…
Le 27/03/2018 à 11h50
#14
@knai2 @ href="https://www.nextinpact.com/inpactien/254175" target="_blank">lenul79
Donc un humain aurait dû rouler moins vite.
On s’adapte aux conditions de circulation.
Ca aurait été un rocher ou une moto ça aurait été plus grave.
Ce que je retiens c’est que la voiture ne voyait pas où elle allait mais elle y allait. Peut-être n’avait-elle pas non plus vu le panneau de limitation de vitesse.
Tu demandes pas à un humain de conduire et de téléphoner en même temps. On ne peut que spéculer sur le rôle du conducteur dans la voiture: est-ce la procédure d’Uber de confier la surveillance de l’ordinateur ET de la route? Jouait-il à Candy Crush? Est-ce que l’humain a le droit de déconnecter l’ordinateur sur un simple sentiment de doute sur la conduite de l’auto-pilote? Est-ce que l’humain doit toujours être en confiance quand il délègue la conduite?
Le 27/03/2018 à 11h51
#15
Je suppose aussi qu’Uber a désactivé les systèmes propres au modèle de véhicule pour maitriser toute la chaîne: capteurs + algo. Et ne pas être parasiter par une action tiers.
Le 27/03/2018 à 11h59
#16
Le 27/03/2018 à 12h10
#17
Le 27/03/2018 à 12h14
#18
C’est bien la même vidéo :)
Après j’aurais tendance à plus incriminer Uber que le chauffeur/superviseur, car “rester en alerte” tout en ne conduisant pas la voiture, je sais pas au bout de combien de temps tu décroches … Au début tu dois être super concentré et attentif car t’as pas confiance à la voiture, mais au bout de dizaines d’heures ou milliers de kilomètres tu dois plus être aussi attentif.
Et cette vidéo (c’est une Tesla) me fait dire que Uber est encore loin du niveau d’une voiture déjà commercialisé et autorisé à rouler (pas en autopilot qui n’est qu’une “aide à la conduite” même si Tesla vise l’autonomie d’ici quelques années). Même cas : visibilité nulle, objet en déplaçant non visible par un humain et en plus on peut rajouter le caractères imprévisible de l’animal.
Le 27/03/2018 à 12h18
#19
Intel (Mobileye) en profite pour mettre en avant
les capacités de détection de son logiciel ADAS (aide à la conduite
automobile). En se basant sur les vidéos transmises par la police de
Tempe, c’est-à-dire avec une plage dynamique réduite et sans aucun autre
capteur, la solution d’Intel aurait été capable d’obtenir « une détection claire environ une seconde avant l’impact ».
Bref, il aurait lui aussi réagit trop tard pour éviter l’impact.
Le 27/03/2018 à 12h22
#20
A priori, Uber menait ses tests à la base avec 2 opérateurs par véhicules mais a décidé qu’un seul suffisait. Ceci avait été critiqué par les opérateurs eux même qui indiquaient la grande difficulté de rester concentré sur le contrôle alors que la tache est très monotone (99.9% du temps, tu ne dois rien faire, la voiture conduit toutes seules sur des routes monotones).
Rester les bras croisés à regarder du rien, je ne te donne pas 30minutes avant que ton attention parte papillonner ailleurs et 1h si t’es vraiment motivé et acharné. Mais c’est des truc assez bien connu.
Dans les taches similaires, on a les opérateurs chargés de contrôler les images rayon X des bagages dans les aéroports. La solution proposée pour garder “alerte” les opérateurs, c’est que de temps en temps des faux positifs sont incrustés à l’écran (“pouf” un fusil d’assaut dans la bagage de la vieille en fauteuil roulant, on ne se méfie jamais assez des vieux en fauteuil roulant). Ainsi, on les “réveille” régulièrement et en plus on est capable de mesurer la capacité de l’opérateur à être attentif (passer à coté d’un faux négatif).
Chez les conducteurs de TGV, l’astuce est beaucoup moins “stimulante”, il faut qu’ils exécutent une tache de manière périodique (il faut qu’il appuient régulièrement sur le volant de traction), mais rien pour vraiment réveiller l’attention de l’opérateur.
Le 27/03/2018 à 12h36
#21
Le 27/03/2018 à 12h39
#22
Oui mais non, tu anthropomorphises là. Ton raisonnement se base sur le fait que la voiture soit gênée par l’absence de luminosité. Si tu regardes l’équipementqu’elle possède, elle ne se base pas que sur des caméras. Il y a des radars et lidars en plus des caméras. Le lidar est l’élément clé de l’histoire car il cartographie très rapidement l’environnement autour du véhicule.
Qu’il fasse nuit n’a aucune importance car la voiture “voit” mieux que toi (la question aurait pu se poser sur les performances avec du brouillard mais ce n’est pas le cas), elle n’a donc pas besoin de ralentir.
Si les dires du fabricants sont exacts (à vérifier après expertise), le lidar doit avoir détecté la femme, d’où des soupçons sur le logiciel de bord d’Uber qui aurait pu ignorer l’information.
Ta critique aurait eu plus de sens sur une Tesla qui n’a pas de lidar car ils pensent pouvoir faire mieux avec des caméras (d’ailleurs rien n’empêche d’en avoir qui captent un spectre plus étendu que celui de l’œil humain).
Au passage, un certain nombre de gens se fixent sur un excès de vitesse (annoncée à 38mph au lieu de 35mph, même s’il y avait un doute sur les panneaux de vitesse). On reste dans les limites autorisées d’un contrôle radar, la voiture aurait pu aller plus lentement mais on ne connaît pas tous le contexte. C’est assez mineur dans l’histoire.
Le 27/03/2018 à 12h46
#23
Le 27/03/2018 à 12h57
#24
+1
Pour l’excès de vitesse :
soit le panneau a effectivement été mal lu
soit c’est un signe que le système n’était pas capable de suivre correctement la vitesse donnée (problème mécanique ? électronique ? logiciel ?)
Le 27/03/2018 à 13h04
#25
Le 27/03/2018 à 13h32
#26
Le 27/03/2018 à 13h40
#27
Le 27/03/2018 à 13h47
#28
Je suis d’accord, mais légalement sa responsabilité pourra être engagée
Le 27/03/2018 à 13h58
#29
Le 27/03/2018 à 14h22
#30
Le seul fait connu est que la voiture n’a entrepris aucune manœuvre d’évitement.
A priori, la voiture est équipé d’assez d’appareil capable de repérer le piéton avant. On sais en effet qu’elle est au moins équipé d’un lidar.
Maintenant dans les hypothèses très probables : on peut supposer avec une certaine certitude que tout véhicule autonome est en capacité de réaliser une manœuvre d’évitement d’urgence en cas d’obstacle sur la route. C’est en effet un comportement attendu de base d’un véhicule autonome.
Voilà à peut près le dossier connu. On a aucune information quant-à l’état de la voiture, des capteurs…. Avant de porter un avis quant-à la culpabilité d’Uber, j’aimerai avoir plus d’élément sur le dossier. Tout d’abord confirmer la présence de mécanisme de manœuvres d’urgences en cas d’obstacle. Ensuite, et surtout, où ça a merdé ? Et de là, oui, on pourra commencer à avoir des éléments permettant d’accuser ou de disculper Uber.
N’étant pas juge et n’ayant pas les éléments du dossier, Uber est, jusqu’à preuve du contraire, innocent. Et tant qu’aucune décision de justice sera rendu, Uber bénéficie de la présomption d’innocence.
Le 27/03/2018 à 14h44
#31
Le 27/03/2018 à 15h00
#32
Dans la cas d’un véhicule autonome, il est assez aberrant qu’il ne possède pas une mécanisme pour éviter un piéton. Sans avoir le dossier, on peut quand même supposer que ce mécanisme existe dans la voiture d’Uber.
On peut aussi supposer sans trop de risque de se tromper qu’il a été testé sur circuitet validé .
On sais que le véhicule était doté de lidar.
Maintenant, on ne sais pas pourquoi la voiture ne s’est pas arrêté. A quel endroit ça a merdé ? ou plutôt à quels endroits ça a merdé ? En effet, c’est rare qu’une seule erreur soit la cause d’un accident, mais c’est souvent une combinaisons d’erreurs (plusieurs erreurs peuvent être la cause, d’autre peuvent ne pas avoir réussi à arrêter la cascade).
Le 28/03/2018 à 07h12
#33
Le 28/03/2018 à 08h05
#34
Le 28/03/2018 à 09h03
#35
Justement, il me semble qu’ils étaient en agglomération (enfin, selon les standard américain). Les feux étaient donc OK.
Aussi pressé que soit Uber, ils ne le sont pas au point d’avoir fait des erreurs évidentes dans leur système d’évitement de piéton. L’erreur doit être vraiment un cas particulier.
Le 28/03/2018 à 09h30
#36
Le 28/03/2018 à 12h18
#37
Justement, l’accident s’est déroulé dans des conditions proche d’un cas d’école pour voiture autonome. On était dans des conditions parfaites de la démo technique. C’est le genre du situation bateau pour lequel la voiture a plus que certainement déjà été testé.
Pour ce qui est des feux, en soit, on n’a pas forcément un véritable aperçu de ce qui se voyait ou pas. Tout d’abord, je doute que la caméra d’où vient la vidéo fasse réellement partie des capteurs du véhicule. Ca semble être plus la caméra “dashcam” pour l’analyse par des humains des rapports.
(bon, le piéton est aussi un candidat sérieux pour les Darwins Award, difficile de rater la voiture dans de tels conditions.)
Le 28/03/2018 à 12h50
#38
Yep c’est sûr que la caméra est purement informative, comme tu dis c’est une simple dashcam pour avoir une vision d’ensemble lors des rapports d’anomalie. (bizarre qu’elle ai pas un mode nuit au passage)
Je pense qu’on à un Darwin Awards (alcool peut être) et une pub pour la sécurité routière, 10 contre 1 que le conducteur est en train de regarder son téléphone. Sur les photos de l’intérieur du véhicule il semble que les écrans ne se situent pas dans l’axe de sa vision mais sur le coté. Il existe des système qui vérifient la vigilance du conducteur, étonnant de ne pas en mettre dans une voiture où la vigilance du conducteur face à la machine est la seule et ultime sécurité …