Accident mortel Uber : le rapport préliminaire du NTSB permet d’y voir (un peu) plus clair
Pour une sombre histoire...
Le 25 mai 2018 à 12h30
9 min
Sciences et espace
Sciences
Le NTSB fait le point sur les circonstances de l'accident mortel impliquant un véhicule autonome Uber. Le rapport préliminaire confirme une détection six secondes avant l'impact, mais n'en tire aucune conclusion. Dans le même temps, le maire de Pittsburgh fait part de sa surprise concernant la reprise prochaine des tests dans sa ville.
Il y a un peu plus de deux mois, un véhicule autonome Uber percutait un piéton à Tempe, en Arizona, causant le décès d'Elaine Herzberg âgée de 49 ans. De son côté, le conducteur de test présent dans la voiture ne souffre d'aucune blessure physique.
Un accident mortel, des vidéos soulevant des questions
Quelques jours après l'accident, la police locale publiait les vidéos de deux caméras de la voiture : une braquée sur le chauffeur, l'autre sur la route. Attention, les images peuvent être choquantes, pensez-y avant de cliquer. Dans tous les cas, elles soulèvent de nombreuses questions sur l'absence de réaction du véhicule et du chauffeur.
Les autorités compétentes se sont évidemment saisies de l'enquête et le Conseil national de la sécurité des transports américains (NTSB) vient de publier son rapport préliminaire. S'il ne donne pas encore la « cause probable » de l'accident, il recense les éléments factuels actuellement en possession du régulateur.
La voiture avait détecté le piéton six secondes avant l'impact...
La voiture était une Volvo XC90 2017 modifiée par Uber. De série, le véhicule est équipé de fonctions avancées d'assistance au conducteur, dont l'évitement des collisions via un freinage d'urgence automatique, la détection de la vigilance du conducteur et la signalisation routière. En plus, le VTC ajoute une dizaine de caméras, des radars, LIDAR, d'autres capteurs et une unité de traitement et de stockage.
La voiture dispose de deux modes de fonctionnement : un contrôlé par l'ordinateur, l'autre manuel par le chauffeur. Dans le premier cas, le système d'Uber s'occupe de la navigation (conduite autonome) et les fonctionnalités de série de Volvo sont désactivées, tandis que dans le second c'est le chauffeur qui a la maitrise du véhicule en profitant des options de bases. Le conducteur peut passer du mode autonome à manuel en actionnant le volant, l'une des pédales ou en appuyant sur un bouton dédié.
Le soir du drame, le conducteur et la voiture sont partis à 21h14 (heure locale) pour un trajet prédéfini. Au moment de l'accident (à 21h58), le véhicule entamait son deuxième tour et était en mode autonome depuis 19 minutes. Selon le rapport préliminaire, « toutes les fonctions de conduite autonome marchaient normalement au moment de l'accident, et il n'y avait aucun défaut ou message de diagnostic ».
Comme cela avait été annoncé par certaines sources, la voiture avait identifié le piéton : « les données obtenues par le système de pilote automatique montrent que les premières observations du piéton ont été enregistrées par les radars et LIDAR environ six secondes avant l'impact, alors que le véhicule roulait à 69 km/h », sur une route limitée à 75 km/h. Un délai normalement largement suffisant pour effectuer un freinage d'urgence.
... mais l'avait mal identifiée
Problème, « au fur et à mesure de la convergence du véhicule et du piéton, le logiciel du système de conduite autonome a classé le piéton comme un objet inconnu, puis comme un véhicule et un vélo avec des prévisions variables quant à sa trajectoire ».
1,3 seconde avant l'impact, le système de conduite autonome « a déterminé qu'un freinage d'urgence était nécessaire pour atténuer une collision ». Mais le NTSB explique que, selon Uber « les manœuvres de freinage d'urgence ne sont pas activées lorsque le véhicule est en mode autonome afin de réduire le risque de comportement erratique du véhicule ». La voiture laisse alors la main au chauffeur pour agir si nécessaire, mais ne disposait pas de système pour l'alerter, toujours selon le régulateur.
Concernant la victime, le rapport précise qu'elle a traversé dans une zone où des panneaux indiquaient aux piétons d'emprunter un passage situé une centaine de mètres plus loin. Elaine Herzberg était habillée avec des vêtements foncés et « les résultats des tests toxicologiques du piéton après l'accident étaient positifs pour la méthamphétamine et la marijuana » indique le rapport.
De plus, son vélo n'était pas équipé de réflecteurs latéraux. S'il y en avait sur l'avant et l'arrière, ainsi qu'une lumière sur le devant, tous étaient orientés perpendiculairement à la route. Pour ne rien arranger, « les vidéos montrent que le piéton a traversé sur un tronçon de route non directement éclairé par l'éclairage de la chaussée ».
Les explications du chauffeur
En se basant sur les données du pilote automatique, le rapport préliminaire du NTSB explique que « le conducteur du véhicule a pris le volant moins d'une seconde avant l'impact et a commencé à freiner moins d'une seconde après ». Trop tard pour éviter le drame.
Maintenant que nous savons pourquoi la voiture n'a pas freiné face au piéton, reste une question : que faisait le conducteur juste avant l'accident. En effet, dans les vidéos mises en ligne par la police de Tempe, on peut voir qu'elle ne semblait pas vraiment concentrée sur la route.
Lors d'un entretien avec le NTSB, elle affirme qu'elle « surveillait l'interface de conduite autonome et que, même si ses téléphones personnels et professionnels étaient dans le véhicule, aucun d'entre eux n'était utilisé avant l'accident ». Il faudra attendre les conclusions définitives du régulateur pour savoir s'il confirme ou non ses dires.
Intel, Velodyne et Waymo : les réactions des concurrents et partenaires d'Uber
Pour rappel, Velodyne (fabricant du LIDAR utilisé par Uber) s'était rapidement exprimé sur le sujet : « notre LIDAR est capable de représenter clairement Elaine et sa bicyclette dans cette situation. Cependant, il ne prend pas la décision de freiner ou de s'écarter de son chemin ». « L'accident n'a pas été causé par le Lidar. Le problème est ailleurs » affirmait le PDG de Velodyne, pour rassurer sur les performances de son produit. Le rapport préliminaire du NTSB apporte de l'eau à son moulin.
Suite à cet accident, Intel et Waymo en avaient eux aussi profité pour mettre en avant leur systèmes respectifs... quelques jours seulement après l'accident, une attitude déplacée pour certains. « Dans le cas d’un piéton ou d’un cycliste, nous sommes confiants dans la capacité de notre technologie à s’adapter à une situation de ce genre » affirmait par exemple la filiale de Google.
De son côté Intel expliquait que son système de conduite autonome était capable de faire « une détection claire environ une seconde avant l'impact » en se basant uniquement sur les images publiées par la police, et donc avec une plage dynamique réduite et sans aucun autre capteur supplémentaire. Comme l'explique le NTSB, la voiture Uber a aussi détecté le piéton plus d'une seconde avant l'impact.
Les capteurs et la détection ne semblent pas être en cause dans le cas présent. Reste maintenant à savoir ce qui a conduit la voiture à ignorer et/ou mal classer ce message. Les conclusions de l'enquête seront intéressantes pour tous les fabricants, pas uniquement Uber.
Les conclusions soulèveront également la question de la responsabilité en cas d'accident avec une voiture autonome. Si pour le moment le conducteur doit pouvoir rester maitre du véhicule et reprendre le contrôle en cas de danger, qui sera responsable lorsqu'une voiture autonome de niveau 4 ou 5 causera un accident ? Le fabricant, le concepteur du logiciel, le vendeur, l'acheteur, le conducteur... ?
Reste à déterminer les causes probables de l'accident
Dans tous les cas, l'enquête suit son cours. Le NTSB ne précise pas quand il compte rendre son rapport final, avec les causes probables de l'accident. En attendant, il continue de récupérer des informations tous azimuts, que ce soit en provenance d'Uber, de la voiture, des téléphones du chauffeur, du conducteur, etc.
Pour rappel, Uber a déjà signé un accord avec la famille de la victime, s'évitant ainsi le désagrément d'une bataille judiciaire. « L'affaire a été résolue » lâchait simplement Cristina Perez Hesano, l'avocate de la famille, ajoutant qu'elle ne ferait aucune déclaration supplémentaire.
Suite à l'accident, Uber a suspendu l'ensemble de ses expérimentations sur les routes publiques. Hier, nous apprenions que la société jetait finalement l'éponge en Arizona (où se trouve la ville de Tempe, lieu de l'accident mortel), mais qu'elle comptait les reprendre à Pittsburgh et San Francisco.
Uber de retour à Pittsburgh ? Pas si vite pour le maire de la ville...
Une déclaration qui n'est pas du goût du maire de Pittsburgh. Dans un communiqué officiel, il affirme ne pas avoir été prévenu en amont par Uber et avoir appris la nouvelle dans la presse. « Ce n'est pas le moyen de reconstruire une relation de travail constructive avec les autorités locales, surtout quand il s'agit d'une question de sécurité publique ».
Il rappelle que, suite à l'accident mortel, il avait « clairement fait comprendre aux responsables d'Uber qu'une enquête fédérale complète devait être menée, avec la mise en place de règles strictes pour assurer la sécurité dans les rues, avant qu'il soit d'accord pour que la société reprenne ses expérimentations dans les rues de Pittsburgh ».
Le maire en profite pour détailler les restrictions strictes imposées à Uber avant de pouvoir reprendre les tests : « les véhicules automatisés ne dépasseront jamais 40 km/h dans la ville, dans n'importe quelle rue, indépendamment des limites de vitesse légales ».
Voilà l'entreprise prévenue.
Le 25 mai 2018 à 12h30
Accident mortel Uber : le rapport préliminaire du NTSB permet d’y voir (un peu) plus clair
-
Un accident mortel, des vidéos soulevant des questions
-
La voiture avait détecté le piéton six secondes avant l'impact...
-
... mais l'avait mal identifiée
-
Les explications du chauffeur
-
Intel, Velodyne et Waymo : les réactions des concurrents et partenaires d'Uber
-
Reste à déterminer les causes probables de l'accident
-
Uber de retour à Pittsburgh ? Pas si vite pour le maire de la ville...
Commentaires (64)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 25/05/2018 à 17h28
Uber, la solution à la drogue !!!
C’est pas mal, si ils veulent se placer sur ce créneau…
Si vous voulez vous droguer sans mourir prenez un Uber😉
Plus sérieusement, l’état de la conductrice explique peut être que le système ne pouvait pas prévoir avec certitude les futures mouvements de la personne. Mais ce qui n’est pas compréhensible, c’est le fait qu’elle n’a pris aucune disposition pour un objet massif au milieu de la route…
Le 25/05/2018 à 17h28
Ce qui me gène, c’est que le véhicule a vu l’obstacle mais n’a pas cherché à l’éviter.
Si tu aperçois un mec bourré traverser l’autoroute, il n’a rien à faire là mais j’imagine que tu feras le maximum pour l’éviter
Le 25/05/2018 à 17h46
Un humain aurait sût à 100% qu’à cet endroit précis, un piéton avec un vélo a forcément l’intention de traverser, et n’est pas en train de faire une balade entre 2 voies rapides: ordinateur 0 - humain 1 " />
Le 25/05/2018 à 18h06
Le 25/05/2018 à 18h25
Le 25/05/2018 à 18h27
Un animal, c’est doué d’intelligence… L’humain en étant un d’ailleurs. ^^
Le 25/05/2018 à 18h33
Pour le poulet a traversé la route ?
Uber : j’en ai raté un ? " />
Le 25/05/2018 à 18h35
Quel paradoxe… A cause d’un piéton drogué les voitures autonomes vont être repoussées alors que ça nous permettrait justement de prendre de la drogue et de rentrer chez nous en toute sécurité.
Le 25/05/2018 à 19h56
Le 26/05/2018 à 00h59
Bon bah une fois de plus, “femme au volant, mort au tournant” " /> (ou presque)…
(oui, c’est gratuit, contrairement aux voitures autonomes).
Le 26/05/2018 à 05h24
“selon Uber « les manœuvres de freinage d’urgence ne sont pas
activées lorsque le véhicule est en mode autonome afin de réduire le
risque de comportement erratique du véhicule »”
" /> " />
“Trop tard pour éviter le drame.”
C’est gentil de le préciser mais je pense que personne ici est incapable de conclure que freiner après l’impact est trop tard. " />
Le 26/05/2018 à 05h28
Le 26/05/2018 à 05h34
Le 26/05/2018 à 06h31
Je ne vois pas pourquoi de base on demande plus à la conduite autonome que la manuelle? Le niveau de sécurité est potentiellement au moins aussi bon voir supérieur à nos bonnes pratiques “traditionnelles ancestrales” de faire plus ou moins n’importe-quoi en toutes circonstances, mais on va attendre le 0 défaut (aka accidents) avant de déployer ? Alors qu’un humain qui en tue un autre bon, ça on connait, c’est normal et attendu… ‘nawak. Les seuls bugs bloquants sont ceux ou l’humain aurait fait mieux, et en moyenne je crois qu’on diviserait déjà les accidents par 10 avec du 100% autonome (statistiquement un algo est pas mal plus déterministe que nos cerveaux créatifs et distraits).
Le 26/05/2018 à 07h18
Il fut un temps, que les premières automobiles devaient être précédées d’une personne avec un drapeau rouge parce que c’était un objet dangereux. Je préconise les motards de la gendarmerie pour ouvrir la route de ces véhicules autonomes. 😂
Le 26/05/2018 à 07h34
Le 26/05/2018 à 08h41
C’est pour que le véhicule ne s’arrête pas sur un faux positif… Je trouve ça idiot comme concept, si tu doutes des freinages intempestifs du véhicule, tu mets une grosse bande rouge/fluo/réfléchissante derrière en indiquant freinages violents et arrêts fréquents.
C’est un très haut niveau de mauvais concept cette affaire.
Le 26/05/2018 à 08h43
Le 26/05/2018 à 09h06
Le 26/05/2018 à 09h10
Le 26/05/2018 à 11h14
Il parle d’une lumière à l’avant de son vélo, mais sur la vidéo je ne vois rien " />
Le 26/05/2018 à 11h39
Le 26/05/2018 à 11h50
Le 26/05/2018 à 14h59
Problème, « au fur et à mesure de la convergence du véhicule et du piéton, le logiciel du système de conduite autonome a classé le piéton comme un objet inconnu, puis comme un véhicule et un vélo avec des prévisions variables quant à sa trajectoire ».
1,3 seconde avant l’impact, le système de conduite autonome « a déterminé qu’un freinage d’urgence était nécessaire pour atténuer une collision ». Mais le NTSB explique que, selon Uber « les manœuvres de freinage d’urgence ne sont pas activées lorsque le véhicule est en mode autonome afin de réduire le risque de comportement erratique du véhicule ».
Du coup si c’était un vélo qui roule très lentement au milieu de la voie dans le sens de la circulation, l’IA aurait quand même décidé de se le faire par l’arrière ?
A défaut de freiner d’urgence 1,3 s avant impact, l’IA aurait déjà pu prendre la décision de ralentir quand il a eu connaissance de sa présence sur la chaussée. Vu la largeur de la voie, les 6 secondes correspondent à son entrée sur la chaussée.
Les conditions de visibilité sont clairement en défaveur du conducteur humain : voie rapide ouverte peu éclairée avec des forts contrastes de luminosité et véhicule en feux de croisement.
Le 27/05/2018 à 08h53
Quelque que soit son état, je ne dis pas que le piéton/cycliste n’a eu aucune part de responsabilité dans cet accident. Il en a une petite.
Mais si on remplace “positif au test de drogue” par “malade d’Alzheimer” (je prends cet exemple car ce genre de maladie peut amener à ce genre de situation), ça change énormément de choses, dont la perception qu’on se fait des responsabilités de chacun. Pourtant les conséquences auraient été les mêmes.
Ici la responsabilité du véhicule et de son système embarqué est infiniment plus grande que celle du piéton. Surtout étant donné que le système autonome avait détecté depuis longtemps (à l’échelle de la réaction nécessaire) cet “obstacle en mouvement”. Des cas similaires (traversée inconsciente en dehors des passages) j’en croise au moins 1 fois par semaine sur mes trajets quotidiens.
Le 27/05/2018 à 09h41
Le 27/05/2018 à 11h00
Je voudrais bien un tableau récapitulatif des accidents responsables et accidents mortels par marque de véhicules autonomes
Il me semble en avoir vu un il y a quelques années, il faudrait le mettre à jour
Le 27/05/2018 à 13h00
Quelques sources :
Accidents répertoriés par l’Etat de Californie :
https://www.dmv.ca.gov/portal/dmv/detail/vr/autonomous/autonomousveh_ol316
Liste des accidents sur Wikipedia :
Wikipedia" class="domain-link trusted-domain-link" title=" Wikipedia"" target="_blank" rel="noopener"> Wikipedia target="_blank"> Wikipedia
Wikipedia" class="domain-link trusted-domain-link" title=" Wikipedia"" target="_blank" rel="noopener"> Wikipedia target="_blank"> Wikipedia
En mortel, 4 en tout : 3 Tesla + le piéton pour Uber.
La nuance qu’il faut garder en tête cependant, c’est qu’Autopilot est un niveau 3 d’autonomie (avec objectif de devenir un système autonome) donc une aide à la conduite, là où le système d’Uber est niveau 4.
Côté responsabilité chez Tesla, c’est souvent le conducteur qui a cru pouvoir roupiller alors que le véhicule requiert une attention constante…
Le 28/05/2018 à 07h23
Donc 6s avant l’impact, l’interface aurait pu notifier au “passager conducteur” de faire attention à son environnement immédiat, mais non…
Le 28/05/2018 à 07h42
C’est logique suivant leur façon de voir car si ta voiture fait comme celle de l’auto-école Charlie les premières leçons, ça va pas être de la tarte.
Maintenant ce qui me surprend c’est qu’il n’y ait pas de signalement dans la voiture pour prévenir le conducteur qu’il pourrait être utile de freiner d’urgence. Genre une projection sur le parebrise disant : DANGER ALERTE FREINAGE REQUIS
Le 28/05/2018 à 10h00
Le 28/05/2018 à 10h47
Le 28/05/2018 à 11h08
Toutes ? Y compris celles qui ne peuvent pas apparaître en circuit fermé car inhérentes à la circulation hors circuit ?
Balèze !
Le 28/05/2018 à 11h13
Oui, encore plus avec un humain drogué (=> trajectoire erratique) et habillé en noir dans le noir.
Donc totalement invisible.
Les humains ont toujours été surhumains…
Le 28/05/2018 à 11h14
Profitant de la promotion, je découvre enfin le contenu de cet article :).
Personnellement je suis choqué de la façon dont se déroule les tests et les première conclusion de cet accident.
En regardant la carte je ne suis pas persuadé à 100% qu’un vrai automobiliste n’aurait pu l’éviter.
Le système détecte une anomalie et rien ne s’affiche pour prévenir le conducteur? Il sert à quoi alors?
Les conditions de ces tests me paraissent pour le moins opaque et alors que j’étais convaincu et impatient pour les voitures autonomes, la je deviens fortement sceptique.
Tout cela est à mettre avec les révelation de mails (provenant de Uber je crois) concernant la cour se à la voiture autonome: arriver le premier est primordial quitte à faire certains sacrifices… Abject!
Le 28/05/2018 à 11h20
Correction : parce que ça risquait de concurrencer le train.
(ce qui au final s’est avéré fondé)
Le 28/05/2018 à 11h21
Le 28/05/2018 à 13h32
Oui … quand je disais ça c’est bien pour parler d’une personne avec un QI moyen …
Quand je conduis, j’ai régulièrement droit au chien en balade en ville (sans laisse) qui décide de se mettre devant mes roues pour sentir mon garde boue avant … choses que je n’ai rencontré qu’avec les humains doté d’un appareil électronique étrange avec le regard agar dessus …
Désolé pour l’amalgame ^^
Le 28/05/2018 à 14h46
On peu se demander comment obtenir une voiture autonome fiable alors que d’autres logiciels moins critiques et moins complexe ont des correctifs réguliers.
Seront elle aussi bien sécurisée ? Histoire que personne ne puisse placer de brouilleur ou ne modifie la cartographie pour déclarer une rue piétonne comme circulante à 130 (par exemple).
Il faudra peut etre imposer Update et antivirus à jour avant de pouvoir rouler.
Franchement Le jour où ces véhicules ne posseront aucun risque on aura peut être des PC sans bug et d’une sécurité sans faille.
Le 28/05/2018 à 15h14
Ca sera toujours plus fiable que des être humains… Pour moi le choix est vite fait.
A moins qu’on pose des contre sur les voiture pour éviter les excès de vitesse ou de conduire ivre ou fatigué, avec des rappel au code de la route tout les 2ans… et encore
Le 29/05/2018 à 08h53
Oui plus fiable techniquement ( toujours attentif a la route, non bourré ou drogué ou sur son téléphone)
Mais les lois et règles qui régissent ses décisions sont malheureusement défini par des humains peu fiable qui programment comme des pieds, qui ne pensent pas à toutes les situations, qui laissent des trous de sécurité béantes, … la preuve est dans l’article.
Donc actuellement on a des bon conducteurs et des moins bon … après on aura de bonnes voitures autonomes et des moins bonnes … en fonction du constructeur, du niveau de mise à jour … la situation est même
Ces responsables qui espèrent du 0 incident avec ces vehicules sont bien naïf … mais il faut toujours un incident majeur pour qu’ils s’en rendent compte…
Le 29/05/2018 à 09h16
Avec le temps ils arriveront certainement à créer des véhicules laboratoire fiable …
Que se passera t’il sur des vehicules de série dont les caractéristiques changent tous les 3 - 4 ans … les capteurs ne sont plus placés au même endroit, le constructeur du Lidar a décidé de modifier son API, le CPU précédent est remplacé par un nouveau modèle, une nouvelle fonction gadget est ajouté et impacte sans le savoir des règles de l’IA … le temps de re-qualification va etre énorme … ou les construteurs laisseront le soins aux utilisateurs d’essuyer les plâtres ( comme les logiciels actuels)
Le 25/05/2018 à 12h50
1,3 seconde avant l’impact, le système de conduite autonome « a déterminé qu’un freinage d’urgence était nécessaire pour atténuer une collision ». Mais le NTSB explique que, selon Uber « les manœuvres de freinage d’urgence ne sont pas activées lorsque le véhicule est en mode autonome afin de réduire le risque de comportement erratique du véhicule ». La voiture laisse alors la main au chauffeur pour agir si nécessaire, mais ne disposait pas de système pour l’alerter, toujours selon le régulateur.
C’est quand même assez incroyable de la part d’Uber ne pas avoir prévu de freinage d’urgence.
Le 25/05/2018 à 12h53
Plein de choses intéressantes ici ! Notamment la réponse à des questions qu’on se posait lors des précédents articles :
Mais de nouvelles questions se posent :
Le 25/05/2018 à 12h55
Le pire c’est que le pilote automatique désactive le freinage d’urgence de série de la voiture, et qu’en même temps, même si elle détecte une collision imminente, elle n’active aucune alarme.
La voiture se contente de percuter l’obstacle sans rien dire.
Le 25/05/2018 à 12h56
Il y a quand même des règles à Pittsburgh. Un sage homme, le maire de cette ville. Il faut dire que Pittsburgh n’est pas située ni dans le Wild Wild West, ni dans le WestWorld (réf. cinématographiques).
Le 25/05/2018 à 12h57
Le 25/05/2018 à 12h58
Si je comprends bien, Uber et la famille de la victime s’évitent un procès en civil pour déterminer les dommages et intérêts. Espérons qu’un procès au pénal aura tout de même lieu, afin de déterminer clairement les responsabilités pénales, s’il y a lieu, en pareil cas. Dans l’intérêt du public et des fabricants, il serait utile de ne pas naviguer dans le flou pour ce qui est de la responsabilité de chacun dans un domaine amené à se développer.
Le 25/05/2018 à 13h02
Ce qui est super rassurant, c’est que les même voitures roulent toujours dans 2 autres villes.
Je serais le maire d’une des ces villes, après avoir lu le compte rendu, j’interdirai IMMÉDIATEMENT à Uber de faire rouler ses voitures autonomes dans mes rues. " />" />" />
Pour moi c’est retour immédiat sur circuit fermé pour corriger TOUTES ces défaillances. Et ensuite, après des preuves que cela est corrigé, une nouvelle autorisation pour rouler sur routes libres.
Le 25/05/2018 à 13h07
C’est clair qu’il y a un soucis, le pilote automatique aurait du signaler : “ Hé humain il y a un truc sur la route que je ne comprends pas fait attention ! ” une réaction normal quand en pleine nuit on voit vaguement un truc sur la route sans savoir ce que c’est.
Je trouve logique par contre que le système autonome désactive les fonctions de base de la voiture puisque uber veut développer son propre système mais c’est dommage il est plus nul que le système pas du tout autonome de la volvo.
La présence de la piétonne droguer jusqu’au oreille qui traverse un peu n’importe où en pleine nuit à 2 à l’heure ne joue pas en sa faveur, elle ne recommencera pas …
Entre les route mal entretenu, les piètons/cyclisite drogué, les lignes blanches/jaunes effacé et les camions blancs au milieu de la route, les systèmes autonomes vont finir par faire grèves et réclamer à être les seuls sur la route.
Le 25/05/2018 à 13h10
Le 25/05/2018 à 13h20
La personne était droguée, mais il aurait pu s’agir d’un enfant perdu, dune personne qui n’a plus toute sa tête, un animal ou un autre véhicule qui subit une panne quelquonque.
L’état du piéton ne doit pas être une circonstance atténuante.
Le 25/05/2018 à 13h20
Le 25/05/2018 à 13h37
“mais ne disposait pas de système pour l’alerter”
Ah oui c’est dramatiquement c comme non option pour un véhicule circulant en mode autonome mais avec chauffeur dont visiblement il n’est rien fait pour s’assurer de son état de vigilance …
Le 25/05/2018 à 13h48
Ce qui me choque personellement, c’est que la voiture ne prend pas en compte la vitesse des objets qu’elle détecte. Vu de la voiture, la piétone était en rapprochement permanent donc, peu importe qu’il s’agisse d’un piéton, d’un vélo ou d’un animal, il faut l’éviter.
On dirait le comportement d’un enfant en bas age en train de traverser une route et incapable de savoir si une voiture au loin arrivera vite ou non sur lui.
Le 25/05/2018 à 13h56
Mais dans les fait ça l’est, entre :
et
pas sur que la sanction sera la même, mais je reconnais que pour une voiture autonome dans les deux cas elle ce doit de freiner au maximum. Et si les deux sont chacun sur une voie, j’écrase le mec. Même une IA devrait le faire, il a beaucoup plus de chance de s’en sortir face à une voiture qu’un enfant " />
Le 25/05/2018 à 14h11
Je pense qu’on estclairement dans le cas de “on voulait éviter que la voiture ne freine pourrien toute les deux secondes dès qu’elle détecte quelque chose sinon les gensvont trouver la conduite autonome au minium non fluide, au pire carrémentchiante” Du coup elle ignore certaines situation peu probable.” Et dans ce cas, le comportement du piéton était sans doute difficilementprévisible car il était drogué.
Le 25/05/2018 à 14h50
Le 25/05/2018 à 15h19
Le 25/05/2018 à 15h31
Le 25/05/2018 à 15h42
Le 25/05/2018 à 15h44
Le 25/05/2018 à 15h51
Ce que le rapport ne dit pas, c’est : si le véhicule avait été conduit par un être humain, le piéton s’en serait -il mieux sorti ? Perso, je ne crois pas. Au vu des images, je pense même que dans 100% des cas il se faisait frapper, freinage d’urgence, écart brutal ou pas.
Le 25/05/2018 à 15h56
C’est clair et selon moi c’est pour ça que le freinage d’urgence est désactivé, le “surveillant” freine comme il l’aurait fait en temps normal et on analyse ce que la voiture aurait fait, pour éviter les freinage intempestifs qui peuvent aussi être dangereux.
Le seul truc con c’est que là du coup la voiture pouvait voir quelque chose qu’un humain ne pouvait pas voir et que ça n’a pas été exploité, ils ont fait un choix après ce n’est peut-être pas le bon…