Connexion
Abonnez-vous

Accident mortel Uber : la voiture aurait détecté mais ignoré le piéton, la société engage un ancien du NTSB

Accident mortel Uber : la voiture aurait détecté mais ignoré le piéton, la société engage un ancien du NTSB

Le 09 mai 2018 à 09h36

Depuis le 20 mars, la société de VTC est empêtrée dans un tragique accident mortel dans lequel est impliquée une de ses voitures autonomes. La police locale a d'ailleurs publié les vidéos des caméras de la voiture,soulevant plusieurs questions.

Si Uber a signé un accord avec la famille de la victime, l'enquête suit son cours aux États-Unis. Selon The information, les capteurs auraient détecté le piéton avec son vélo, mais à cause de certains réglages logiciels, le véhicule « aurait décidé qu'il n'avait pas besoin de réagir tout de suite ». Un faux positif tragique...

La société se refuse pour le moment à tout commentaire, l'enquête étant toujours en cours. Elle confie néanmoins à Reuters qu'elle a recruté Christopher Hart, ancien président du NTSB (National Transportation Safety Board), comme conseiller sur la sécurité. L'homme connaît bien le sujet puisqu'il était à la tête du Conseil national de la sécurité des transports lors de l'enquête sur l'accident mortel impliquant une Tesla Model S.

Le 09 mai 2018 à 09h36

Commentaires (27)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

“Excusez nous, la voiture à pris votre fille pour un sac plastique volant sur la chaussée” donc au final c’est bel et bien la faute exclusive d’Uber, mais ses voitures vont repartir et bientôt même des hélicos, vous pouvez reprendre une activité normale.

votre avatar

Par contre je me demande l’utilité de placer un ‘conducteur humain de secours’ avec un tel système, est-ce pour rassurer les organismes ?

Il ne peut être humainement attentif à  100% alors que le système est plutôt efficace (quand il n’y a pas de piéton …sic!) et que la personne ne doit pas agir sur le volant ni sur les pédales pour ne pas perturber la conduite autonome.

D’autre part le temps de réaction du superviseur humain est sensé être de combien pour : voir l’obstacle, analyser et comprendre qu’il pourrait y avoir impact si le système autonome ne fait rien, comprendre que le système ne réagit pas correctement au problème, prendre les commandes et réagir de façon appropriée alors qu’il n’a pas les mains sur le volant???

sachant que la sécurité routière estime à 2 secondes le temps de réaction humain moyen en étant attentif et au commande du véhicule.

 j’imagine qu’il faut au bas mot 5 secondes pleines, montre en main, même si elle regardait la route attentivement.

Je ne pense pas qu’elle aurait pu changer quoi que ce soit à l’impact, tout se passe en moins de 2 secondes entre le moment ou le piéton apparait et le choc.

 

Ne faudrait-il pas signaler aux autres usagers que la voiture est autonome?

ce serait pourtant facile d’ajouter une lumière quelconque devant et derrière sur le véhicule pour dire ‘attention système de conduite autonome’

votre avatar

C’est compliqué de mettre ça sur le dos d’un réglage anti-parasite. Le lidar a clairement du voir venir la personne de loin vu l’environnement et la vitesse de la personne. Ça va plus loin qu’un simple “pas de chance, dans ces conditions elle ressemblait à un objet de 10cm de haut inoffensif”, c’est carrément que Uber a fait circuler des voitures absolument incapable de réagir à son environnement.



Tout comme quand leurs voitures grillaient les feux rouges en fait. Ouais, rien de nouveau donc, leur voitures étaient incapables de rouler de façon autonome, et elles le sont toujours.

votre avatar







secouss a écrit :



“donc au final c’est bel et bien la faute exclusive d’Uber, mais ses voitures vont repartir et bientôt même des hélicos, vous pouvez reprendre une activité normale.





L’enquête étant toujours en cours, c’est un peu hâtif de tirer des conclusions dès maintenant <img data-src=" />


votre avatar







secouss a écrit :



“Excusez nous, la voiture à pris votre fille pour un sac plastique volant sur la chaussée” donc au final c’est bel et bien la faute exclusive d’Uber, mais ses voitures vont repartir et bientôt même des hélicos, vous pouvez reprendre une activité normale.





A partir du moment où il y a une personne physique qui est derrière le volant pour prendre le contrôle si nécessaire, je dirais que non.


votre avatar







ricozed a écrit :



Par contre je me demande l’utilité de placer un ‘conducteur humain de secours’ avec un tel système, est-ce pour rassurer les organismes ?

Il ne peut être humainement attentif à  100% alors que le système est plutôt efficace (quand il n’y a pas de piéton …sic!) et que la personne ne doit pas agir sur le volant ni sur les pédales pour ne pas perturber la conduite autonome.







Dans ce cas pourquoi demander à des militaires de faire des rondes dans le desert de plusieurs heures, ils ne peuvent pas être attentifs tout le temps (idem pour un ouvrier dans une usine de prod automatisé, …) au final il ne faut pas penser dans le sens attentif, mais dans le sens de la capacité à reprendre le contrôle et à agir en conséquence. Ainsi tu met en ligne de compte la partie “prise de conscience de défaut”, le choix de la réaction, la réaction et la gestion des conséquences de la réaction.







Bejarid a écrit :



C’est compliqué de mettre ça sur le dos d’un réglage anti-parasite. Le lidar a clairement du voir venir la personne de loin vu l’environnement et la vitesse de la personne. Ça va plus loin qu’un simple “pas de chance, dans ces conditions elle ressemblait à un objet de 10cm de haut inoffensif”, c’est carrément que Uber a fait circuler des voitures absolument incapable de réagir à son environnement.



Tout comme quand leurs voitures grillaient les feux rouges en fait. Ouais, rien de nouveau donc, leur voitures étaient incapables de rouler de façon autonome, et elles le sont toujours.







Pas mieux, totalement d’accord, la sécurité est pas dans les fonctions critiques d’Uber…. Leur but c’est de commercialiser le bordel pour le prix le plus modique.







Charly32 a écrit :



L’enquête étant toujours en cours, c’est un peu hâtif de tirer des conclusions dès maintenant <img data-src=" />







Certes, mais disons que les informations données sont quand même assez… explicite… et quand la société décide de lancer une guerre d’image (embauche d’un guguss du NTSB) tu te doute bien qu’ils sont pas tout blanc


votre avatar







secouss a écrit :



Certes, mais disons que les informations données sont quand même assez… explicite… et quand la société décide de lancer une guerre d’image (embauche d’un guguss du NTSB) tu te doute bien qu’ils sont pas tout blanc





En faute ou pas en faute, l’entreprise ne peut se passer de “damage control” : comme pour l’avion, la voiture autonome se doit d’être d’une fiabilité à toute épreuve. Car l’opinion publique refusera que la machine puisse être faillible.

Quant aux informations données, c’est bien parce qu’elles sont incomplètes (on a pas le contexte qui a conduit à ce comportement du programme) que je préfère éviter de tirer des conclusions.



Il est tout à fait possible que tu sois dans le vrai, mais il existe tout de même des scenarios où la faute pourrait, au moins en partie, venir d’ailleurs.

&nbsp;

&nbsp;


votre avatar

On l’a vu a la google I/O hier, les voitures autonomes sont loin de comprendre correctement tous les cas de figures se présentant.

&nbsp;Personnes déguisées, portant un objet encombrant, comportements humains aberrants, mauvais temps,… les accident sont pas près de s’arrêter, hélas.

&nbsp;







ricozed a écrit :



&nbsp;prendre les commandes et réagir de façon appropriée alors qu’il n’a pas les mains sur le volant???



&nbsp;

Un gros bouton arrêt d’urgence au centre de l’habitacle.


votre avatar

La fille avec le vélo ben elle se suicide c’est tout.

votre avatar

Pour ainsi dire, tant qu’il y aura des humains, ou tout autre forme d’événement proche de l’aléatoire, il sera difficile de faire une machine 100% fiable. Elle pourra être cependant, bien plus fiable qu’un être humain.



J’ai l’impression que les véhicules autonome traite l’information en passant d’abord par un premier “logiciel” les donnée d’entrée afin d’identifier les objets alentour. De ce que je comprends dans la phrase “les capteurs auraient détecté le piéton avec son vélo, mais à cause de certains réglages logiciels, le véhicule « aurait décidé qu’il n’avait pas besoin de réagir tout de suite ». ” c’est que cette première phase s’est bien déroulé, le piéton a bien été identifier. Mais la suite des autres “logiciels” n’ont pas considérer que le piéton soit un danger potentiel.

En soit, il ne faut pas grand chose, par exemple, scénario bateau, il voie “humain+ vélo” qu’il identifie comme un cycliste. Celui-ci est sur la voie de gauche, pas de passage piéton, pas de croisement, OK, c’est donc un cycliste qui roule sur la voie de gauche, du coup, RàS, continuons notre chemin.

votre avatar







secouss a écrit :



“Excusez nous, la voiture à pris votre fille pour un sac plastique volant sur la chaussée” donc au final c’est bel et bien la faute exclusive d’Uber





Punaise t’es plus fort qu’un expert du NTSB, arrêtez tout y’a même plus besoin d’enquête.


votre avatar

Ils ont retrouvé dans les logs de la voiture “Si ça passait c’était beau !” <img data-src=" />

votre avatar







Obidoub a écrit :



Punaise t’es plus fort qu’un expert du NTSB, arrêtez tout y’a même plus besoin d’enquête.







Sur des machines de productions qui font de l’analyse d’image (pour le contrôle qualité) on arrive à avoir des faux positif et faux négatifs pourtant c’est du statique et le même type de pièce qui est pris en photo. Donc oui dans un environnement ouvert le risque est décuplé… Et la réponse “le programme l’a pas prise pour un humain donc n’a pas ralenti” c’est la pire des excuses…



Lorsque le programme à un doute il doit privilégié la sécurité, la force d’un logiciel d’analyse (et c’est le plus dur) c’est qu’il sache émettre un “doute raisonnable” dans ce cas, soit il signale au conducteur le souci (conduite assistée) soit il réduit sa vitesse et augmente la distance de sécurité pour éviter un risque. Si c’était pas une fille mais un élan et que la voiture l’avais percuté le conducteur serait plus de ce monde…


votre avatar







iksarfighter a écrit :



La fille avec le vélo ben elle se suicide c’est tout.





Tout à fait.

C’est un Darwin Arward, on passe à la suite, pas de quoi en faire un drame, mais juste un correctif logiciel. <img data-src=" />

Par contre, ça peut tout à fait faire chier si une voiture autonome se met à piler sans aucune raison (mauvaise détection) et que tu l’emboutis, c’est toi qui sera en tort.

Alors que dans bon nombre de situations, les automobilistes ne respectent pas les distances de sécurité ou celles-ci ne peuvent pas être respectées dans un flux très dense, en ville par exemple.

Personne n’a suffisamment de distance de sécurité et de rapidité pour réagir à un arrêt brusque inattendu en toute circonstance.

Cela devrait être le cas mais je doute que ça le soit pour tout le monde à tout instant de la conduite : perso, je mets mon pied en l’air sur le frein à chaque passage susceptible d’être dangereux), mais il est difficile d’être le pied en l’air tout le temps.


votre avatar







ProFesseur Onizuka a écrit :



Ils ont retrouvé dans les logs de la voiture “Si ça passait c’était beau !” <img data-src=" />





C’est un honey pot ! le vrai log c’est “You are incompatible, you will be deleted!”


votre avatar

En fait, l’idée est que le conducteur doit être très attentif.

En tout cas c’est comme cela pour qualifier les avions et les hélicoptères, dès que&nbsp; le pilote touche à quoi que ce soit le système est recalé.



Par la suite, on fait des tests de pannes:

Pour chacune des pannes crées artificiellement le pilote ne doit toucher les commandes avant plusieurs secondes pour que le système soit qualifié.

C’est à dire que si le pilote, lors d’une panne, touche les commandes avant le temps impartit, parce qu’il ne se sent plus en sécurité, le système est recalé. En effet une panne ne doit pas mettre la machine en une situation délicate même s’il y a une panne, quelle qu’elle soit.

votre avatar







iksarfighter a écrit :



La fille avec le vélo ben elle se suicide c’est tout.









J’ai pensé la même chose. Un suicide déguisé en accident comme c’est courant.



Car traverser une voie rapide, la nuit alors qu’il est très facile de voir les phares d’une voiture….Il faut soit être aveugle et sourd ou soit être suicidaire.



Reste qu’une voiture autonome aurait du détecter facilement cette personne.


votre avatar

#modecomplot



Ca y est Skynet a enfin trouvé une solution et a tué Sarah Connor

votre avatar







ProFesseur Onizuka a écrit :



Ils ont retrouvé dans les logs de la voiture “Si ça passait c’était beau !” <img data-src=" />





<img data-src=" />


votre avatar







secouss a écrit :



(…)

Lorsque le programme à un doute il doit privilégié la sécurité, la force d’un logiciel d’analyse (et c’est le plus dur) c’est qu’il sache émettre un “doute raisonnable” dans ce cas, soit il signale au conducteur le souci (conduite assistée) soit il réduit sa vitesse et augmente la distance de sécurité pour éviter un risque. Si c’était pas une fille mais un élan et que la voiture l’avais percuté le conducteur serait plus de ce monde…





Et si c’etait la fille d’un elan?

Voire la fille d’un Elan Muské?

<img data-src=" />


votre avatar







secouss a écrit :



Lorsque le programme à un doute il doit privilégié la sécurité, la force d’un logiciel d’analyse (et c’est le plus dur) c’est qu’il sache émettre un “doute raisonnable” dans ce cas, soit il signale au conducteur le souci (conduite assistée) soit il réduit sa vitesse et augmente la distance de sécurité pour éviter un risque. Si c’était pas une fille mais un élan et que la voiture l’avais percuté le conducteur serait plus de ce monde…







Il faut que ce soit le véhicule qui prenne la décision (ralentir, etc).

Il s’agit d’autonomie de niveau 4, voire 5, donc le conducteur n’a aucune attention, ou n’existe plus, il est passager. Signaler un problème ne changerait rien puisque le conducteur ne peut plus intervenir. (raison pour laquelle je trouve le niveau 5 stupide)


votre avatar

Moi je respecte autant que je peux la distance de sécurité, le pied posé sur l’embrayage, le pied en l’air sur le frein et malheureusement avec un œil sur le rétro parce que le connard (ou la conasse, n’oubliant pas la parité !) derrière il/elle&nbsp; est carrément collé.

votre avatar

Ca dépend du lieu où tu te trouves, des piétons qui traversent n’importe où n’importe comment sans se soucier des voitures autour d’eux en se jetant littéralement sous tes roues c’est un comportement pratiquement normal Boulevard Barbès et ses alentours.

Alors certes c’est pas une voie rapide mais t’as intérêt à avoir des yeux partout si tu ne veux pas finir avec un piéton sur le capot ou sous tes roues.

Là bas une voiture autonome va soit faire un strike-maxi-combo soit s’arrêter jusqu’à ce que les dangers alentours disparaissent, définitivement quoi.

votre avatar

Le soulèvement des machines…



John Connor nous avait pourtant prévenu!

votre avatar







barlav a écrit :



Et si c’etait la fille d’un elan?

Voire la fille d’un Elan Muské?

<img data-src=" />







<img data-src=" /> <img data-src=" /> <img data-src=" />


votre avatar







Charly32 a écrit :



En faute ou pas en faute, l’entreprise ne peut se passer de “damage control” : comme pour l’avion, la voiture autonome se doit d’être d’une fiabilité à toute épreuve. Car l’opinion publique refusera que la machine puisse être faillible.

&nbsp;&nbsp;





Et à juste titre. Car si certains vont nous ressortir la sempiternelle théorie affirmant que l’IA est statistiquement meilleure que l’humain (on doit nous la servir depuis wargame cette affirmation), de fait sur cet événement particulier une humain normalement constitué aurait pu au moins freiner (sinon l’éviter).



Si je trouve que dans l’ensemble l’aide à la conduite a fait de sérieux progrès, ça me semble en revanche totalement dingue que des voitures autonomes circulent dans les espaces publiques sans chauffeur, là où on nous montre surtout des machines qui sont au mieux en phase d’apprentissage.


votre avatar

&nbsp;







crocodudule a écrit :



&nbsp;sur cet événement particulier une humain normalement constitué aurait pu au moins freiner (sinon l’éviter).





Pour cet accident, ni l’IA, ni l’humain n’ont réagi.

Alors on pourra spéculer que l’humain n’était pas aussi attentif que si la voiture n’était pas munie d’un dispositif, mais ça, c’est l’enquête en cours qui le déterminera.

&nbsp;





crocodudule a écrit :



Si je trouve que dans l’ensemble l’aide à la conduite a fait de sérieux progrès, ça me semble en revanche totalement dingue que des voitures autonomes circulent dans les espaces publiques sans chauffeur





Je ne crois pas que de tels systèmes soient autorisés sur route ouvertes de manière permanente, sans assistante de la part d’un chauffeur (j’ai peut-être tort, les annonces s’étant multipliées ces derniers temps).


Accident mortel Uber : la voiture aurait détecté mais ignoré le piéton, la société engage un ancien du NTSB

Fermer