Accident mortel avec un véhicule autonome Uber : selon la police, la conductrice regardait The Voice

Accident mortel avec un véhicule autonome Uber : selon la police, la conductrice regardait The Voice

Accident mortel avec un véhicule autonome Uber : selon la police, la conductrice regardait The Voice

En mars 2018, un véhicule autonome du VTC percutait mortellement un piéton à Tempe en Arizona. Les autorités locales s'étaient rapidement emparées de l'affaire.

Un rapport préliminaire a été publié par le NTSB. Il ne donne pas encore la « cause probable » de l'accident, mais regroupe des éléments factuels (lire notre analyse). Il permet notamment de comprendre pourquoi la voiture avait détecté et ignoré le piéton.

La conductrice affirmait au régulateur qu'elle « surveillait l'interface de conduite autonome et que, même si ses téléphones personnels et professionnels étaient dans le véhicule, aucun d'entre eux n'était utilisé avant l'accident ».

Problème, selon un épais rapport de 318 pages de la police de Tempe examiné par TechCrunch, le smartphone de la conductrice Rafaela Vasquez « diffusait l'émission The Voice au moment de l'accident ».

« La police a déterminé que les yeux de Vasquez n'étaient pas sur la route pendant 3,67 miles sur les 11,8 miles parcourus au total, soit environ 31 % du temps ». La Police pense que la conductrice aurait pu éviter le drame si elle s'était concentrée sur la route. L'affaire a été transmise au procureur du comté de Maricopa pour une éventuelle mise en accusation d'homicide involontaire.

De son côté, Uber se contente d'affirmer une nouvelle fois collaborer avec les autorités locales. Un porte-parole ajoute : « Nous avons une politique stricte interdisant l'utilisation des appareils mobiles pour toute personne conduisant nos véhicules autonomes. Nous prévoyons de donner plus d'informations sur les changements que nous apporterons bientôt à notre programme ».

Commentaires (41)




Problème, selon un épais rapport de 318 pages de la police de Tempe examiné par TechCrunch, le smartphone de la conductrice Rafaela Vasquez « diffusait l’émission The Voice au moment de l’accident ».

« La police a déterminé que les yeux de Vasquez n’étaient pas sur la route pendant 3,67 miles sur les 11,8 miles parcourus au total, soit environ 31 % du temps »





Pour se mettre dans l’ambiance, parait qu’elle avait aussi retourner son siège ( <img data-src=" /> )


Ben voilà, comme ça Uber pourra dire que “nan, nan, nana notre techno est pas pourrie, c’est de la faute de la conductrice”…


“L’affaire a été transmise au procureur du comté de Maricopa pour une éventuelle mise en accusation d’homicide involontaire.”



Contre la conductrice (personne chargée de la surveillance du test) ?



On en parle du système d’Uber ?

&nbsp;-&gt; pas de freinage d’urgence fait par le système sur des obstacles non identifiés

&nbsp;-&gt; le système s’attend à ce que le chauffeur reprenne la main sans avertir ce dernier ….




« La police a déterminé que les yeux de Vasquez n’étaient pas sur la route pendant 3,67 miles sur les 11,8 miles parcourus au total, soit environ 31 % du temps ».

Il y a un capteur qui suit les yeux pour sortir une statistique aussi précise ?








lenul79 a écrit :



“L’affaire a été transmise au procureur du comté de Maricopa pour une éventuelle mise en accusation d’homicide involontaire.”



Contre la conductrice (personne chargée de la surveillance du test) ?



On en parle du système d’Uber ?

&nbsp;-&gt; pas de freinage d’urgence fait par le système sur des obstacles non identifiés

&nbsp;-&gt; le système s’attend à ce que le chauffeur reprenne la main sans avertir ce dernier ….





Ils pourront toujours justifier que la voiture est justement une voiture de tests, toutes les fonctionnalités n’étant pas au point, d’où la présence du conducteur indispensable (et qui ne matte pas the Voice du coup <img data-src=" />)



&nbsp;



Donc on va attaquer la “pilote de test” (ou plutôt l’intérimaire pousse bouton non formées) et pas la marque… Murica Fuck Yeah








eglyn a écrit :



Ils pourront toujours justifier que la voiture est justement une voiture de tests, toutes les fonctionnalités n’étant pas au point, d’où la présence du conducteur indispensable (et qui ne matte pas the Voice du coup <img data-src=" />)






 Ils n'en ont pas besoin. Même dans des appareil commerciaux ayant fini leur test, si il y a un humain à la barre à la fin, c'est toujours lui le responsable là bas, quoi qu'il arrive. L'industrie aérienne est un bonne exemple de ça, Boeing et DC ont vendu un packet d'appareil conceptuellement défectueux (statistiquement, une défaillance irrécupérable par le pilote devaient forcément se produire avant la fin de vie prévu de l'engin), et n'ont pas été plus inquiété que ça par la justice. C'est les pilotes qui sont responsables légalement, tout le temps, même quand le problème vient de la conception.     





Et même si ici la pilote n’aurait pas pu éviter l’incident (trop faible visibilité, aucune information du système affiché), le fait est que la voiture répondait toujours au volant, donc c’est réglé, elle sera déclaré première responsable (The Voice ou pas d’ailleurs). Après, les fautes de Uber seront ajouté comme cause ayant concourru à l’accident, mais ça, médiatiquement et juridiquement parlant, ça ne vaut rien.









FunnyD a écrit :



Il y a un capteur qui suit les yeux pour sortir une statistique aussi précise ?





Il y a une caméra qui filme la conductrice en permanence.



En même temps la nana son seul job c’était de regarder la route.



Ce sont des véhicules de test, pas pour rien qu’on met des personnes au volant censé être alertes pour reprendre la main quand c’est nécessaire. Si les gens recrutés pour faire ça préfèrent regarder des émissions de TV pendant leurs horaires de boulot au lieu de faire ce pourquoi ils sont payés, faut pas qu’ils s’étonnent si jamais ils ont des soucis en cas d’accident.


Un accident est rarement du a une cause mais a plusieurs causes mises ensembles …



Malheureusement, la conductrice va prendre cher … <img data-src=" />


La techno est pas au point encore, mais ça on le sait déjà. Je me pose la question du ratio d’accident : vu le faible nombre de véhicules de ce type en circulation, le nombre d’accident est élevé ou plus faible qu’avec le parc automobile standard?



C’est un peu le soucis de la médiatisation, c’est qu’on perd vite le fil et au final, autant il y a pas si longtemps, j’étais sur de la meilleur fiabilité de ces systèmes comparé à une conduite humaine, autant là avec les accidents à répétition, j’ai un doute…








Freeben666 a écrit :



En même temps la nana son seul job c’était de regarder la route.







This.



Au début de l’aventure des voitures autonomes j’ai été frappé par le nombre faramineux de kilomètres sans accidents et j’ai eu l’impression que la conduite autonome était pratiquement au point. C’était très naïf car, ce qui n’était pas précisé, c’est qu’on ne comptabilisait que les temps de conduite réellement autonomes sans tenir compte des reprises en main du conducteur humain. C’est comme si, en apprenant à conduire à quelqu’un, on notait le temps pendant lequel il ne commet aucune erreur sans compter les moments ou le moniteur reprend la main en urgence ou parce que la situation lui semble délicate. Les chiffres ne peuvent être que flatteurs puisque pendant tout ce temps le conducteur novice fait un sans faute.


Faut quand même rappeler qu’il s’agit d’une collision avec un piéton qui:




  • traverse une 4 voies

  • non éclairée

  • en pleine nuit

  • avec des vêtements sombres

  • sous l’effet de stupéfiant.



    Avec ou sans voiture autonome, si je fais la même chose, j’ai une chance quasi-certaine de finir en crêpe !



    Oui, la conductrice est responsable. C’est la loi. Mais je trouve qu’on fait tout un flan pour un fait divers dramatique qui se produit plus de 700 fois par jours dans le monde (nombre de piéton tué par un véhicule).


Voici enfin la preuve que la télé réalité tue.


Au final, une personne a perdu la voix en traversant une 4 voie durant une émission de La Voix.







Sortie par là, je sais, désolé…


pénalement c’est pourtant la personne au volant qui est responsable, surtout si on peut prouver que ce n’est pas du à un équipement défectueux ou à un code volontaire.



En gros un bug fait que la voiture est incontrôlable -&gt; la voiture et son proprio sont responsables. Une erreur humaine est à l’origine de l’accident ou aurait pu l’empêcher -&gt; le pilote est responsable



Par contre rien n’empêche de poursuivre la boite au civil (surtout aux US) où le besoin en preuve n’est pas le même.



Ca va se finir par une condamnation pour la conductrice et un gros chèque de la part d’Uber…



Le problème c’est que c’est justement ce genre de situation qui pourraient disparaitre avec l’arrivée des voitures autonomes. De plus ça doit être le premier cas du genre, donc la jurisprudence qui va en sortir pourrait modifier complètement la suite.








eglyn a écrit :



Ils pourront toujours justifier que la voiture est justement une voiture de tests, toutes les fonctionnalités n’étant pas au point, d’où la présence du conducteur indispensable (et qui ne matte pas the Voice du coup <img data-src=" />)



Une voiture avec ces réglages est plus proche d’un alpha test que d’un beta test… Et n’a donc rien à foutre sur la route (même si la femme au volant aurait dû être un peu plus attentive bien entendu).







Eldusole a écrit :



Faut quand même rappeler qu’il s’agit d’une collision avec un piéton qui:




  • traverse une 4 voies

  • non éclairée

  • en pleine nuit

  • avec des vêtements sombres

  • sous l’effet de stupéfiant.



    -Et que la voiture a détecté

    -Et qu’elle n’a quand même rien fait pour l’éviter.



Qu’aurait fait la conductrice si elle regardait la route, à part constater que la voiture n’avait pas évité l’accident ?








Cashiderme a écrit :



Qu’aurait fait la conductrice si elle regardait la route, à part constater que la voiture n’avait pas évité l’accident ?





de mémoire, elle a les commandes (volant, freins…) à dispo et il sont prioritaires sur l’automatisme

(sinon, ce système de test ne serait que de la torture <img data-src=" />)









WereWindle a écrit :



de mémoire, elle a les commandes (volant, freins…) à dispo et il sont prioritaires sur l’automatisme

(sinon, ce système de test ne serait que de la torture <img data-src=" />)







Je pense que c’est totalement illusoire. Le temps de comprendre que la voiture ne va pas eviter l’accident, à moins de s’appeller Steve Austin (ouh la vieille réference), le piéton est déjà mort, accès aux commandes ou pas.



pas faux mais y aurait eu des traces pneus qui auraient rendu le truc tout aussi tragique mais moins sordide <img data-src=" />








WereWindle a écrit :



pas faux mais y aurait eu des traces pneus qui auraient rendu le truc tout aussi tragique mais moins sordide <img data-src=" />







Sans doute <img data-src=" />

Quoique certaines traces de pneu sont assez sordides <img data-src=" /> (c’est gratuit, c’est pour moi).



Ça aurais au moins pu lui laisser une chance de se dégager de la responsabilité, avec un bon avocat, celà-dit.






C’est une 4 voies urbaine 200m avant un feu rouge, hein, ce n’est pas une autoroute à 130 !

&nbsp;


Je suis le seul à penser que humainement il est impossible de gérer un système semi automatique ?








skankhunt42 a écrit :



Je suis le seul à penser que humainement il est impossible de gérer un système semi automatique ?







Oui ? Si le système est bien fichu il n’y a pas de raison que ce soit impossible, ici en tout cas la conductrice est clairement en faute, j’espère qu’elle prendra cher… pas envie que les prémices des véhicules autonomes soient plombées par ce genre d’abruti(e)s.



D’un côté ça serait la première fois que quelqu’un est “coupable” d’avoir regarder the Voice !



Sinon la victime a été contrôlée positive à la métamphétamine et une autre drogue donc ça explique donc pourquoi elle a traversé n’importe où.








Cashiderme a écrit :



Je pense que c’est totalement illusoire. Le temps de comprendre que la voiture ne va pas eviter l’accident, à moins de s’appeller Steve Austin (ouh la vieille réference), le piéton est déjà mort, accès aux commandes ou pas.







Disons que ça aurait engagé majoritairement la responsabilité d’Uber et non pas celle de la conductrice.



La vidéo le démontrait bien qu’il était humainement impossible d’éviter l’accident. Mais là, en étant inattentive, la conductrice engage aussi sa responsabilité d’une certaine manière, elle ne remplit pas ses prérogatives de supervision du système autonome.



Alors, perso, j’en ai rien à faire de ce qu’elle regardait. Surtout que les “conducteurs” des véhicules autonomes d’Uber avaient déjà prévenu que réduire leur nombre de 2 à 1 par véhicule était dangereux pour l’attention. Car lorsque ton boulot, c’est passer des heures à ne rien faire car réellement, tout se passe normalement, sans aucun événement qui soit là pour réveiller ton attention, forcément que ton attention va décliner. Ton cerveau, il est pas con, il se dit “ça fait bien 30min que tu ne fais vraiment rien. Si tu continues à rien foutre tu va te faire rattraper par la concurrence. Trouve un truc à faire.”



Perso, ce qui m’intéresse, c’est dans l’article TechCrunch :







TechCrunch a écrit :



At 1.3 seconds before impact, the self-driving system determined that an emergency braking maneuver was needed to mitigate a collision, according to the NTSB. But Uber had disabled Volvo’s emergency braking system so it didn’t work when the vehicle was under computer control to reduce the potential for “erratic behavior.”







Le système autonome n’est pas resté totalement inerte, il a bien voulu essayer de freiner, mais si on lui coupe le bouton “frein d’urgence” c’est sûr que ça marche bien bien.

(pour rappel, avant que le pieton/cycliste soit bien identifier comme tel, c’était un objet non reconnu, qui pouvait aussi être une illusion d’optique, un artéfact visuel, c’est pour ça que le système n’a pas forcément réagi avant)



Oui c’est vrai, ils sont toujours en phase de test.



Mais vu qu’il n’y a pas de freinage d’urgence pour “éviter des comportements erratiques”, il faudrait peut être éviter les tests de nuit sur une route non éclairée pour le moment ….



L’idée que seule la conductrice soit tenue pour responsable me choque.


Ah mais c’est plus clair maintenant. Je ne comprenais pas pourquoi le système autonome “uber” n’avait pas freiné d’urgence après détection.



Mais en fait, ce n’est pas le système d’uber mais le système de Volvo qui a détecté l’obstacle, mais malheureusement pour lui, “uber” a préféré lui couper le contrôle pour éviter que deux ordis ne se battent. C’est logique, mais l’issue est fatale.



Ce n’est pas qu’il n’y a pas de freinage d’urgence, mais celui automatique de Volvo est désactivé.

Théoriquement il y a toujours le freinage de “uber”… encore faut il qu’il détecte l’obstacle.



Si je ne me trompe, le système de Vovlo est prévue pour un conducteur humain, d’où “urgence” si le système doit prendre le relais. Un système autonome doit intégrer son propre système de freinage, y compris d’urgence.








CryoGen a écrit :



Ce n’est pas qu’il n’y a pas de freinage d’urgence, mais celui automatique de Volvo est désactivé.

Théoriquement il y a toujours le freinage de “uber”… encore faut il qu’il détecte l’obstacle.





De ce que j’ai compris (il faut que je relise le rapport pour être sûr), le système uber doit non seulement détecter l’obstacle mais le “reconnaitre” pour s’activer (piétons, vélo, voiture, …). Si l’obstacle est non identifié -&gt; pas de freinage de la part du système autonome uber et c’est l’humain qui doit réagir.



Je comprends tout à fait leur volonté de couper le système de Volvo pour être certains qu’il n’y ait pas de conflit dans les commandes envoyées au véhicule.









Eldusole a écrit :



Faut quand même rappeler qu’il s’agit d’une collision avec un piéton qui:



  - traverse une 4 voies         

- non éclairée

- en pleine nuit

- avec des vêtements sombres

- sous l'effet de stupéfiant.






  Avec ou sans voiture autonome, si je fais la même chose, j'ai une chance quasi-certaine de finir en crêpe !        






  Oui, la conductrice est responsable. C'est la loi. Mais je trouve qu'on fait tout un flan pour un fait divers dramatique qui se produit plus de 700 fois par jours dans le monde (nombre de piéton tué par un véhicule).








 Le problème c'est que la voiture a vu les sacs accroché au vélo 6 secondes à l'avance (ce qui aurait pu déclencher une alerte), puis a reconnu le vélo lui-même 3,5 sec avant l'impact. Le contexte que tu détails est justement tout à l'avantage d'une voiture autonome, car :       

&nbsp;- elle voit mieux de nuit mal éclairé que de jour (LIDAR moins ébloui)

&nbsp;- elle voit mieux en terrain dégagé (LIDAR qui voit plus loin que l'oeil humain tant qu'il n'y a pas de distorsion comme un brouillard)

&nbsp;- elle cherche tous objets et non pas spécifiquement les personnes (hors si la personne était peu visible car en noir, le vélo était lui bien visible)

&nbsp;- elle ne présume pas d'un réaction normal (elle calcul les risques de collision de manière plus large et exhaustive qu'un être humain).






 Ce n'est donc pas un fait divers banale, c'est un échec complet pour Uber qui n'a aucune circonstance atténuante (ça aurait été dans le brouillard par exemple, j'aurais rien dit). Cette personne n'aurait pas dû être blessé si la voiture avait été conçu en respectant les règle de sécurité élémentaire. Hors ces règles ont été volontairement désactivé pour accélérer les tests...








odoc a écrit :



Le problème c’est que c’est justement ce genre de situation qui pourraient disparaitre avec l’arrivée des voitures autonomes.







Les vélos qui traversent la route ? Ou les gens qui regardent The Voice ? <img data-src=" />



Les voitures qui tuent ;)

Pour le reste aucune technologies n’empêchera les gens d’être idiot. Malheureusement <img data-src=" />








odoc a écrit :



Les voitures qui tuent ;)







Avec le mauvais codeur/hacker, il se pourrait que les voitures autonomes deviennent des tueuses. <img data-src=" />



Y a le bonet le mauvais codeur <img data-src=" />









CryoGen a écrit :



Ah mais c’est plus clair maintenant. Je ne comprenais pas pourquoi le système autonome “uber” n’avait pas freiné d’urgence après détection.



Mais en fait, ce n’est pas le système d’uber mais le système de Volvo qui a détecté l’obstacle, mais malheureusement pour lui, “uber” a préféré lui couper le contrôle pour éviter que deux ordis ne se battent. C’est logique, mais l’issue est fatale.





De ce que j’ai compris (il faudrait aller voir les 300pages du rapport) ce n’est pas ça, c’est que la partie autonome avait bien accès à un système d’arrêt d’urgence (surement celui de volvo) mais que Uber a semblé bon de couper pour éviter que la voiture se mette à piler en plein milieu de la route au premier insecte qui passerait devant les phares.

Comme on le dit souvent, un accident, c’est rarement la faute d’une seul chose, mais c’est tout une cascade d’événement et d’erreurs.



Je comprends pas comment on pourrait défendre la conductrice. Son boulot c’est de faire attention à la route pour tenter de corriger les erreurs que pourrait commettre la voiture, mais plus que ça c’est surtout la loi qui l’oblige à rester attentive même dans une voiture autonome. On ne sait pas si l’accident était inévitable puisqu’elle n’a pas fait le minimum pour l’éviter : regarder la route. Normal qu’elle soit responsable.


Fermer