Accident d’une Tesla : le NTSB pointe du doigt une mauvaise utilisation de l’autopilot
Le 05 septembre 2019 à 09h44
1 min
Sciences et espace
Sciences
Les accidents des voitures Tesla sont suivis de près, notamment lorsque le « pilote automatique » est activé. En janvier 2018, une Model S s'est encastrée dans un camion de pompiers à l'arrêt sur l’Interstate 405 à Culver City (Californie).
Dans son rapport, le NTSB explique être « parvenu à la conclusion que la probable cause de l’accident est l’absence de réaction du conducteur de la Tesla face au camion de pompiers en stationnement sur sa file ».
Le Conseil national de la sécurité des transports ajoute que c'est le résultat d'une « dépendance excessive au système d’assistance à la conduite ». Pendant plus de 12 minutes avant l'accident, le conducteur n'avait en effet plus mis les mains sur le volant et a ignoré les avertissements répétés de la voiture.
Au final, ni la voiture ni le conducteur n'ont freiné, provoquant l'accident. Le NTSB charge le conducteur qui s'est reposé sur l'Autopilot « de façon incohérente avec les conseils et les avertissements de Tesla ».
Le 05 septembre 2019 à 09h44
Commentaires (42)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 05/09/2019 à 09h09
Je comprend le concept qu’ils avancent “l’autopilot n’est pas un autopilot il faut surveiller” mais encore une fois le NTSB s’écrase face à Tesla en ne remettant pas en cause le nom et la communication de l’entreprise !
Au final nous avons ici un accident causé par l’autopilot a cause d’un défaut qui ne semble pas identifié ni traité ! On préfère accuser l’utilisateur plutôt que le véhicule !
Encore une belle preuve que le NTSB est sous perf et influence … c’est dommage, dans l’histoire ils ont fait du mal à beaucoup de constructeur pour le bien des utilisateurs !
Le 05/09/2019 à 09h19
Faut pas déconner non. Y a combien de voiture équipé de “freinage d’urgence automatique” qui ne voient pas tous les obstacles, et la personne ne râle ?
Le 05/09/2019 à 09h24
C’est quand même le béaba pour un système de conduite autonome de ne pas foncer dans un obstacle à l’arrêt. Si Tesla n’est même pas capable d’assurer cela, qu’il cesse de proposer l’autopilot, ou qu’il le rebaptise “assistance au suicide”.
Le 05/09/2019 à 09h32
On peut aussi se demander pourquoi la fonction “autopilot” n’a pas été désactivée après 12 minutes sans toucher le volant …
Il me semble qu’en France, la désactivation est bien plus rapide. Et surtout il n’est pas toujours possible de réactiver l’autopilot lorsqu’on a été laxiste sur la tenue du volant !
Le 05/09/2019 à 09h34
J’avoue que je suis un peu d’accord avec sinbad21… J’aimerai beaucoup comprendre comment il est possible de ne pas “voir” (je parle pas que des camera mais des radars, lidars et compagnie) un camion de pompier à l’arrêt devant la voiture…
Le 05/09/2019 à 09h45
Le 05/09/2019 à 10h01
un bug tout “simplement” ? une des première générations, qui avaient moins de capteurs/ moins performant ?
Tesla utilise bcp la vision et n’embarque pas de lidar ( volumineux et cher, ça marche bien pour les voiture de test, mais pas design ni aéro dynamique tant qu’on as pas de version miniaturisé à bas prix ) la fameuse histoire du camions blanc + soleil + pas de protection latéral, la voiture, ni le conducteur l’on vu …
Le 05/09/2019 à 10h06
Moi ce qui m’alerte le plus, c’est qu’on arrive aux conclusions de l’accident en Septembre alors qu’il a eu lieu en janvier 2018 ! C’est vraiment super réactif pour analyse et potentiellement corriger un problème à risque.
Ou alors la News tombe seulement mais le rapport était bien plus ancien…
Le 05/09/2019 à 10h08
Le 05/09/2019 à 10h27
Un autopilote sans autopilote, c’est concept… " />
On se croirait dans Y a-t-il un pilote dans l’avion.
Le 05/09/2019 à 10h29
Le 05/09/2019 à 10h36
C’est un accident qui a eu lieu a 45 km/h sans blessé. je doute fortement qu’il soit en haut de la pile du NTSB.
Probablement que le pattern du camion de pompier qui clignote n’a pas été reconnu par le système, ni par le conducteur qui en plus de manger son bagel et boire son café, faisait joujou avec son téléphone sur l’autoroute.
Pour ceux intéressé par le rapport :
https://fr.scribd.com/embeds/424337165/content?start_page=1&view_mode=&a…
Le 05/09/2019 à 11h19
Le 05/09/2019 à 11h21
Le 05/09/2019 à 11h53
Le 05/09/2019 à 11h57
Le 05/09/2019 à 12h04
La différence c’est que c’est un freinage d’urgence, donc un truc en dernier recours, si tu n’as pas réagis, et là pour limiter la casse.
Là on parle d’un “autopilote”.
L’approche n’est pas du tout la même et le nom pas aussi vendeur/menteur.
Par contre, c’est forcément ultra rassurant pour les voitures autonomes de ne pas voir un obstacle à l’arret de la taille d’un camion… Quand c’est un camion en latéral avec la hauteur etc, je comprends bien le problème, mais un véhicule à l’arret là je vois pas bien l’excuse. " />
Le 05/09/2019 à 12h14
Je suis assez d’accord avec ça, après il y a des cas spécifiques, mais ça ne devrait pas rentrer en production si on a de telles lacunes… Parce que pour le coup ça fait beta testeur….
Le 05/09/2019 à 12h17
Ok le système de freinage d’urgence n’est pas vendu comme infaillible, tout comme l’autopilot de Tesla et même celui des avions.
Le 05/09/2019 à 12h19
C’est pas tout à fait vrai, le système de Tesla se désactive bien pourtant (vu plusieurs fois sur le net et confirmé par des propriétaires)
Apparemment il est par contre assez facile de faire croire à la voiture qu’on a les mains sur le volant… ce qui impliquerait une action volontaire de dépasser le cadre d’utilisation de la fonction Autopilot.
Le 05/09/2019 à 12h25
La conclusion du NTSB est correcte puisque, au final, la responsabilité de l’accident incombe bien au conducteur qui n’a pas repris le contrôle alors que sa voiture ne réagissait pas au camion de pompier. Car, comme rappelé dans un commentaire précédent, le “autopilot” de Tesla n’est qu’une assistance à la conduite (certes très évoluée) et certainement pas un système de conduite autonome.
Personnellement, je trouve un tel système idiot car ça demande à rester concentrer sur la route mais sans rien faire.
Par contre, il est tout à fait juste de se poser la question : pourquoi l’autopilot n’a t-il pas détecté le camion ?
Cela prouve que Tesla a encore beaucoup boulot pour améliorer son système. De plus, l’absence de lidar ne doit pas arranger les choses.
Le 05/09/2019 à 12h32
Dans ce cas il ne faut pas dire que ces incidents sont suivis de près " />
Le 05/09/2019 à 12h39
Je te copie le lien du site de tesla :
https://www.tesla.com/autopilot
“All new Tesla cars come standard with advanced hardware capable of providing Autopilot features today, and full self-driving capabilities in the future—through software updates designed to improve functionality over time.”
Je te l’accorde c’est écrit “in the future” puis plusieurs fois “assist” et jamais qu’il fait tout tout seul … Sauf qu’il n’y as pas de formation à la “supervision” du pilote automatique alors qu’un pilote d’avion si :)
Au final la description est très fortement trompeuse et c’est bien là que réside le problème…
Le 05/09/2019 à 12h41
Le 05/09/2019 à 12h43
Le 05/09/2019 à 14h05
Le 05/09/2019 à 14h48
Wow, pour être autant énervé envers Tesla il t’es arrivé quelque chose ? Elon t’as fait du mal ? Tu veux en parler ? #BalanceTonPorc
Le 05/09/2019 à 16h14
La technologie Tesla ne repose pas sur le LIDAR, uniquement la reconnaissance visuelle et les radars classiques.
Le 05/09/2019 à 16h19
Autopilot = automatic pilot = pilote automatique
ils ont beau dire que ce n’est qu’un système d’assistance de pilotage, le nom ne signifie pas la même chose
Le 05/09/2019 à 19h47
On s’en fout du nom mais d’une force…
Le 06/09/2019 à 04h21
C’est bien pour ça que l’Autopilot n’est pas vendu par Tesla comme un système de conduite autonome mais comme une assistance…
Le 06/09/2019 à 05h59
Le 06/09/2019 à 06h02
Le 06/09/2019 à 07h07
Le 06/09/2019 à 07h08
Le 06/09/2019 à 08h21
Tu compares des produits avec une fonctionnalité
Le 06/09/2019 à 08h59
Le 06/09/2019 à 09h15
Le problème c’est que si c’est mis dans le détail,
“Pilotage Automatique”
https://www.tesla.com/fr_FR/autopilot
Et il est bien précisé:
“Autopilot permet à votre véhicule de maintenir une trajectoire, d’accélérer et de freiner automatiquement dans sa voie.”
Alors ok dans le détail tu peux voir marqué à la toute fin:
“Les fonctionnalités actuelles de l’Autopilot exigent une surveillance active de la part du conducteur et ne rendent pas le véhicule autonome.” Mais on te parle juste d’une surveillance active or en fait, c’est une intervention active du conducteur qu’il faut….
Donc si je suis désolé c’est volontairement flou et c’est de base en grande partie à cause du nom, nom volontairement choisi, là ou les autres parlent d”assistance au maintient dans la voie, ou de régulateur adaptatif.
Le 06/09/2019 à 09h32
Le 06/09/2019 à 11h27
Le 06/09/2019 à 12h58
C’est quand même du bon foutage de g… de la part de Tesla : on vend un système absolument pas fini, auquel on donne un nom qui donne bien à penser que le véhicule peut se démerder tout seul, et on renforce ça avec une campagne de comm sans fin sur les véhicules totalement autonomes que la marque va vendre (pas maintenant, mais ça on le dit pas trop fort). Résultat, les acheteurs sont paumés et utilisent mal le système, qui au passage, ne prend aucune action quand le conducteur ne s’occupe gère plus la conduite.
Par comparaison, j’ai testé une kia e-niro, il y a une fonction d’aide au suivi de voie (déjà le nom est clair sans être obligé de lire un texte qui mélange allègrement ce qui est et ce que la marque aimerait vendre un jour), on peut lâcher le volant 12 secondes, puis il y a un rappel (ça bip) et si on ne reprend pas, le véhicule arrête le braquage (dsl, pas trouvé mieux pour traduire ‘steering’) automatique. Ça fait toute suite moins branque même si le système en lui même est moins avancé que celui de Tesla.
Le 09/09/2019 à 12h31