Accident mortel : le NTSB pointe du doigt le pilote automatique de Tesla
Mains sur le volant ET yeux sur la route
Le 18 septembre 2017 à 13h59
7 min
Sciences et espace
Sciences
Suite à l'accident mortel impliquant un poids lourd et une Tesla Model S avec pilote automatique, le Conseil national de la sécurité des transports américains (NTSB) a présenté les conclusions de son enquête. Selon l'agence, les deux conducteurs auraient pu éviter l'accident. Le pilote automatique est aussi pointé du doigt.
Mai 2016, un accident mortel impliquait une Tesla Model S avec le pilote activé, le premier du genre selon le fabricant. Ce dernier avait d'ailleurs expliqué que les conditions de l'accident étaient le fruit d'une conjonction de faits « extrêmement rares », dont l'issue avait été fatale.
Rappelons pour résumer que la Tesla roulait sur une route avec chaussées séparées lorsqu'un semi-remorque a traversé les voies. Il s'est donc retrouvé perpendiculaire à la trajectoire de la voiture. Problème, « ni le pilote automatique, ni le conducteur n'ont remarqué le flanc blanc de la remorque du semi-remorque face à un ciel très lumineux ». La Model S est donc venue s'encastrer sous la remorque du camion (les freins n'ont pas été actionnés) causant de très graves dégâts et la mort du conducteur (il était le seul occupant de la voiture). Aucune autre personne n'a été blessée.
Deux agences, deux enquêtes et... deux conclusions différentes
Bien évidemment, des enquêtes ont été ouvertes par les autorités compétentes. Les conclusions étaient attendues, car il s'agit du premier cas du genre. La première à rendre son verdict était la National Highway Traffic Safety Administration (NHTSA), une agence fédérale qui dépend du Département des Transports des États-Unis (DOT). Elle se charge de définir et faire appliquer des normes de sécurité.
Ses conclusions étaient sans appel : le pilote automatique était hors de cause. Dans son rapport, l'agence expliquait que le conducteur avait eu au moins 7 secondes pour réagir, alors qu'il faut normalement 3 secondes dans ce genre de situation. L'Agence ne s'étale par contre pas sur les causes de l'inaction du conducteur. Elle ajoute que ce dernier avait décidé d'augmenter la vitesse à 74 mph (environ 119 km/h) alors que la limite était de 65 mph (environ 105 km/h), moins de deux minutes avant l'impact.
Bref, « un possible défaut lié à la sécurité n'a pas été identifié pour le moment et un examen plus approfondi ne semble pas justifié. Par conséquent, cette enquête est close » expliquait le National Highway Traffic Safety Administration. Dans son rapport détaillé, elle allait même jusqu'à vanter les mérites du pilote automatique qui permettrait de réduire de près de 40 % le nombre d'accidents (voir cette actualité).
La seconde enquête était menée par la National Transportation Safety Board (NTSB), une agence indépendante qui analyse les accidents en tout genre afin d'en déterminer les causes. Sa mission est aussi de vérifier la conformité aux normes de sécurité et leur adéquation. Elle ne peut en revanche pas procéder à des rappels, contrairement à la NHTSA.
Surprise, la conclusion n'est pas vraiment la même : alors que le NHTSA vantait les mérites de l'Autopilote, le NTSB pointe du doigt les deux chauffeurs et le rôle joué par le pilote automatique de la Model S.
Le NTSB tire tous azimuts : les deux conducteurs et le pilote automatique
Elle met en avant deux « causes probables » pour expliquer cet accident. D'un côté, le chauffeur du camion n'a pas cédé le passage à la voiture (pour tourner à gauche il était contraint de couper les deux voies roulant en sens inverse). De l'autre, l'inattention du conducteur de la Model S qui se serait trop reposé sur le pilote automatique. La combinaison de ces deux facteurs a conduit à cet accident ayant entrainé la mort, alors que la visibilité était suffisante pour laisser le temps aux deux conducteurs de réagir.
Si le NTHSA n'était entré dans les détails pour expliquer la non-réaction du conducteur, ce n'est pas le cas du NTSB. L'Agence ajoute en effet un point important : « le design opérationnel a contribué à l'excès de confiance du conducteur envers le pilote automatique, ce qui lui a permis de se désintéresser de manière prolongée de la conduite et d'utiliser ainsi le pilote automatique de manière incompatible avec les conseils et recommandations du fabricant ».
Si les enquêteurs affirment que le conducteur de la Tesla n'était pas attentif à la route – un point sur lequel tout le monde semble s'accorder – ils n'ont pas été en mesure de déterminer avec certitude les causes de cette inattention avec les preuves dont ils disposaient. Certains laissaient entendre qu'il regardait un film sur un lecteur portable, mais ce n'est confirmé ni par le NHTSA, ni par le NTSB.
Une série de recommandations, certaines pour le NHTSA
En plus de ses conclusions, l'Agence émet plusieurs recommandations. La première s'adresse au Département des Transports (DOT). Elle lui demande de définir les paramètres qui seront nécessaires afin de bien comprendre les systèmes automatisés impliqués dans un accident. Ils doivent notamment permettre de connaitre la fréquence et la durée des actions effectuées par le conducteur.
Ensuite l'agence incite le NHTSA à élaborer une méthode permettant de vérifier que les fabricants de voitures de niveau 2 (certaines fonctions sont automatisées, mais la conduite n'est pas autonome) mettent en place des protections garantissant que l'utilisation des systèmes autonomes se fasse dans les conditions pour lesquelles ils ont été développés. Le but étant évidemment d'éviter la situation dont il est aujourd'hui question.
Le NTSB demande aussi que soit mis en place un format standardisé pour la remontée d'information des systèmes automatisés. Bien évidemment, il faudra que les constructeurs de voitures l'adoptent pour signaler des accidents, des incidents ainsi que les kilomètres parcourus avec ces systèmes.
Enfin deux recommandations s'adressent aux fabricants de voitures. Tout d'abord, ajouter des protections afin de limiter strictement l'utilisation des systèmes autonomes aux conditions pour lesquelles ils ont été prévus. Ensuite, développer des applications pour détecter efficacement le « niveau d'engagement » du conducteur et l'alerter le cas échéant.
Tenir le volant n'est pas suffisant
Il n'est ainsi pas seulement question de tenir le volant : ce n'est pas suffisant pour vérifier que le conducteur suit attentivement la route et le déroulement des opérations (obligatoire en niveau 2). Or, « la conduite est une tâche intrinsèquement visuelle et un conducteur peut toucher le volant sans regarder la chaussée, la circulation ou le système de contrôle du véhicule ».
Dans son exposé des faits, l'agence revient sur le système d'alerte de Tesla : « la façon dont le système de pilote automatique Tesla a surveillé et répondu à l'interaction du conducteur avec le volant n'était pas une méthode efficace pour assurer l'engagement du conducteur ». Pour rappel, le NTSB avait déjà indiqué que le conducteur n'avait tenu le volant que pendant 25 secondes sur un trajet de 37 minutes et avait ignoré pas moins de sept avertissements visuels.
L'Autopilot 8.0 Tesla a renforcé ce point : en cas d'avertissements répétés et ignorés de l'Autopilot, la fonction Autosteer (assistance au maintien de cap) se désactive automatiquement et le conducteur ne pourra pas la rétablir avant de s'être arrêté. Par contre, il ne s'agit toujours que de repérer la présence des mains sur le volant, pas de vérifier que le conducteur est concentré sur la route, ce qui est insuffisant pour la NTSB.
Enfin, la National Transportation Safety Board réitère son souhait de voir émerger des normes minimales pour les véhicules connectés/autonomes et de les appliquer à toutes les nouvelles voitures.
Le 18 septembre 2017 à 13h59
Accident mortel : le NTSB pointe du doigt le pilote automatique de Tesla
-
Deux agences, deux enquêtes et... deux conclusions différentes
-
Le NTSB tire tous azimuts : les deux conducteurs et le pilote automatique
-
Une série de recommandations, certaines pour le NHTSA
-
Tenir le volant n'est pas suffisant
Commentaires (79)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 18/09/2017 à 14h11
#1
Enfin, la National Transportation Safety Board réitère son souhait de voir émerger des normes minimales pour les véhicules connectés/autonomes et de les appliquer à toutes les nouvelles voitures.
C’est le tôle de qui ça?
Le 18/09/2017 à 14h15
#2
à moins de mettre des capteurs pour vérifier ce que regardent les yeux du conducteur.. et encore, on peut facilement rester les yeux ouverts et rêvasser sans réaliser ce qu’on a sous les yeux " />
Le 18/09/2017 à 14h17
#3
Le NTSB charge surtout le conducteur. L’accusation envers le pilotage automatique c’est en gros “il est tel qu’on lui fait trop confiance”. C’est peut-être un reproche (il faut renforcer les alertes en cas de non-réaction du conducteur, etc.), mais on ne peut pas le “pointer du doigt”, l’accident n’est pas de son fait, comme le suggère le titre de l’article.
Le 18/09/2017 à 14h25
#4
Donc si je comprends bien les deux conducteurs ont fait des erreurs, accusons le pilote automatique parce qu’il est trop rassurant " />
ça me fait penser à ces gens qui compensaient la diminution de la mortalité avec ceinture de sécurité en prenant plus de risque, on en parlait comme d’un paradoxe un certain temps.
Le 18/09/2017 à 14h28
#5
Le 18/09/2017 à 14h31
#6
Le rapport cite clairement le design de l’autopilot comme l’élément principal qui a contribué à l’excès de confiance du conducteur, lui-même étant responsable de l’accident.
En fait, ce qu’il faut bien comprendre, c’est qu’un automatisme de niveau 2, ça ne sert à franchement pas grand chose : ce qui est fatigant quand tu conduis, c’est pas de tourner le volant ou de garder ta vitesse (le régulateur sert avant tout à ne pas se stresser pour les radars, éventuellement à soulager un peu sa position), mais bien d’analyser ton environnement pour anticiper tous les problèmes qui pourraient survenir, et donc de rester concentré. Action dont ne te dispense absolument pas un automatisme partiel.
Or, ce n’est pas du tout ce que vend le discours commercial d’un constructeur comme tesla (rien que le nom dit l’inverse). Si Tesla avait été honnête sur les limitations de son système, l’accident aurait probablement été évité.
Le 18/09/2017 à 14h31
#7
Si ça se trouve il était en train de mater YouPorn…
Il a pas pu reprendre le volant et tenir… enfin… du coup 7 secondes c’est trop juste.
Ok je sors.
Le 18/09/2017 à 14h34
#8
Non, le texte précise bien que les conducteurs sont fautifs. C’est simplement “l’image” du pilote automatique qui est différente dans les conclusions.
Dans le contexte, le système automatique est considéré comme trop laxiste sur les alertes faites au conducteur, il aurait dû se désactiver depuis longtemps si le conducteur n’a effectivement touché le volant que 25 sec sur 37 minutes. D’ailleurs, Tesla a agi là-dessus immédiatement suite à l’incident pour rectifier le tir, sans même attendre un rapport ou une sanction, preuve qu’ils l’ont compris d’eux-même.
Le 18/09/2017 à 14h40
#9
hypra drole
Le 18/09/2017 à 14h42
#10
Le 18/09/2017 à 14h43
#11
Le 18/09/2017 à 14h47
#12
Pour rappel, le NTSB avait déjà indiqué que le conducteur n’avait tenu le volant que pendant 25 secondes sur un trajet de 37 minutes et avait ignoré pas moins de sept avertissements visuels.
Le gars s’est cru dans k2000. Bref, sélection naturelle.
On lui a vendu une “voiture qui conduit toute seule”. Le type est clairement résponsable (et le vendeur aussi j’imagine). Après, acheter (cher) une voiture avec un pilote automatique mais dont il faut continuer à conduire…
Bref, ce sera sans moi ce genre de trucs.
Le 18/09/2017 à 15h05
#13
Le 18/09/2017 à 15h11
#14
Volkswagen le propose sur la Passat.
Le 18/09/2017 à 15h21
#15
Le 18/09/2017 à 15h35
#16
Le 18/09/2017 à 15h42
#17
Ca semble malgré tout curieux que le pilote “automatique” ne capte pas qu’il va droit sur un obstacle pour au moins freiner même avec un retard.
Ma golf freine d’elle-même lorsqu’elle trouve que je m’approche trop de la voiture de devant (et par définition, le cul de la bagnole de devant est moins large qu’un camion à 90° sur la route donc probablement plus difficile à détecter…).
Mettre hors de cause le pilote “automatique” me semble un non sens (ce qui n’excuse pas pour autant le comportement des deux conducteurs).
Le 18/09/2017 à 15h45
#18
ciel très lumineux, camion blanc : le capteur ne voit pas la différence.
Le 18/09/2017 à 15h53
#19
Le 18/09/2017 à 15h54
#20
Le 18/09/2017 à 15h56
#21
Le 18/09/2017 à 16h03
#22
Le 18/09/2017 à 16h05
#23
Le 18/09/2017 à 16h17
#24
Le 18/09/2017 à 16h17
#25
Tu oublies un point important : ce n’est pas un pilote 100% automatique. Les yeux du conducteurs, tu en fais quoi ? On en avait beaucoup parlé dans les commentaires lors de l’accident: Ici l’ “Auto Pilot” (qui est une marque commercial) ne se substitue absolument pas à la vigilance du conducteur, elle s’ajoute.
D’ailleurs des capteurs ont été ajoutés depuis il me semble aussi.
Mais on est bien d’accord pour dire qu’en l’état actuel des choses il faut bien plus de performance pour atteindre l’autopilot plus sûr que le conducteur seul + assistance.
Le 18/09/2017 à 16h39
#26
Le 18/09/2017 à 16h53
#27
Le 18/09/2017 à 17h03
#28
Le 18/09/2017 à 17h04
#29
Le 18/09/2017 à 17h10
#30
Le 18/09/2017 à 17h15
#31
“la Tesla roulait sur une route avec chaussées séparées lorsqu’un semi-remorque a traversé les voies”
C’est plutôt ça qui me choque personnellement =:-/
Je ne pense pas qu’il y ait le moindre croisement comme celui-ci sur nos voies rapides.
Le 18/09/2017 à 17h18
#32
Le 18/09/2017 à 17h36
#33
Le 18/09/2017 à 17h41
#34
Le 18/09/2017 à 18h04
#35
Le 18/09/2017 à 18h12
#36
c est quoi ces autoroutes où un camion peut traverser les voies ???
quoi genre il y a un stop/sortie de stationnement qui donne directement sur l’autoroute ?
edit, reprise du lien donné plus haut :http://www.numerama.com/content/uploads/2016/07/tesla-truck-accident-31.jpg
effectivement c’est le cas ! n’importe quoi !!
Sinon, lors du précédent article que j’ai lu sur cet affaire sur nextimpact, la thèse du DVD était nettement davantage mise en avant. L’auteur de l’article donnait même le titre du film.
Le 18/09/2017 à 18h30
#37
Elle a l’air correcte maintenant cette N4.
Mais c’est vrai qu’il y a vingt ans, certaines troies voies n’étaient pas beaucoup mieux.
Le 18/09/2017 à 18h51
#38
Le 18/09/2017 à 18h52
#39
Le 18/09/2017 à 18h54
#40
Le 18/09/2017 à 18h54
#41
Clairement le conducteur du camion a eu un comportement criminel, je ne sais pas comment sont les lois au states mais chez nous ce cas est clairement totalement de la faute du conducteur du camion. En campagne ce sont plutôt les agriculteurs qui tournent n’importe quand sans regarder et qui tuent quelques motard par an.
Le 18/09/2017 à 20h06
#42
Le 18/09/2017 à 20h37
#43
Le 19/09/2017 à 04h25
#44
Le 19/09/2017 à 06h28
#45
Le 19/09/2017 à 06h32
#46
Le 19/09/2017 à 07h14
#47
Le 19/09/2017 à 07h34
#48
y’a les deux il me semble.
Bref bug et trop de confiance de la part du conducteur
Le 19/09/2017 à 07h41
#49
comme lors du précédent article sur NHTSA, des barrières de sécurités entre les 2 essieux de la remorque comme on le trouve en europe aurai sauvé la vie du conducteur, mais ca c’est un autre débat
Le 19/09/2017 à 07h50
#50
Le 19/09/2017 à 08h02
#51
Non mais évidemment il faut qu’elle fasse proprement " />
On parle pas de piler pour stopper la voiture, mais même sans aller jusqu’à la bande d’arrêt d’urgence, sûrement envisageable, rien qu’allumer les feux de détresse puis décélérer (ce qui allume les feux stop sur la Tesla) serait une bonne chose. Éventuellement, une détection de l’absence d’action à cette interruption qui alerte les secours pour gérer les cas où le conducteur a un ennui de santé.
Le 19/09/2017 à 08h02
#52
C’est sûr que moi j’avais cru à une faute de frappe (après avoir vérifié sur le clavier: les 2 touches r et t sont voisines)
Le 19/09/2017 à 08h04
#53
Pendant des années, on n’a su calibrer les radars que dans les lignes droites.
Mais ça y est, les radars en virage sont pour bientôt.
Le 19/09/2017 à 08h20
#54
Ce serait une tragédie si la voiture ne se mettait pas au moins sur le côté pour être en sécurité, surtout qu’effectivement pas mal de modèle le font déjà.
Le 19/09/2017 à 09h21
#55
Il y avait bien une faute de frappe, mais dans l’article. Il l’a juste recopiée pour plaisanter.
Elle a été corrigée après que je l’ai signalée.
Le 19/09/2017 à 10h07
#56
Ta mauvaise foi est vraiment impressionnante, respect. " />
Navré mais Tesla avait bien vendu toute son image de marque autour d’une notion implicite de pilote automatique. Ils ne pouvaient certainement pas prétendre ne pas avoir conscience de l’ambiguïté portée par le nom “AutoPilot”. Ils ont clairement joué dessus pour vendre du rêve, en essayant derrière de se dédouaner comme ils pouvaient.
Ils n’ont réellement modifié leur communication qu’après l’accident.
Par ailleurs, comme le relève un autre INpactien, lorsqu’une voiture est capable de gérer elle-même la direction et la vitesse, cela implique clairement l’autonomie de conduite parce qu’autrement il n’y a absolument aucune valeur ajoutée par rapport au fait de conduire soi-même.
Le 19/09/2017 à 10h21
#57
Le 19/09/2017 à 11h58
#58
On pourrait avoir par exemple 2 boutons de part et d’autre du volant, positionnées pour être actionnables si on a les mains à 9h15 ou 10h10. Ensuite un petit témoin discret d’allume sur le hud de façon aléatoire demandant d’appuyer sur le gauche ou le droit. Si on ne presse pas le bon bouton (ou si on presse le mauvais) dans les 3s, il y a une sonnerie et le véhicule ralenti doucement et on demande au conducteur de reprendre la conduite manuelle…
Une répétition régulière assure une surveillance du conducteur.
On peut aussi faire des stats sur son temps de réaction…
S’il est bon on peut espacer les tests. S’il est mauvais, on en fait de plus en plus souvent.
Le 19/09/2017 à 12h04
#59
C’est la même problématique avec un conducteur de ferrari se crashant à 300km/h…
C’est bien le conducteur le coupable, mais le constructeur a une responsabilité morale.
De même un fabriquant d’armes te dira que c’est pas lui qui a actionné la queue de détente… (improprement appelée “détente”)
Le 19/09/2017 à 12h09
#60
Le 19/09/2017 à 12h53
#61
intéressant " />" />
Le 19/09/2017 à 13h23
#62
Le titre du DVD ? “Les routes du paradis” " />
Le 19/09/2017 à 14h54
#63
Le 19/09/2017 à 14h55
#64
Le 19/09/2017 à 15h03
#65
Le 19/09/2017 à 15h09
#66
Le 19/09/2017 à 15h12
#67
Le 19/09/2017 à 15h13
#68
Pour ce qui est de l’aménagement de la route, on a en effet au moins eu des routes de ce genre. Je me souviens de la N10 dans le sud-ouest qui était pas mal dans le genre (une belle 4 voies en ligne droite avec des carrefours). Mais à ce que je vois sur Google Maps, l’A63 a été terminée depuis (et c’est pas plus mal ! - bon, et c’est là qu’on se rend compte qu’on commence à devenir un vieux con : “moi, de mon temps…”).
Mais en Ecosse, je vois bien l’A90 au nord de Dundee comme ça. D’ailleurs, il m’est déjà arrivé de couper les voies pour tourner à droite (ben ouais, comme on y roule à gauche), et la vitesse est limitée à 70mph (112km/h). Encore mieux, la A1, et pourtant Dieu sait qu’il y a du trafic sur cette route (perso, je l’évite maintenant, je préfère mettre 30 minutes de plus mais arriver en vie et sans stress) ! Il doit toujours en avoir des 4 voies un peu foireuses comme ça, même en France.
Quant au respect des avertissements… Je crois qu’il faudrait que ça soit vraiment quelque chose de désagréable pour que certains conducteurs respectent les instructions du véhicule, parce que bon, quand on voit qu’il faut mettre des radars tronçon pour que tout le monde respecte les limites de vitesse…
Le 19/09/2017 à 15h14
#69
Le 19/09/2017 à 15h14
#70
Le 19/09/2017 à 15h17
#71
Le 19/09/2017 à 16h31
#72
Non seulement tu es de mauvaise foi (blatant dishonesty comme diraient les Englishes), mais en plus tes provocations sont nulles… " />
En tant que troll, bien que tu appliques correctement les bases (ignorer les faits et arguments, rester condescendant et borné) tu as vraiment perdu de ton ancien niveau, c’est triste… " />
Tant qu’on y est… Puisque ce que propose Tesla en termes d’assistance ne prive pas le conducteur de rester attentif et vigilant en permanence, autrement dit n’apporte aucune valeur ajoutée réelle, le neuneu, ce ne serait pas plutôt celui qui va claquer plusieurs milliers d’euros dans la feature, qui auraient pu autrement servir à monter en gamme sur d’autres options telles que l’installation audio, la teinte ou la garantie ? " />
Le 19/09/2017 à 19h38
#73
Finalement, ces histoires de voitures “autonomes”, c’est bien de la merde, non ?
Le 20/09/2017 à 05h53
#74
Le 20/09/2017 à 08h21
#75
Le 20/09/2017 à 08h44
#76
Le 20/09/2017 à 15h59
#77
Le 20/09/2017 à 17h58
#78
Le 21/09/2017 à 10h24
#79