Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla
Les données étaient dans l’ECU
Tesla Model S, Steve Jurvetson/Camilo
Suite à un accident mortel en 2019 impliquant une Model S, Tesla a fait tout son possible pour dissimuler à la justice et aux plaignants les données de l’ECU (l’ordinateur en charge des composants) de la voiture. Le fabricant a été confondu des années plus tard et a fini par reconnaitre les faits.
Le 07 août 2025 à 16h48
6 min
Droit
Droit
Cette semaine est intense pour Tesla, mais le fabricant se serait certainement bien passé de toute cette « publicité ». Il a, en effet, été reconnu partiellement coupable dans un accident mortel en 2019. L’entreprise doit payer 240 millions de dollars, mais elle a annoncé faire appel du verdict.
Au-delà de la décision de justice, nos confrères d’Electrek ont épluché la transcription du procès pour avoir de plus amples détails sur les tenants et aboutissants de cette affaire. Leur conclusion est sans appel : « Tesla a fait de la rétention de données, menti, mal orienté la police et les plaignants pour éviter d’être blâmé ». Pour nos confrères, cela ne fait aucun doute : Tesla « couvrait indéniablement l’Autopilot » et a essayé « de rejeter toute la faute sur le conducteur ».
Fichier de la discorde : Snapshot_collision_airbag-deployment.tar
La transcription du procès est, en effet, accablante pour Tesla. Nos confrères expliquent que, dans les trois minutes suivant la collision, la Model S a envoyé toutes les données (vidéos, flux du bus CAN, données EDR, etc.) sur les serveurs de Tesla, via un fichier snapshot_collision_airbag-deployment.tar. Ensuite, le véhicule a supprimé le fichier de son stockage en local. De fait, Tesla était donc « la seule entité à avoir accès » à ce fichier.
Bien évidemment, la police et les plaignants ont demandé à plusieurs reprises d’obtenir ces données, mais Tesla les « a entraîné dans un long voyage de tromperie et de désorientation, qui a duré des années » : de 2019 à fin 2024. L’affaire a été mise au grand jour grâce aux plaignants qui ont embauché un ingénieur expert en reconstitution d’accident (Alan Moore) afin qu’il récupère les données de l’ECU (Electronic Control Unit), l’ordinateur en charge des différents composants de la voiture.
Electrek détaille le déroulement des faits, qui débutent en avril 2019 au moment de l’accident, mortel. Tesla a d’abord « entourloupé » l’enquêteur de la Florida Highway Patrol, en faisant mine de collaborer. L’avocat du fabricant lui explique que ce n’est pas la peine d’assigner Tesla pour récupérer les données et se propose d’aider l’enquêteur à rédiger une demande.
Ayez confiansssse…
Ce dernier obtient de nombreuses données, mais pas celles cruciales en rapport avec la collision. L’avocat avait « spécifiquement rédigé la lettre pour omettre de partager » le fichier envoyé par la voiture, expliquent nos confrères. L’enquêteur pensait, visiblement à tort, que Tesla souhaitait collaborer.
Quelques semaines plus tard, l’enquêteur récupère l’ECU et le MCU (Media Control Unit, l’ordinateur de bord avec l’écran tactile) et demande de l’aide à Tesla pour récupérer les données depuis les équipements informatiques.
L’avocat organise un rendez-vous, dans des locaux de l'entreprise, avec un technicien de Tesla qui n’avait jamais extrait de données d’un ordinateur Autopilot auparavant, c’est du moins ce qu’il a précisé dans un témoignage. Après avoir branché les composants, il affirme que les données étaient « corrompues » et inutilisables. Or, et « Pour être clair, Tesla avait déjà toutes ces données dans ses serveurs et aurait pu simplement les envoyer », ajoute Electrek.
Dans les années qui ont suivi, Tesla n’a jamais mentionné être en possession des données, que ce soit à la police, aux plaignants ou au tribunal. Pire, selon nos confrères, « Tesla a inventé une fonction de "suppression automatique" ».
Impossible de récupérer les données selon Tesla. La preuve que non
Ce n’est que fin 2024 que le tribunal autorise les plaignants à faire appel à un expert pour accéder aux données de l’ECU, du moins à faire une copie « bit par bit » des informations qu’il contient. Le but étant de travailler sur une copie des données, sans toucher aux originales. « Les ingénieurs de Tesla ont dit que c’était impossible… pourtant, cela a été fait par des gens extérieurs à Tesla », explique Alan Moore.
En plus d’avoir pu accéder à toutes les données, l’ingénieur a identifié des métadonnées du fichier snapshot_collision_airbag-deployment.tar, notamment sa somme de contrôle SHA-1 et le chemin exact vers le serveur. Et à la place du fichier, un emplacement vide dans la mémoire de la voiture.
Face à ces éléments, les plaignants ont pu exiger les journaux AWS de Tesla. Le fabricant a fini par donner le fichier compressé ainsi que les journaux d’accès « montrant qu’il était stocké depuis 18h16 PDT le 25 avril 2019 ». Finalement, « Tesla n’a admis l’existence des données qu’une fois qu’on lui a présenté des preuves légales qu’elles existaient et qu’elles avaient été transférées sur ses serveurs ».
Autopilot et Autosteer en marche, sans alerte
Toujours selon Electrek et la transcription du procès, l’Autopilot et l’Autosteer (assistance au maintien de cap) de la Tesla étaient bien actifs. D’après la carte et les données de l’ECU, la voiture se trouvait dans une zone « restricted Autosteer zone », mais l’Autopilot était « resté engagé à pleine vitesse ».
Ces derniers points sonnent en écho à une recommandation de la National Highway Traffic Safety Administration (NHTS) de… 2018 (.pdf). Elle demandait à Tesla d’« intégrer des mesures de protection du système qui limitent l’utilisation des systèmes de contrôle automatisé des voitures aux conditions pour lesquelles ils ont été conçus ».
L’ordinateur de bord n’a enregistré aucun freinage manuel ni changement de direction de la part du conducteur. De son côté, la voiture n’a pas envoyé d’alerte demandant au conducteur (il n’avait alors pas les mains sur le volant) de « prendre le contrôle immédiatement » alors qu’une intersection était en approche, avec une voiture à l'arrêt dans sa trajectoire (celle qui a été percutée).
Responsabilité : 33 % pour Tesla, 66 % pour le conducteur
Comme le rappellent nos confrères, le conducteur de la Tesla a reconnu sa part de responsabilité dans l’accident. Il expliquait avoir eu « trop confiance en la technologie […] Je croyais que si la voiture voyait quelque chose devant elle, elle émettrait un avertissement et freinerait ».
Nos confrères précisent que l’objectif des plaignants étaient « d’attribuer une partie de la responsabilité de l’accident à Tesla pour ne pas avoir empêché un tel abus du système malgré le risque évident ».
C’est finalement le cas puisque la justice a reconnu Tesla coupable à 33 % de l’accident mortel. Cela pourrait changer puisque le fabricant a déjà annoncé son intention de faire appel de la décision. Affaire à suivre.
Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla
-
Fichier de la discorde : Snapshot_collision_airbag-deployment.tar
-
Ayez confiansssse…
-
Impossible de récupérer les données selon Tesla. La preuve que non
-
Autopilot et Autosteer en marche, sans alerte
-
Responsabilité : 33 % pour Tesla, 66 % pour le conducteur
Commentaires (63)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 07/08/2025 à 16h55
Modifié le 07/08/2025 à 17h09
On se demande bien quels sont les constructeurs qui ont appliqué cette idée de génie qui consiste à tout effacer après avoir envoyé les données aux serveurs.
Modifié le 07/08/2025 à 17h16
Parce que je pense qu'un constructeur d'avion/bateau qui effacerait la boite noire après accident, je pense que toutes la direction finit en prison...
Le 07/08/2025 à 22h44
L'entrave à la Justice décomplexée me stupéfie.
Le 08/08/2025 à 08h06
A la base, c'est pour couper l'accès aux salariés quittant l'entreprise (notamment les salariés virés). C'est aussi un moyen plus ou moins efficace pour lutter contre la propagation d'une attaque informatique.
Ensuite, on se plaint beaucoup en France des lois extraterritoriales, mais pour le coup, notre système de perquisition l'est aussi ! Lors d'une perquisition, toutes les données "accessibles" et tout le matériel peuvent être saisis.
Le "toutes les données" incluent une copie de tous les contenus disponibles via des disques réseaux par exemple. Qu'Uber France soit perquisitionné, c'est une chose. Que l'ensemble des données du groupe mondial soit copié lors d'une perquisition du groupe national en est une autre.
L'existence du kill switch n'est donc pas déconnant (dans le cas d'Uber). Son utilisation est autre chose (perso, je n'ai pas d'avis tranché, il y a du pour et du contre à son usage dans le cadre d'une perquisition)
Le 08/08/2025 à 09h11
Le 12/08/2025 à 14h41
C'en est une, par définition.
Les décomplexés sont partout, et c'est la véritable partie inquiétante du problème.
Le 08/08/2025 à 09h09
Dans la mesure où l'annuaire gère aussi les sites, il peut parfaitement cibler une agence pour l'isoler. Tout comme en temps normal on peut bloquer la connexion inhabituelle d'un utilisateur : pays étranger, ou même d'un site de l'entreprise à l'autre (ex : un Français qui se co dans les bureaux aux USA, ça peut être bloqué).
Tout ça, ce sont des fonctions de sécurité comme l'indique @fdorin
Le 07/08/2025 à 23h20
Par contre dans le cas de l'article, 3 min d'évènements, c'est beaucoup trop court pour être supprimé pour cette raison ...
Le 08/08/2025 à 00h12
Le 10/08/2025 à 20h24
Modifié le 07/08/2025 à 17h01
Ca n'excuse pas le gougnafier de conducteur qui avait enchaîné les fautes de conduites, mais là effectivement, la co condamnation de Tesla est compréhensible et logique.
PS : Je vais voir si il y a des éléments de commentaires dont je devrais me rétracter sur l'autre article.
Le 07/08/2025 à 17h36
A la place de conducteur, je les poursuivrais sans état d'âme, certain de recevoir de quoi rembourser un peu de l'amende.
Le 07/08/2025 à 17h39
Tout comme tu ne peux pas poursuivre ton voisin que tu sais coupable de fraude (c'est le fisc qui doit le poursuivre), ici c'est l'État qui doit poursuivre pour entrave à la justice.
Le 07/08/2025 à 18h13
Tu peux avoir un non lieu, là tu es déjà bien rincé financièrement, il faut se lancer dans de nouveaux (pas un: plusieurs) procès pour obtenir réparation / préjudice moral et financier et attaquer les faux témoignages.
Donc soit tu es crésus, soit tu avais préparé soigneusement ton insolvabilité et est passé sous le régime de l'assistance juridique, soit tu te tais et tu te payes un psy.
Le 07/08/2025 à 17h38
Le 07/08/2025 à 17h46
En prime un SHA1 est sujet a collisions (tout un symbole ici) prouvées depuis 25 ans et largement déconseillé depuis 15.
Donc en fait même en donnant l'archive ils peuvent encore l'avoir trafiquée post réception.
Modifié le 07/08/2025 à 17h48
Le 08/08/2025 à 13h42
Barjavel, Ravage, 1943
Le 08/08/2025 à 14h29
Le 07/08/2025 à 18h54
2 ex:
* quand je voiture détecte un crash inévitable, elle coupe l'autopilot au dernier moment pour pouvoir certifier à la justice qu'il n'est pas actif
* Elon a imposé pour des raisons de design les ouvertures de portières intégrées, contre l'avis des ingénieurs, pour des raisons de sécurité et lors de certains crashs, elles ne s'ouvrent pas...
Le 07/08/2025 à 20h33
--> il y a des ouvertures manuelles de portes sur tous les modèles.
-->concernant l'autopilot, c'est le même nom donné dans l'aviation et il n'est jamais écris nulle part qu'il est autonome à 100% (https://www.tesla.com/fr_fr/support/autopilot)
je cite:
Les fonctionnalités Autopilot, Autopilot amélioré et Conduite automatique (supervisée) sont conçues pour être utilisées par un conducteur vigilant dont les mains sont sur le volant et qui est prêt à reprendre le contrôle de son véhicule à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, elles ne rendent pas le véhicule autonome en l'état actuel.
Le 07/08/2025 à 22h35
Le 07/08/2025 à 23h15
Modifié le 08/08/2025 à 00h24
Il y a aussi depuis des lustres la sécurité enfant qui bloque l'ouverture des portes arrières depuis l'intérieur, combiné avec le verrouillage ci-dessus on peut plus ouvrir les portes arrières du tout.
Donc je crois pas que Tesla ait spécialement empiré la situation ni que les secours n'aient pas régulièrement affaire à ce problème (en plus des portes bloquées car déformées).
Le 08/08/2025 à 09h38
Si une portière est trop abimée et que le mécanisme est mort, je pense que ça change grand chose la serrure soit fermée dans ce cas...
Modifié le 08/08/2025 à 10h39
Ensuite lors d'un accident il peut se passer diverses choses qui peuvent empêcher ce mécanisme de fonctionner : coupure générale ou localisée de courant (un verrouillage centralisé ça consomme des ampères, ça fonctionne pas sans alimentation principale en mettant quelques condos par ci par là), court-circuit, coupure de fils de commande ou de puissance, légère déformation mécanique même temporaire qui bloque le mouvement de la serrure au moment où elle veut s'ouvrir sans être suffisante pour autant bloquer complètement la porte... Rien n'est sûr à 100%, c'est pour ça que j'ai dit "risquent de rester verrouillées".
A ma connaissance les hayons électriques ne s'ouvrent pas automatiquement en cas d'accident et s'il n'y a plus de courant ils ne s'ouvrent plus ensuite. Quant à la sécurité enfant, je ne sais pas si aujourd'hui elle se déverrouille en cas d'accident mais ce serait alors très récent, pendant longtemps elle était purement mécanique et empêchait de sortir quelles que soient les circonstances.
Je cite le cas de la porte déformées pour illustrer le fait que les secours ont déjà ce qu'il faut pour ça et que ce n'est normalement pas une serrure fermée ou une poignée non accessible qui va les arrêter. Chaque fois qu'on ajoute une fonctionnalité qui entrave l'ouverture d'une porte on prend le risque qu'elle gêne les secours, et ce n'est ni un problème récent ni une spécificité de Tesla, ils s'y sont adaptés depuis longtemps.
Modifié le 08/08/2025 à 13h48
Ces pb de déformation se posent aussi avec les issues de secours d'avion, malgré des cadres renforcés: Sur un Falcon c'est du Dassault et construit comme un chasseur et peu de risque. Sur un Learjet, bien plus léger de construction, il faut éjecter impérativement les issues (peu) avant impact (malgré le risque que cela percute une gouverne): J'ai souvenir d'un crash d'avion d'affaire transportant des entrepreneurs français en Afrique dans les années 80 ou, bien qu'ayant survécu à l'impact, ils n'avait pu que balancer leurs passeports par le bout de fenêtre latérale du cockpit qui s'ouvrait, afin qu'on puisse les identifier avec certitude après leur mort dans un avion qui cramait et aux issues inutilisables/vrillées à l'impact...
Modifié le 09/08/2025 à 00h14
Le 09/08/2025 à 14h23
La documentation de son remplacement est même disponible librement chez Tesla.
https://service.tesla.com/docs/ModelS/ServiceManual/fr-ca/GUID-3372FBA3-F16D-4E2E-93BA-4D600529DAAB.html
Modifié le 07/08/2025 à 23h46
Le 08/08/2025 à 08h10
Moi ça me fascine de voire que des gens achètent des trucs à $100000€ et ne lisent même pas la notice.
Le débat entre le conducteur et Tesla, c’est un débat de mensonge contre mensonge. On prend un détail de l’accident et on fait croire que c’est ce qui va définir qui est responsable. Je suis désolé mais non. Le gars ne contrôlait ni sa vitesse, ni sa trajectoire alors qu’il doit être maître de son véhicule. Il a buté quelqu’un, il est responsable.
Qu’il ai le pied sur l’accélérateur ou qu’il dise à la voiture de garder le pied sur l’accélérateur ne change rien. La voiture fait ce qu’on lui demande. Point.
Toutes les voitures récente ont un système anti collision, et personne ne roule à 130km/h en ville les yeux fermés en se disant que l’anti collision freinera s’il y a un piéton ou une voiture devant.
Le 08/08/2025 à 08h19
(ok je sors)
Le 08/08/2025 à 09h47
Modifié le 08/08/2025 à 10h05
Le 08/08/2025 à 09h38
Le 08/08/2025 à 11h05
(J'ai bien peur que la généralisation de l'usage des IA au quotidien n'affecte encore plus le bon sens)
Le 08/08/2025 à 14h29
Il y a aussi les manuels de poussettes qui disent qu'il faut bien enlever le bébé avant de plier la poussette.
Le 08/08/2025 à 15h34
Pour les poussettes, n'ayant pas de gamin (et donc pas lu de manuel de pliage), j'avoue ne l'avoir pas su jusqu'à présent. Mais ca ne m'étonne absolument pas qu'ils le précisent, vu l'imbécilité de certains.
Le 10/08/2025 à 19h54
Le 11/08/2025 à 09h58
Le 11/08/2025 à 13h29
Le 11/08/2025 à 14h38
Le 11/08/2025 à 15h07
Ça n'a aucun rapport avec ton affirmation que "dans les manuels de fours à micro-ondes il est noté qu'il ne faut pas y mettre d'animal vivant pour les sécher", qui n'est pas vraie.
Encore une fois ton article parle d'un infanticide, ça n'a aucun rapport avec sécher un chat.
Et montre nous donc un de ces fameux manuels de fours à micro-ondes, ça irait plus vite.
Le 11/08/2025 à 19h42
Le 11/08/2025 à 19h58
Et je constate toujours l’absence de manuel de four à micro-ondes.
Modifié le 14/08/2025 à 10h09
Notice_MOF23110IX.pdf
page 5/FR => Votre four n'est pas destiné au sé-chage d'un quelconque être vivant.
Le 16/08/2025 à 17h05
Donc pas complétement une légende urbaine.
Le 08/08/2025 à 11h40
Par contre, je ne défend pas du tout la personne qui était au volant, qui faisait n'importe quoi et qui croit probablement encore au Père Noël.
Le 08/08/2025 à 14h30
Le 08/08/2025 à 12h31
Je reprends les mots de quelqu'un (mais je ne me souviens plus de qui) : le bon sens, c'est le degré 0 de la réflexion.
Non, j'ai juste reçu une éducation de mes parents. Et puis, c'est pas comme si les produits chimiques ne disposaient pas de pictogrammes sur leurs étiquettes pour avertir des types de dangers.
Modifié le 08/08/2025 à 14h42
A moins que tu ais l’équation mathématique qui régit tous les phénomènes de l'univers. Un moment, le bon sens entre forcement en ligne de compte. Ne serait-ce que pour écrire les lois qui sont censé régir les interactions entre citoyens.
Et mêmes les lois, qui représentent un sacré paquet de bouquin ne régissent pas tout.
C'est pas parce que j'ai le droit (j'en sais rien en vrai, mais j'invente pour l'exemple) de mettre de la musique tous les soirs jusqu'à 22h00m00s à 67,12dB dans mon jardin que je vais le faire tous les soirs sans raison et dire à mon voisin que "j'ai le droit, alors je le fais".
Bah c'est ce que je dis, le bon sens...
On peut dire exactement la même chose dans le cas de la Tesla: C'est pas comme si le manuel de la Tesla ne disait pas qu'il fallait rester vigilant et être en capacité de reprendre le contrôle à n'importe quel moment.
Ne serait-ce que si l'ECU tombe en panne ou simplement le pneu qui éclate... Le bon sens...
Le 08/08/2025 à 15h38
Par contre auj est sorti chez Korben un excellent exemple de "j'ai le droit mais c'est quand même crétin", de la part de Nintendo qui semble vouloir se faire détester de sa communauté.
Le 08/08/2025 à 17h12
Généralement, les gens utilisent cette expression quand la solution à un problème paraît évidente et ne demande pas une analyse poussée : « mais c’est du bon sens voyons ! ». D’où le degré de réflexion 0.
Quant à l’application de l’analogie à une Tesla de l’étiquette d’une bouteille de produit chimique, ce n’est pas le manuel l’équivalent de l’étiquette.
Et je suis persuadé que le bon sens dépend aussi de la culture : il ne doit pas être le même en France qu’en Chine ou au Kenya.
Le 09/08/2025 à 11h05
Le 09/08/2025 à 13h54
Le 08/08/2025 à 17h03
Le 09/08/2025 à 11h47
Mais pour les groupies énamourés, aucun doute, ce sont les conducteurs les seuls coupables. C'est « le bon sens ».
Le 11/08/2025 à 23h22
Le 08/08/2025 à 11h42
Le 08/08/2025 à 11h47
Le 10/08/2025 à 20h31
Le 11/08/2025 à 18h53
« Bien évidemment, la police et les plaignants ont demandé à plusieurs reprises d’obtenir ces données [dont le fichier en question] , mais Tesla les « a entraîné dans un long voyage de tromperie et de désorientation, qui a duré des années » : de 2019 à fin 2024. »
Du coup, je ne suis pas certain de bien comprendre ce que vous appelez « conscience »
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?