Connexion Abonnez-vous

Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla

Les données étaient dans l’ECU

Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla

Tesla Model S, Steve Jurvetson/Camilo

Suite à un accident mortel en 2019 impliquant une Model S, Tesla a fait tout son possible pour dissimuler à la justice et aux plaignants les données de l’ECU (l’ordinateur en charge des composants) de la voiture. Le fabricant a été confondu des années plus tard et a fini par reconnaitre les faits.

Le 07 août 2025 à 16h48

Cette semaine est intense pour Tesla, mais le fabricant se serait certainement bien passé de toute cette « publicité ». Il a, en effet, été reconnu partiellement coupable dans un accident mortel en 2019. L’entreprise doit payer 240 millions de dollars, mais elle a annoncé faire appel du verdict.

Au-delà de la décision de justice, nos confrères d’Electrek ont épluché la transcription du procès pour avoir de plus amples détails sur les tenants et aboutissants de cette affaire. Leur conclusion est sans appel : « Tesla a fait de la rétention de données, menti, mal orienté la police et les plaignants pour éviter d’être blâmé ». Pour nos confrères, cela ne fait aucun doute : Tesla « couvrait indéniablement l’Autopilot » et a essayé « de rejeter toute la faute sur le conducteur ».

Fichier de la discorde : Snapshot_collision_airbag-deployment.tar

La transcription du procès est, en effet, accablante pour Tesla. Nos confrères expliquent que, dans les trois minutes suivant la collision, la Model S a envoyé toutes les données (vidéos, flux du bus CAN, données EDR, etc.) sur les serveurs de Tesla, via un fichier snapshot_collision_airbag-deployment.tar. Ensuite, le véhicule a supprimé le fichier de son stockage en local. De fait, Tesla était donc « la seule entité à avoir accès » à ce fichier.

Bien évidemment, la police et les plaignants ont demandé à plusieurs reprises d’obtenir ces données, mais Tesla les « a entraîné dans un long voyage de tromperie et de désorientation, qui a duré des années » : de 2019 à fin 2024. L’affaire a été mise au grand jour grâce aux plaignants qui ont embauché un ingénieur expert en reconstitution d’accident (Alan Moore) afin qu’il récupère les données de l’ECU (Electronic Control Unit), l’ordinateur en charge des différents composants de la voiture.

Electrek détaille le déroulement des faits, qui débutent en avril 2019 au moment de l’accident, mortel. Tesla a d’abord « entourloupé » l’enquêteur de la Florida Highway Patrol, en faisant mine de collaborer. L’avocat du fabricant lui explique que ce n’est pas la peine d’assigner Tesla pour récupérer les données et se propose d’aider l’enquêteur à rédiger une demande.

Ayez confiansssse…

Ce dernier obtient de nombreuses données, mais pas celles cruciales en rapport avec la collision. L’avocat avait « spécifiquement rédigé la lettre pour omettre de partager » le fichier envoyé par la voiture, expliquent nos confrères. L’enquêteur pensait, visiblement à tort, que Tesla souhaitait collaborer.

Quelques semaines plus tard, l’enquêteur récupère l’ECU et le MCU (Media Control Unit, l’ordinateur de bord avec l’écran tactile) et demande de l’aide à Tesla pour récupérer les données depuis les équipements informatiques.

L’avocat organise un rendez-vous, dans des locaux de l'entreprise, avec un technicien de Tesla qui n’avait jamais extrait de données d’un ordinateur Autopilot auparavant, c’est du moins ce qu’il a précisé dans un témoignage. Après avoir branché les composants, il affirme que les données étaient « corrompues » et inutilisables. Or, et « Pour être clair, Tesla avait déjà toutes ces données dans ses serveurs et aurait pu simplement les envoyer », ajoute Electrek.

Dans les années qui ont suivi, Tesla n’a jamais mentionné être en possession des données, que ce soit à la police, aux plaignants ou au tribunal. Pire, selon nos confrères, « Tesla a inventé une fonction de "suppression automatique" ».

Impossible de récupérer les données selon Tesla. La preuve que non

Ce n’est que fin 2024 que le tribunal autorise les plaignants à faire appel à un expert pour accéder aux données de l’ECU, du moins à faire une copie « bit par bit » des informations qu’il contient. Le but étant de travailler sur une copie des données, sans toucher aux originales. « Les ingénieurs de Tesla ont dit que c’était impossible… pourtant, cela a été fait par des gens extérieurs à Tesla », explique Alan Moore.

En plus d’avoir pu accéder à toutes les données, l’ingénieur a identifié des métadonnées du fichier snapshot_collision_airbag-deployment.tar, notamment sa somme de contrôle SHA-1 et le chemin exact vers le serveur. Et à la place du fichier, un emplacement vide dans la mémoire de la voiture.

Face à ces éléments, les plaignants ont pu exiger les journaux AWS de Tesla. Le fabricant a fini par donner le fichier compressé ainsi que les journaux d’accès « montrant qu’il était stocké depuis 18h16 PDT le 25 avril 2019 ». Finalement, « Tesla n’a admis l’existence des données qu’une fois qu’on lui a présenté des preuves légales qu’elles existaient et qu’elles avaient été transférées sur ses serveurs ».

Autopilot et Autosteer en marche, sans alerte

Toujours selon Electrek et la transcription du procès, l’Autopilot et l’Autosteer (assistance au maintien de cap) de la Tesla étaient bien actifs. D’après la carte et les données de l’ECU, la voiture se trouvait dans une zone « restricted Autosteer zone », mais l’Autopilot était « resté engagé à pleine vitesse ».

Ces derniers points sonnent en écho à une recommandation de la National Highway Traffic Safety Administration (NHTS) de… 2018 (.pdf). Elle demandait à Tesla d’« intégrer des mesures de protection du système qui limitent l’utilisation des systèmes de contrôle automatisé des voitures aux conditions pour lesquelles ils ont été conçus ».

L’ordinateur de bord n’a enregistré aucun freinage manuel ni changement de direction de la part du conducteur. De son côté, la voiture n’a pas envoyé d’alerte demandant au conducteur (il n’avait alors pas les mains sur le volant) de « prendre le contrôle immédiatement » alors qu’une intersection était en approche, avec une voiture à l'arrêt dans sa trajectoire (celle qui a été percutée).

Responsabilité : 33 % pour Tesla, 66 % pour le conducteur

Comme le rappellent nos confrères, le conducteur de la Tesla a reconnu sa part de responsabilité dans l’accident. Il expliquait avoir eu « trop confiance en la technologie […] Je croyais que si la voiture voyait quelque chose devant elle, elle émettrait un avertissement et freinerait ».

Nos confrères précisent que l’objectif des plaignants étaient « d’attribuer une partie de la responsabilité de l’accident à Tesla pour ne pas avoir empêché un tel abus du système malgré le risque évident ».

C’est finalement le cas puisque la justice a reconnu Tesla coupable à 33 % de l’accident mortel. Cela pourrait changer puisque le fabricant a déjà annoncé son intention de faire appel de la décision. Affaire à suivre.

Commentaires (63)

votre avatar
Tout ça n'a rien d'étonnant, malheureusement. Ça colle bien avec la mentalité de cette entreprise.
votre avatar
Tout ça colle surtout bien avec la mentalité du patron et des dirigeants.

On se demande bien quels sont les constructeurs qui ont appliqué cette idée de génie qui consiste à tout effacer après avoir envoyé les données aux serveurs.
votre avatar
C'est vrai que juste "effacer après envoie" pourraient les faire condamner pour "volonté de cacher la vérité" et "tromperie organisée"...

Parce que je pense qu'un constructeur d'avion/bateau qui effacerait la boite noire après accident, je pense que toutes la direction finit en prison...
votre avatar
Chez Uber, ils avaient bien mis en place un système qui permet de couper tous les accès depuis les ordinateurs du personnel en cas de perquisition.
L'entrave à la Justice décomplexée me stupéfie.
votre avatar
Attention, c'est plus compliqué que ça. Chez Uber, ils ont effectivement un kill switch. Il a été utilisé lors des perquisitions, mais il est faux de prétendre que c'est dans ce but exclusif qu'il a été mis en place.

A la base, c'est pour couper l'accès aux salariés quittant l'entreprise (notamment les salariés virés). C'est aussi un moyen plus ou moins efficace pour lutter contre la propagation d'une attaque informatique.

Ensuite, on se plaint beaucoup en France des lois extraterritoriales, mais pour le coup, notre système de perquisition l'est aussi ! Lors d'une perquisition, toutes les données "accessibles" et tout le matériel peuvent être saisis.

Le "toutes les données" incluent une copie de tous les contenus disponibles via des disques réseaux par exemple. Qu'Uber France soit perquisitionné, c'est une chose. Que l'ensemble des données du groupe mondial soit copié lors d'une perquisition du groupe national en est une autre.

L'existence du kill switch n'est donc pas déconnant (dans le cas d'Uber). Son utilisation est autre chose (perso, je n'ai pas d'avis tranché, il y a du pour et du contre à son usage dans le cadre d'une perquisition)
votre avatar
(perso, je n'ai pas d'avis tranché, il y a du pour et du contre à son usage dans le cadre d'une perquisition)
Je me demande si ça ne peut pas être considéré comme une entrave à la justice.
votre avatar
il y a du pour […] à son [un kill-switch] usage dans le cadre d'une perquisition
Waow.
Je me demande si ça ne peut pas être considéré comme une entrave à la justice.
C'en est une, par définition.
Les décomplexés sont partout, et c'est la véritable partie inquiétante du problème.
votre avatar
Chez Uber, ils avaient bien mis en place un système qui permet de couper tous les accès depuis les ordinateurs du personnel en cas de perquisition. L'entrave à la Justice décomplexée me stupéfie.
C'est pas forcément la finalité première, plutôt un détournement. Si le parc Uber est géré par du Microsoft (ce qui ne m'étonnerait pas), c'est une fonction d'Entra ID (ex Azure AD) : blocage des comptes utilisateurs et révocation / blocage des devices.

Dans la mesure où l'annuaire gère aussi les sites, il peut parfaitement cibler une agence pour l'isoler. Tout comme en temps normal on peut bloquer la connexion inhabituelle d'un utilisateur : pays étranger, ou même d'un site de l'entreprise à l'autre (ex : un Français qui se co dans les bureaux aux USA, ça peut être bloqué).

Tout ça, ce sont des fonctions de sécurité comme l'indique @fdorin
votre avatar
cette idée de génie qui consiste à tout effacer
Techniquement c'est compliqué ... La bagnole traite énormément de signaux (dont des vidéos), tout stocker en permanence en local me paraît impossible, tu es obligé de supprimer des données à un moment pour en écrire des nouvelles.

Par contre dans le cas de l'article, 3 min d'évènements, c'est beaucoup trop court pour être supprimé pour cette raison ...
votre avatar
Ils ont la capacité de nommer le fichier "collision_airbag-deployment", donc techniquement, c'est très simple de décider de ne pas l'effacer
votre avatar
Ça me paraît logique aussi, bien sûr qu'une fois qu'on a envoyé des logs qui ne sont pas censés être intéressants l'immense majorité du temps, on les efface en local, sinon on en accumulerait des téraoctets...
votre avatar
Merci pour cette article complémentaire qui change le paradigme des faits rapportés sur l'autre.

Ca n'excuse pas le gougnafier de conducteur qui avait enchaîné les fautes de conduites, mais là effectivement, la co condamnation de Tesla est compréhensible et logique.


PS : Je vais voir si il y a des éléments de commentaires dont je devrais me rétracter sur l'autre article.
votre avatar
Et on peut pas mettre en cause Tesla pour mensonge et dissimulation de preuve par ailleurs ?
A la place de conducteur, je les poursuivrais sans état d'âme, certain de recevoir de quoi rembourser un peu de l'amende.
votre avatar
Pas convaincu, camoufler la vérité dans une enquête c'est un délit mais je ne suis pas certain que tu puisse les poursuivre personnellement.

Tout comme tu ne peux pas poursuivre ton voisin que tu sais coupable de fraude (c'est le fisc qui doit le poursuivre), ici c'est l'État qui doit poursuivre pour entrave à la justice.
votre avatar
Dans les fait dans la justice française, je peux te dire d'expérience qu'on va te déconseiller de tenter d'obtenir quoique ce soit sur un faux témoignage t'inculpant. On peut te harceler de plaintes, faux témoignages, c'est toi qui doit déposer une plainte mais en gros, la première impression prime.
Tu peux avoir un non lieu, là tu es déjà bien rincé financièrement, il faut se lancer dans de nouveaux (pas un: plusieurs) procès pour obtenir réparation / préjudice moral et financier et attaquer les faux témoignages.
Donc soit tu es crésus, soit tu avais préparé soigneusement ton insolvabilité et est passé sous le régime de l'assistance juridique, soit tu te tais et tu te payes un psy.
votre avatar
Et le dernier pourcent, c'est pour qui ?
votre avatar
Pas étonnant dela part de cette boite. Et pour 1 qui a été au bout de choses et pu financer les investigations techniques combien de cas réels potentiellement avec une responsabilité plus lourde pour TeSSla?
En prime un SHA1 est sujet a collisions (tout un symbole ici) prouvées depuis 25 ans et largement déconseillé depuis 15.
Donc en fait même en donnant l'archive ils peuvent encore l'avoir trafiquée post réception.
votre avatar
Pour nos confrères, cela ne fait aucun doute : Tesla « couvrait indéniablement l’Autopilot » et a essayé « de rejeter toute la faute sur le conducteur ».
"Écoutez, notre système a parfaitement bien fonctionné et agi selon les paramètres optimums en cas d'accident. Les fonctions biologiques du conducteur se sont arrêtées après, nous ne pouvons donc pas être mis en cause pour une défaillance du matériel organique embarqué."
votre avatar
« Les voyageurs qu'on en retira ne possédaient plus un os d'entier. Quelques-uns en échappèrent, se firent mettre des os en plastec. Le wagon n'avait subi ni fêlure ni déformation, ce qui montrait l'excellence de sa fabrication. Ce n'était pas la faute de la Compagnie si les contenus s'étaient avérés moins résistants que le contenant. »
Barjavel, Ravage, 1943
votre avatar
Très bon roman. Il faudrait que je le relise d'ailleurs.
votre avatar
Y'avait un bon article du Guardian sur Tesla sur les pratiques pas très reluisantes :
theguardian.com The Guardian

2 ex:
* quand je voiture détecte un crash inévitable, elle coupe l'autopilot au dernier moment pour pouvoir certifier à la justice qu'il n'est pas actif
* Elon a imposé pour des raisons de design les ouvertures de portières intégrées, contre l'avis des ingénieurs, pour des raisons de sécurité et lors de certains crashs, elles ne s'ouvrent pas...
votre avatar
il faut arrêter de fumer la moquette :
--> il y a des ouvertures manuelles de portes sur tous les modèles.
-->concernant l'autopilot, c'est le même nom donné dans l'aviation et il n'est jamais écris nulle part qu'il est autonome à 100% (https://www.tesla.com/fr_fr/support/autopilot)
je cite:
Les fonctionnalités Autopilot, Autopilot amélioré et Conduite automatique (supervisée) sont conçues pour être utilisées par un conducteur vigilant dont les mains sont sur le volant et qui est prêt à reprendre le contrôle de son véhicule à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, elles ne rendent pas le véhicule autonome en l'état actuel.
votre avatar
Du coup ça ne devrait pas s’appeler « auto pilot » mais « semi auto pilot » ou quelque chose qui ne laisse pas penser autrement.
votre avatar
Pour les poignées, j'ai déjà vu souvent dire que les poignées extérieures rétractables étaient un gros problème pour les secours pour ouvrir de l'extérieur après un crash. Quant au poignées intérieures, certes il y a des poignées mécaniques de secours en plus du bouton électrique, mais tous les utilisateurs ne savent pas forcément qu'elles existent.
votre avatar
Bof, y a plein de voitures qui se verrouillent toutes seules quand tu pars, et qui risquent donc de rester verrouillées en cas d'accident. Et d'autres où la vitre doit se baisser légèrement au moment où on ouvre la porte pour pouvoir l'ouvrir sans forcer voire casser la vitre. Et aussi les hayons à ouverture purement électrique.

Il y a aussi depuis des lustres la sécurité enfant qui bloque l'ouverture des portes arrières depuis l'intérieur, combiné avec le verrouillage ci-dessus on peut plus ouvrir les portes arrières du tout.

Donc je crois pas que Tesla ait spécialement empiré la situation ni que les secours n'aient pas régulièrement affaire à ce problème (en plus des portes bloquées car déformées).
votre avatar
Faut pas sous-estimer les ingénieurs non-plus... Les voitures possèdent un coupe-circuit inertiel, qui va détecter un gros choc, et couper l'alimentation électrique de la voiture; mais avant le calculateur va envoyer le signal de déverrouillage aux serrures.

Si une portière est trop abimée et que le mécanisme est mort, je pense que ça change grand chose la serrure soit fermée dans ce cas...
votre avatar
J'imagine bien qu'un truc du genre est prévu, mais il n'y a pas lieu de penser que les ingénieurs de Tesla sont plus bêtes que les autres et ne l'ont pas aussi prévu pour débloquer les poignées. Si leurs voitures se verrouillent automatiquement comme beaucoup d'autres, les poignées extérieures, accessibles ou non, ne servent à rien de toute façon tant que la voiture reste verrouillée. Il y a aussi d'autres marques qui mettent des poignées rétractables.

Ensuite lors d'un accident il peut se passer diverses choses qui peuvent empêcher ce mécanisme de fonctionner : coupure générale ou localisée de courant (un verrouillage centralisé ça consomme des ampères, ça fonctionne pas sans alimentation principale en mettant quelques condos par ci par là), court-circuit, coupure de fils de commande ou de puissance, légère déformation mécanique même temporaire qui bloque le mouvement de la serrure au moment où elle veut s'ouvrir sans être suffisante pour autant bloquer complètement la porte... Rien n'est sûr à 100%, c'est pour ça que j'ai dit "risquent de rester verrouillées".

A ma connaissance les hayons électriques ne s'ouvrent pas automatiquement en cas d'accident et s'il n'y a plus de courant ils ne s'ouvrent plus ensuite. Quant à la sécurité enfant, je ne sais pas si aujourd'hui elle se déverrouille en cas d'accident mais ce serait alors très récent, pendant longtemps elle était purement mécanique et empêchait de sortir quelles que soient les circonstances.

Je cite le cas de la porte déformées pour illustrer le fait que les secours ont déjà ce qu'il faut pour ça et que ce n'est normalement pas une serrure fermée ou une poignée non accessible qui va les arrêter. Chaque fois qu'on ajoute une fonctionnalité qui entrave l'ouverture d'une porte on prend le risque qu'elle gêne les secours, et ce n'est ni un problème récent ni une spécificité de Tesla, ils s'y sont adaptés depuis longtemps.
votre avatar
La simple déformation de l'habitacle peut obliger à forcer même avec une serrure déverrouillée... Et là si tu n'as pas la prise qu'offre une poignée car elle est rétractée c'est du temps de perdu car il va falloir trouver de quoi faire levier. Et ce temps tu ne l'as pas toujours (risque incendie, sur-accident, hémorragie...).

Ces pb de déformation se posent aussi avec les issues de secours d'avion, malgré des cadres renforcés: Sur un Falcon c'est du Dassault et construit comme un chasseur et peu de risque. Sur un Learjet, bien plus léger de construction, il faut éjecter impérativement les issues (peu) avant impact (malgré le risque que cela percute une gouverne): J'ai souvenir d'un crash d'avion d'affaire transportant des entrepreneurs français en Afrique dans les années 80 ou, bien qu'ayant survécu à l'impact, ils n'avait pu que balancer leurs passeports par le bout de fenêtre latérale du cockpit qui s'ouvrait, afin qu'on puisse les identifier avec certitude après leur mort dans un avion qui cramait et aux issues inutilisables/vrillées à l'impact...
votre avatar
Aucune chance qu'une poignée de porte, rétractable ou pas, résiste si on tire dessus pour forcer une porte déformée. Il faut s'accrocher à un endroit bien plus solide ou faire levier entre la porte et le châssis.
votre avatar
Les voitures possèdent un coupe-circuit inertiel, qui va détecter un gros choc
Obligatoire sur les voitures électriques, c'est un fusible à usage unique.

La documentation de son remplacement est même disponible librement chez Tesla.

https://service.tesla.com/docs/ModelS/ServiceManual/fr-ca/GUID-3372FBA3-F16D-4E2E-93BA-4D600529DAAB.html
votre avatar
Les pilotes d'avion suivent une formation qui consiste entre autre à comprendre les limites du pilote automatique, on ne leur file pas juste le mode d'emploi et basta. Tesla prévoit une formation pour les propriétaires de leurs voitures?
votre avatar
Y a un truc dans la vie qui s’appelle « le bon sens ». Est ce que t’as reçu une formation de Monsieur Propre pour te dire de ne pas boire d’eau de javel ?

Moi ça me fascine de voire que des gens achètent des trucs à $100000€ et ne lisent même pas la notice.

Le débat entre le conducteur et Tesla, c’est un débat de mensonge contre mensonge. On prend un détail de l’accident et on fait croire que c’est ce qui va définir qui est responsable. Je suis désolé mais non. Le gars ne contrôlait ni sa vitesse, ni sa trajectoire alors qu’il doit être maître de son véhicule. Il a buté quelqu’un, il est responsable.
Qu’il ai le pied sur l’accélérateur ou qu’il dise à la voiture de garder le pied sur l’accélérateur ne change rien. La voiture fait ce qu’on lui demande. Point.

Toutes les voitures récente ont un système anti collision, et personne ne roule à 130km/h en ville les yeux fermés en se disant que l’anti collision freinera s’il y a un piéton ou une voiture devant.
votre avatar
Y a un truc dans la vie qui s’appelle « le bon sens ».
Tu parles du truc qui est en voie de disparition ces dernières années ?
(ok je sors)
votre avatar
Il paraîtrait que ça serait lié à un organe situé entre les deux oreilles, donc nous serions tous mun... oh... zut... pardon, oublie !
votre avatar
Y a un truc dans la vie qui s’appelle « le bon sens ».
Le même "bon sens" qui fait que dans les manuels de fours à micro-ondes il est noté qu'il ne faut pas y mettre d'animal vivant pour les sécher, ou que dans les manuels de tronconneuses ils spécifient clairement qu'il ne faut pas arrêter la chaîne avec ses parties génitales?
votre avatar
Le même "bon sens" qui fait que dans les manuels de fours à micro-ondes il est noté qu'il ne faut pas y mettre d'animal vivant pour les séchets, ou que dans les manuels de tronconneuses ils spécifient clairement qu'il ne faut pas arrêter la chaîne avec ses parties génitales?
Ça c'est parce que tu n'utilises pas toniglandyle. :langue:
votre avatar
Je vais demander a chatgpt c quoi le bon sens :mad2:.
(J'ai bien peur que la généralisation de l'usage des IA au quotidien n'affecte encore plus le bon sens)
votre avatar
Le même "bon sens" qui fait que dans les manuels de fours à micro-ondes il est noté qu'il ne faut pas y mettre d'animal vivant pour les sécher, ou que dans les manuels de tronconneuses ils spécifient clairement qu'il ne faut pas arrêter la chaîne avec ses parties génitales?
Je ne connaissais pas le foutage de gueule avec la tronçonneuse :)

Il y a aussi les manuels de poussettes qui disent qu'il faut bien enlever le bébé avant de plier la poussette.
votre avatar
Le pire dans l'histoire de la tronconneuse, c'est que pour que ce soit marqué noir sur blanc, ca signifie qu'il y a AU MOINS une personne qui l'a fait, qui a attaqué en justice le fabriquant (ou un proche l'a fait pour elle), et que le fabriquant a perdu dans cette affaire!

Pour les poussettes, n'ayant pas de gamin (et donc pas lu de manuel de pliage), j'avoue ne l'avoir pas su jusqu'à présent. Mais ca ne m'étonne absolument pas qu'ils le précisent, vu l'imbécilité de certains.
votre avatar
C'est une légende urbaine pour les micro-ondes, et sans doute également pour la tronçonneuse
votre avatar
votre avatar
C’est quoi le rapport ? Dans ton lien ça parle plutôt d’infanticide que d’avoir voulu sécher un animal
votre avatar
Ah pardon, j'oubliais que les bébés étaient des plantes. My bad.
votre avatar
Tu es quand même d'une mauvaise foi assez incroyable :frown:
Ça n'a aucun rapport avec ton affirmation que "dans les manuels de fours à micro-ondes il est noté qu'il ne faut pas y mettre d'animal vivant pour les sécher", qui n'est pas vraie.
Encore une fois ton article parle d'un infanticide, ça n'a aucun rapport avec sécher un chat.
Et montre nous donc un de ces fameux manuels de fours à micro-ondes, ça irait plus vite.
votre avatar
Tip : de nous 2, ce n'est pas moi qui affirme ici que les bébés sont des plantes.
votre avatar
Ça tombe bien personne n’a écrit ça, par contre toi tu confond bébé et chat.
Et je constate toujours l’absence de manuel de four à micro-ondes.
:troll:
votre avatar
"C'est une légende urbaine pour les micro-ondes, et sans doute également pour la tronçonneuse"
Notice_MOF23110IX.pdf
page 5/FR => Votre four n'est pas destiné au sé-chage d'un quelconque être vivant.
votre avatar
Merci, j'avais cherché sans trouver.
Donc pas complétement une légende urbaine.
votre avatar
Et pourtant, on passe tous l'examen du permis de conduire, car le bon sens seul n'est pas suffisant pour savoir conduire.

Par contre, je ne défend pas du tout la personne qui était au volant, qui faisait n'importe quoi et qui croit probablement encore au Père Noël.
votre avatar
Et pourtant, on passe tous l'examen du permis de conduire, car le bon sens seul n'est pas suffisant pour savoir conduire.
Tout à fait. Et le permis de conduire seul ne suffit pas. Il y a aussi le code de la route.
votre avatar
Y a un truc dans la vie qui s’appelle « le bon sens ».
Sachant que chacun a "son bon sens".
Je reprends les mots de quelqu'un (mais je ne me souviens plus de qui) : le bon sens, c'est le degré 0 de la réflexion.
Est ce que t’as reçu une formation de Monsieur Propre pour te dire de ne pas boire d’eau de javel ?
Non, j'ai juste reçu une éducation de mes parents. Et puis, c'est pas comme si les produits chimiques ne disposaient pas de pictogrammes sur leurs étiquettes pour avertir des types de dangers.
votre avatar
Je reprends les mots de quelqu'un (mais je ne me souviens plus de qui) : le bon sens, c'est le degré 0 de la réflexion.
Je ne suis pas d'accord.

A moins que tu ais l’équation mathématique qui régit tous les phénomènes de l'univers. Un moment, le bon sens entre forcement en ligne de compte. Ne serait-ce que pour écrire les lois qui sont censé régir les interactions entre citoyens.

Et mêmes les lois, qui représentent un sacré paquet de bouquin ne régissent pas tout.
C'est pas parce que j'ai le droit (j'en sais rien en vrai, mais j'invente pour l'exemple) de mettre de la musique tous les soirs jusqu'à 22h00m00s à 67,12dB dans mon jardin que je vais le faire tous les soirs sans raison et dire à mon voisin que "j'ai le droit, alors je le fais".
Non, j'ai juste reçu une éducation de mes parents.
Bah c'est ce que je dis, le bon sens...
Et puis, c'est pas comme si les produits chimiques ne disposaient pas de pictogrammes sur leurs étiquettes pour avertir des types de dangers.
On peut dire exactement la même chose dans le cas de la Tesla: C'est pas comme si le manuel de la Tesla ne disait pas qu'il fallait rester vigilant et être en capacité de reprendre le contrôle à n'importe quel moment.

Ne serait-ce que si l'ECU tombe en panne ou simplement le pneu qui éclate... Le bon sens...
votre avatar
C'est pas parce que j'ai le droit (j'en sais rien en vrai, mais j'invente pour l'exemple) de mettre de la musique tous les soirs jusqu'à 22h00m00s à 67,12dB dans mon jardin
Ca tomberait sous le coup du trouble du voisinage de jour (7-22h : de jour ; 22h-7h : de nuit), donc non pas autorisé :)

Par contre auj est sorti chez Korben un excellent exemple de "j'ai le droit mais c'est quand même crétin", de la part de Nintendo qui semble vouloir se faire détester de sa communauté.
votre avatar
Mais qu’appelles tu « le bon sens » ?
Généralement, les gens utilisent cette expression quand la solution à un problème paraît évidente et ne demande pas une analyse poussée : « mais c’est du bon sens voyons ! ». D’où le degré de réflexion 0.

Quant à l’application de l’analogie à une Tesla de l’étiquette d’une bouteille de produit chimique, ce n’est pas le manuel l’équivalent de l’étiquette.

Et je suis persuadé que le bon sens dépend aussi de la culture : il ne doit pas être le même en France qu’en Chine ou au Kenya.
votre avatar
Marteau + doigt = bon sens international :D
votre avatar
Ptet aussi que dans le cas des produits chimiques , ceux qui n'ont pas assez de ce "bon sens" finissent dans les Darwin Awards..
votre avatar
Pour posséder une Tesla, je peux dire que le comportement de l’auto pilote a bien changé depuis trois ans, il est beaucoup plus rigoureux beaucoup plus invasif quand on ne fait pas attention à la route ou qu’on ne tient pas le volant pendant plusieurs secondes. Et au bout d’un moment il se désengage en gueulant bien fort dans la voiture, un affichant, une grosse icône rouge en plein milieu de l’écran, plus rien à voir avec 2019, notamment suite à ses divers d’accident et à une reprise, en un de la part des législateurs. Et sinon c’est comme tous les constructeurs, il faut lire le manuel.:)
votre avatar
Ce qui est une indication claire que 1) Tesla a mis sur le marché des produits ultra dangereux 2) les a mis en avant pour vendre leurs cochonneries et 3) ce sont bel et bien la pression législative et les procès qui ont fait évoluer les choses.
Mais pour les groupies énamourés, aucun doute, ce sont les conducteurs les seuls coupables. C'est « le bon sens ».
votre avatar
Puis ils ont retiré le lidar comme ça la voiture ne peut pas être accusé d'avoir un vu un truc loin et ne pas avoir anticipé, vu qu'elle ne voit plus rien
votre avatar
il devrait y avoir une loi pour un équivalent boite noire
votre avatar
On dirait que c'est déjà le cas ! service-public.fr Service Public
votre avatar
Alors petit point de vocabulaire, des ECUs, il y en a plein plein sur tous les véhicules (un pour l'injection, un pour les airbags, un pour la radio, ...), là j'imagine que c'est un lot de traces de plusieurs ECUs qui a été généré et envoyé. Quant à la question de l'effacement du fichier local ou pas, franchement au moment où on conçoit cette fonctionnalité, pas sûr qu'on ait réellement conscience des cas compliqués, probablement que tout .tar de log généré est automatiquement effacé après envoi et que celui-ci ne faisait juste pas exception.
votre avatar
Un petit extrait de l'article :
« Bien évidemment, la police et les plaignants ont demandé à plusieurs reprises d’obtenir ces données [dont le fichier en question] , mais Tesla les « a entraîné dans un long voyage de tromperie et de désorientation, qui a duré des années » : de 2019 à fin 2024. »
Du coup, je ne suis pas certain de bien comprendre ce que vous appelez « conscience »

Accident mortel d’une Model S avec Autopilot : petits et gros mensonges de Tesla

  • Fichier de la discorde : Snapshot_collision_airbag-deployment.tar

  • Ayez confiansssse…

  • Impossible de récupérer les données selon Tesla. La preuve que non

  • Autopilot et Autosteer en marche, sans alerte

  • Responsabilité : 33 % pour Tesla, 66 % pour le conducteur

Fermer