Accident d’un véhicule piloté à distance : le CNRS nous précise les circonstances
Effet démo ?
Le 26 juin 2023 à 09h50
4 min
Société numérique
Société
Jeudi midi, une démonstration d'un véhicule électrique piloté à distance mise en place par le laboratoire LAMIH a mal tourné : la voiture a redémarré en dehors du contrôle humain et a percuté trois personnels du CNRS dont un transporté par le SMUR aux urgences, expliquait en fin de semaine dernière la Voix du Nord.
Le Laboratoire d’Automatique, de Mécanique et d’Informatique Industrielles et Humaines, qui dépend de l'Université Polytechnique Hauts-de-France mais aussi du CNRS, a organisé une demi-journée de démonstration de ses travaux en cours pour la délégation régionale des Hauts-de-France du CNRS jeudi 22 juin au matin.
Ce laboratoire travaille, entre autres, sur l'automatisation des véhicules dans des situations telles que le maintien dans la voie ou la régulation de la distance avec les autres véhicules.
Trois blessés, un toujours hospitalisé vendredi
La délégation d'une vingtaine d’agents de la Délégation régionale CNRS Hauts-de-France, répartis en trois groupes, était présente sur le Campus du Mont Houy de l’UPH, a pu suivre les avancées des recherches du laboratoire. Mais, alors que le premier des trois groupes a assisté à la démonstration d'un véhicule électrique piloté à distance sans problème, un accident a eu lieu lors de la deuxième présentation.
Selon un communiqué de l'Université qu'a pu obtenir la Voix du Nord, un véhicule électrique piloté à distance a « redémarré de manière inopinée, percutant trois agents ». Une des victimes a été transportée aux urgences de Valenciennes par le SMUR mais l'université a expliqué au journal régional qu'elle avait reçu des nouvelles « toutefois rassurantes ».
Le CNRS nous a indiqué lundi 26 juin au matin que « l'un des deux agents est sorti des urgences dès la fin d’après-midi jeudi, l’autre agent était encore hospitalisé vendredi ». Le CNRS et l'Université UPHF restent en contact avec l'hôpital et sa famille pour suivre son état de santé.
Expérimentations sur matériel roulant stoppées
La direction du laboratoire a envoyé depuis l'accident plusieurs emails, aux chercheurs de son équipe, que Next INpact s'est procurés. Le premier est à propos de procédures de sécurité annonçant que « toute expérimentation sur matériel roulant est interdite jusqu’à nouvel ordre ».
Dans un autre courriel envoyé vendredi en fin de matinée, elle a informé officiellement les chercheurs, la direction du CNRS et celle de l'université de l'accident. La direction explique, encore une fois, que les nouvelles sur l'état de santé des personnels administratifs du CNRS percutés « étaient toutefois rassurantes ». Le directeur ajoute que tous étaient « très marqués par cet accident » et exprime des pensées allant aux agents victimes et à leurs familles.
Dans cet email, le directeur du laboratoire veut aussi afficher son attachement aux questions de sécurité : « Cet accident doit nous motiver pour que cela ne se reproduise plus. Nous allons redoubler de rigueur lors de la mise en place de procédures pour les nouveaux matériels expérimentaux. Les procédures existantes vont également être revues ». Cela va très certainement relancer la délicate question de la responsabilité d’un accident avec un véhicule autonome.
Contactées, l'Université et la délégation régionale du CNRS n'ont pas voulu répondre à nos questions, renvoyant en cascade vers le service presse national du CNRS. Ce dernier nous apporte des précisions sur les circonstances de l’accident.
Un prototype issu d'un utilitaire Goupil
La démonstration en question était celle d’un véhicule utilitaire électrique de marque « Goupil » modifié en prototype. Celui-ci dispose de trois modes de pilotage : manuel classique, déporté via un joystick et déporté via un ordinateur.
« L’accident s’est produit à la fin d’une démonstration faite au second groupe ; le véhicule s’est remis en marche alors que les agents suivaient la présentation d'un autre projet, dos tourné au véhicule », explique le service presse du CNRS (et non alors qu'ils visionnaient une séquence vidéo sur un écran comme indiqué dans une version précédente). Ce dernier ajoute qu'il n'est pas en mesure de donner plus d'information pour l'instant et qu'une enquête de gendarmerie est en cours.
Accident d’un véhicule piloté à distance : le CNRS nous précise les circonstances
-
Trois blessés, un toujours hospitalisé vendredi
-
Expérimentations sur matériel roulant stoppées
-
Un prototype issu d'un utilitaire Goupil
Commentaires (51)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/06/2023 à 14h01
Je suis désolé pour les blessés mais ça me fait tellement penser à Vilebrequin
Le 23/06/2023 à 15h19
Sauf qu’eux n’ont pas provoqués d’accident
Le 29/06/2023 à 20h24
J’ai eu la même pensée que toi !!!!
Le 29/06/2023 à 20h28
J’ai eu la même pensée que toi !!!!
Le 23/06/2023 à 14h14
Euh du coup c’est quoi la différence, à part la taille, entre cette expérience et de vulgaires voitures télécommandées pour enfant ?
Le 23/06/2023 à 20h06
Le passage à l’échelle. Une voiture est constituée de 100 à 150 calculateurs communément appelés (ECU) qui sont interconnectés par 1 ou plusieurs réseaux. En termes de complexité informatique, on est au même ordre que le SI d’une PME. Bien sûr, la dimension automobile fait que l’on doit systématiquement penser à ce qui peut arriver à l’usager, histoire de ne pas le blesser ou le tuer. C’est un aspect que ces chercheurs ont visiblement oublié
Le 23/06/2023 à 14h26
il va bien falloir tirer au clair les responsabilités et fixer un cadre légal. Demain, dans un tel, cas, qui sera responsable (et devra gérer les indemnisations ? )
Le 23/06/2023 à 14h41
A mon avis l’utilisateur sera responsable, sauf si il peut prouver la faute du constructeur. Au milieu, les assureurs se frotteront les mains.
Le 23/06/2023 à 15h05
Pour moi y’a 2 possibilités :
Dans les faits, il y a de forte chance pour que les clauses d’utilisation que personne ne lira (genre “ne pas utiliser le mode automatique en cas de danger possible”, “quitter le mode automatique en cas de situation de danger”, etc.) fera en sorte dans 99% des cas, la responsabilité soit du ressort de l’utilisateur.
Soit parce qu’il n’a pas suivi les recommandations des clauses. Soit parce qu’il ne pourra pas prouver que le problème ait été causé par le pilotage automatique.
Quoi qu’il en soit, il me semble que notamment du fait des problèmes juridiques, les voitures autonomes, c’est pas pour tout de suite.
Le 24/06/2023 à 04h12
Ça dépendra de la loi. Peu importe les clauses du contrat, si la loi dit que c’est la responsabilité du constructeur.
Par ailleurs, le propriétaire pourrait bien être le constructeur……..
Le 26/06/2023 à 11h46
argumente un minimum peut-être ?
Il est bien établi depuis l’arrivée de tesla & co que le nombre d’accidents en baisse … au contraire les assurances sont perdantes avec l’arrivée de ces modes de conduite.
Le 26/06/2023 à 12h36
Moins il y a d’accidents plus les assurances se frottent les mains.
Les assurance adorent assurer sans risques.
Normalement les aides à la conduite (pas uniquement Telsa), aident à réduire les accidents.
Bon … après le système le plus efficace semble être celui de détection de somnolence (suivi de l’ESC qui aide à maintenir la trajectoire du véhicule et des systèmes qui avertissent quand il y a un obstacle à l’arrière)
Le 26/06/2023 à 12h51
Les primes d’assurances sont liées aux risques, quand je paie ma prime d’assurance moto 4x moins cher que lors de ma première année en jeune conducteur, je suis content.
Et mon dernier sinistre non responsable à 4000€, je reste satisfait …
Donc demain avec un véhicule “autonome” la prime sera encore réduite, car moins accidentogène.
Mais oui l’assurance gagne bien de l’argent sur le produit d’assurance, l’ensemble de la population paiera ses primes moins cher, et graduellement avec le nombre d’accidents en diminution l’assurance augmentera son économie d’échelle.
Mais ce n’est en aucun cas le “doute” de la mise en cause de la responsabilité qui favorise un gain pour l’assurance.
Le 26/06/2023 à 15h04
Pour la mise en cause, je suppose que durant pas mal de temps le conducteur aura la responsabilité (à peu de choses près, tant qu’un volant sera dans la voiture).
Je suppose que la responsabilité peut être donnée au constructeur si un dysfonctionnement a directement provoqué le problème sans que le conducteur ne puisse l’éviter (cruise control bloqué, …)
Ceux qui vont y perdre ce sont les garagistes, les carrossiers et les experts.
Le 26/06/2023 à 13h01
C’est l’inverse depuis quelques temps pour les Tesla avec le “soit-disant” mode Full-self-driving. Celles-ci sont beaucoup plus dangereuses.
https://www.developpez.com/actu/345579/-Les-systemes-de-conduite-autonome-de-Tesla-sont-10-fois-plus-meurtriers-qu-une-voiture-ordinaire-selon-Ryan-Cooper-qui-estime-que-Full-Self-Driving-n-aurait-jamais-du-etre-autorise-sur-les-routes/
Le 26/06/2023 à 13h19
alors, juste pour le principe du “on peut faire dire ce qu’on veut aux chiffres”, et sans lire l’article, je me méfie :
“10 fois plus meurtriers”, c’est pas forcément incompatible avec “moins d’accidents”, si 3 accidents se font sur autoroute avec décès du conducteur systématique, ça fait un taux de 100%, si un véhicule non autonome fait les mêmes 3 accidents mortels sur autoroute, mais avec 30 accrochages avec juste de la tôle froissée en mauvaises manœuvres dans des parking ça fait 10% d’accidents mortels, 10 fois moins, mais c’est pas représentatif de la dangerosité du véhicule (en considérant que les km parcourus comptabilisés sont cohérents)
Le 26/06/2023 à 13h43
Alors, juste pour le principe, on peut aussi lire l’article avant de critiquer.
Le 26/06/2023 à 14h50
du coup je me suis penché sur l’article
il est encore moins fiable que ce que j’imaginais en disant qu’il fallait se méfier
les conclusions sont peut-être correctes, mais les chiffres pour les obtenir sont absents, je veut bien que qqn qui est peut-être réputé fiable dise “10 fois plus meurtriers”, mais je vois pas sur quoi il se baserait, y’a que les chiffres de 2022 (sur la période 2021-2022 donc)
c’est assez léger, ou au moins dans cet article mal organisé
et y’a aucune mention de la population étudiée (tesla / non tesla, quantité / niveau d’aide à la conduite, km parcourus par élément de la population …)
note que je dirai la même chose dans l’autre sens, si un article disait “10 fois moins meurtriers”, je demanderai les chiffres sur la population, les conditions, les km parcourus …
l’avantage d’une automatisation (de manière générale), c’est un gain en fiabilité / reproductibilité / prévision, mais si on en profite pour changer certains paramètres d’entrée, les résultats en sortie peuvent être opposés à ce qu’on espère, mais c’est pas forcément intrinsèque à ce qui a été fait pour l’automatisation
pour prendre un exemple extrême pifométrique, admettons qu’un humain standard roule à 100 sur autoroute, il y aura un petit échantillon d’humains qui roulera à 200 (les autres ressentant quand même un danger et n’iront pas jusque là), ceux qui se planteront à 200 auront peu de chance de survie, mais seront naturellement peu nombreux
le même véhicule avec une conduite autonome donnera peut-être une impression de sécurité à beaucoup et ils seront plus nombreux à rouler à 200, les inévitables crash auront un niveau de survie équivalent aux conduites humaines, mais il y aurait probablement une proportions plus importante à première vue, mais directement influencée par les données de départ différentes
en résumé, pour affirmer des choses aussi importantes (“10 fois”, c’est pas rien) faut des chiffres argumentés, qu’il n’y a pas dans l’article
Le 23/06/2023 à 15h25
Bon, c’est pas une Tesla …
Le 23/06/2023 à 17h52
Il découvre un « mode Elon » secret sur sa Tesla pour la rendre 100 % autonome (20mn, 23/06/23)
Le 23/06/2023 à 22h00
Et le “mode Elon” reste secret car Tesla n’a pas encore validé sa capacité à produire des véhicules 100% autonomes en pilotage et commercialisables. Mercedes est le seul constructeur à avoir atteint ce stade. On a déjà signalé qu’Elon Musk est surtout un commercial de génie…
Le 23/06/2023 à 16h04
Pas très clair tout ça.
La voiture est pilotée à distance mais par qui/quoi ?
Des humains ou un système automatique ?
Si c’est par des humains, comment a-t-elle pu redémarrer toute seule ?
Dans tous les cas, piloter à distance me semble une mauvaise idée en présence d’humains. En cas de rupture du canal de communication, on court à l’accident quel que soit le “pilote”.
Ce qui est sûr, c’est effectivement que leurs procédures de sécurité sont à revoir complètement.
Le 23/06/2023 à 16h08
Par l’IA… mais celle ci a affiché le message “insérez le disque 4 et appuyez sur [entrée] pour continuer” au moment du démarrage inprévu.
Le 24/06/2023 à 15h03
C’est vague en effet, et vu que les expérimentations dans la région, le passif pour le métro autonome et les travaux affichés sur le site de l’université, je dirais véhicule autonome supervisé à distance.
Après si effectivement la sécu est à revoir, ça m’étonne aussi quand je compare avec la navette autonome qui a circulé sur le campus de Villeneuve d’Ascq pendant plusieurs mois il y a quelques temps. Elle roulait moins vite que papy et s’arrêtait au moindre caillou de travers sur la route. C’était limite le comportement frustré des autres conducteurs qui était dangereux.
Dommage qu’il n’y ait pas plus d’info, et perso je ne suis plus abonné à la Voix du Nord pour savoir si l’article source est plus complet.
Le 24/06/2023 à 18h33
+1 : ça manque d’infos.
Que veut dire “redémarrer” ici :
1/ la voiture est allumée et à l’arrêt, et elle se remet à rouler
2/ la voiture est éteinte, et elle s’allume et se met à rouler
Ça veut dire quoi “en dehors du contrôle humain” ?
1/ comme une voiture télécommandée jouet, elle capte un mauvais signal et fait n’imp’ (bonjour la gestion de l’authentification des commandes)
2/ elle capte un signal réel d’instructions, et c’est l’émetteur qui n’aurait pas dû émettre
3/ elle a un système d’autonomie et elle a décidé de faire des actions sans signal extérieur
Est-il possible qu’il y ait eu une action malveillante (un pirate s’est infiltré sur le PC contrôlant la voiture et lui a envoyé les instructions) ?
Bref, ça manque d’infos. 😔
Le 23/06/2023 à 16h21
Bienvenu chez les ch’tis pilote amateur
Le 23/06/2023 à 16h39
Cela me fait penser aux comportement erratiques de voitures télécommandées à 27 MHz, bande archi saturée.
J’ai le sentiment que c’est leur protocole radio qui est à revoir car on sait faire des protocoles sûrs avec des actions de sauvegarde très claires en cas de rupture du lien, qu’il soit filaire ou radio ou même audio.
Le 24/06/2023 à 12h36
Clair, j’ai fait un peu de TT 1⁄10 ème quand j’étais jeune et le 26Mhz c’était bien la merde, suffisait qu’un crétin allume son émetteur sur le circuit sans avoir prit la peine d’aller regarder sur le tableau de fréquence pour voir si sa fréquence était libre et c’était le merdier (les plus riches utilisaient des radios en 41Mhz et y avait beaucoup moins de monde mais moi j’étais “pauvre” du coup …)
Cela dit le 2.4Ghz c’est pas non plus toujours la panacée, ayant repris le modélisme en aéro depuis une petite dizaine d’années j’ai eu une radio Spektrum DX7 en DSM2 avec laquelle j’ai eu un certain nombre de blancs dont certains se sont soldés par des crashs.
Par contre jamais eu le moindre soucis avec Frsky ou Radiomaszter, comme quoi parfois le matos Chinois abordable c’est pas si mal.
T’as pas besoin d’être à l’échelle 1 pour avoir un danger potentiellement mortel avec un bidule télécommandé.
Pour faire un peu d’hélico RC je vérifie systématiquement tout 3-4 fois avant d’envisager un démarrage moteur, en cas d’erreur ou/et d’imprudence avec des pales en carbone tournant à plusieurs milliers de tr/min ça peu rapidement se finir très très mal voir se finir tout cours (tous les ans il y a des accidents mortels avec ces joujoux, parfois à cause d’impondérables, le plus souvent à cause de l’inconscience du pilote)
Là vu qu’il n’y a aucun détails dans l’article difficile de connaitre leur protocole de sécurité mais visiblement soit il en manque soit ils ont prit quelques libertés avec et est arrivé ce qui devait arriver.
Le 1er commentaire citait la vidéo de Vilbrequin sur le sujet, quand je vois le nombre de sécurités qu’ils avaient foutus partout alors que ça n’était qu’un bricolage d’amateurs (très éclairés quand même), et les précautions qu’ils prenaient quand même parcequ’on ne sait jamais, j’ai du mal à imaginer que des chercheurs “pro”, CNRS et école Polytechnique, n’en aient pas prit au moins autant, ou alors excès de confiance on saute 2-3 précautions pour aller plus vite paracerque ça a toujours marché sans soucis avant et c’est généralement là que ça part en couilles.
Le 25/06/2023 à 06h27
Certes et le passage à l’échelle que je mentionne n’est pas propre à la taille de l’objet mais plutôt à sa complexité informatique. Ce que je voulais dire c’est que faire une analyse de risques ISO 26262 et ISO 21434 sur un modèle RC est sans commune mesure avec un vrai véhicule. Les implications elles même sont différentes tout autant que les sources de panne et autres événements hasardeux.
Mon propos est que modifier un véhicule quel qu’il soit c’est modifier aussi les hypothèses de ses concepteurs. Aussi le faire sans une connaissance complète de comment il a été conçu est une imprudence. Le problème ici n’est pas que le véhicule ait redémarré tout seul (ça arrive) mais plutôt de savoir pourquoi cela a conduit à blesser trois personnes alors que le véhicule est conçu de sorte que cela n’arrive pas. Il n’y a que 2 réponses possibles: soit les modifications apportées ont désactivé des mesures de sécurité soit elles ont introduit des événements redoutés non-prévus dans l’arbre de défaillance. Dans les deux cas - et c’est l’ingénieur automobile que je suis qui le dis - cela résulte d’un manque de compétences. Je comprends l’intention de ces chercheurs de changer d’échelle dans leurs expérimentations. Mais ce que je ne comprends pas c’est qu’ils aient pu le faire avec autant de légèreté sur la sécurité humaine.
Le 26/06/2023 à 10h08
Juste une précision, il ne s’agit pas ici de l’école polytechnique, mais de l’université polytechnique Hauts-de-France
Le 23/06/2023 à 17h33
Dotez cette voiture du dernier ChatGPT, et elle vous présentera ses plus plates excuses aprés vous avoir aplati
Le 23/06/2023 à 18h07
Skynet s’entraîne.
Le 24/06/2023 à 06h20
.
Le 24/06/2023 à 12h28
A partir du moment où un constructeur vend son “pilote automatique” en tant que “pilote automatique”, c’est de sa responsabilité pleine et entière. On ne peut pas dire que c’est automatique et que la faute incombe à l’utilisateur si cela ne fonctionne pas correctement et qu’il faut que l’utilisateur reprenne le contrôle.
Sinon, ils changent de nom en appelant cela une “aide à la conduite” et là, la responsabilité du constructeur ne sera pas forcément à mettre en cause pour chaque accident.
L’État se doit de défendre ses concitoyens contre ce genre de pratique en légiférant ce genre de mercatique, d’abus de langage, de mauvaise foie, etc…
Le 24/06/2023 à 14h32
En fait, le CNRS ne stoppe rien du tout, car si je comprends bien l’article, au moment de l’accident la voiture était arrêtée (non roulante donc).
Le 25/06/2023 à 08h00
Ça me fait penser à ma boîte automatique.
Dans le manuel, pour passer du mode auto au mode manuel il faut être à l’arrêt, en pratique on passe de l’un à l’autre sans problème.
Idem en mode manuel pour changer la vitesse, il faut lâcher la pédale d’accélération pour changer de vitesse.
En pratique…
Plein de petit truc comme ça qui fait que si t’as une merde, t’as pas mal de chance d’être en tord 😅
Le 26/06/2023 à 09h35
Etonnant que cela puisse arriver :-( ils auraient quand même du prévoir un circuit d’urgence …
Le 26/06/2023 à 10h13
“le véhicule s’est remis en marche alors que les agents visionnaient une séquence vidéo sur un écran, dos tourné au véhicule”
Il faudrait équiper l’écran de rétroviseurs.
Le 26/06/2023 à 12h06
C’est un simple argument économique. En cas d’accident, l’assurance, le
conducteurpassager du véhicule responsable et son fabriquant vont se renvoyer la balle. Deux des trois partie prenant on des moyens considérable pour faire traîner voir étouffer l’affaire. A moins d’une erreur flagrante du constructeur, les conditions d’utilisation feront en sorte de contenir des exception renvoyant la responsabilité au “conducteur”. Donc les “conducteurs” paieron une prime d’assurance au cas ou, tout comme les constructeurs, au cas ou.Je te retourne ta question : argumente un minimum peut-être ?
Je veux des sources
Le 26/06/2023 à 12h33
cadeau :
étude waymo
Je vous laisse creuser plus le sujet si besoin, mais les faits sont là.
Pour un modèle classique, un constructeur souscrit déjà à des assurances si erreur de leur part et un conducteur est déjà assuré … donc si moins d’accidents, peu importe le responsable l’assureur est perdant.
Pour un modèle autonome, Je ne vois pas à quel moment on AJOUTE une prime d’assurance dans le processus …
Autant les assurances s’en mette plein les fouilles avec le réchauffement climatique et grâce à micron qui flingue la sécu, mais sur le sujet automobile, ils sont perdants.
Le 26/06/2023 à 17h11
Chouette, une étude indépendante.
Et légèrement de mauvaise foi. J’aurais compté les déconnections comme des accidents. Si le passager doit avoir la concentration d’un chauffeur pour éviter les accidents, a quoi sert l’autonomie prétendue du véhicule ?
Le 26/06/2023 à 12h10
Il n’est rien établi du tout, parce que les comparaisons faites (par Elon Musk) sont sur des choux et des bananes (i.e. des véhicules récents roulant sur autoroute, vs l’ensemble des véhicules sur tout type de route).
Le 26/06/2023 à 13h44
désolé pour les blessés.
sinon faut éviter de pomper le code des drones suicide ukrainiens …
Le 26/06/2023 à 13h59
Pour revenir à l’article, c’étaient des expérimentations, donc ce genre de mauvaises surprises n’est pas si surprenant. Et il est beaucoup plus difficile de faire confiance à une voiture “éteinte”. Comment-sont connectés les batteries au réseau de la voiture? Peut-on y mettre un gros coupe-circuit pour tout couper?
Le 26/06/2023 à 14h13
Le youtubeur Jean-Baptiste Dessort (Le Billet Auto) est décédé dans un accident de voiture (Numerama, 26/06/23)
Le 26/06/2023 à 16h02
Rien à voir avec le contenu, mais juste un point par rapport aux demandeurs de contenus vidéo, un truc qui m’a vendu du rêve sur le site de Numerama :
Le 26/06/2023 à 15h29
Si j’en crois donc la description, le véhicule n’est pas spécialement autonome mais piloté à distance. On peut donc imaginer que le “redémarrage de manière inopinée” soit une instruction envoyée au véhicule par erreur ou mégarde.
L’alimentation haute tension (la mega batterie de 500kg) d’une voiture électrique est, en temps normal et de mon expérience de conducteur de véhicule de ce type, “démarrée” dans la même idée qu’un véhicule thermique. Au sens où il y a bien une action positive à faire pour “démarrer” le véhicule (appuyer la pédale de frein, appuyer un bouton, etc). L’électronique est maintenue en vie par une batterie 12v classique sinon. L’alim haute tension s’active aussi dans le cas où la clim stationnaire est utilisée si je ne m’abuse (après j’ai pas la prétention de connaître l’ensemble du marché).
C’est donc de la pure spéculation spéculative qui vaut ce que vaut toute spéculation, mais de mon point de vue, si le véhicule est télécommandé, il a donc reçu une action positive pour démarrage. J’imagine que leur enquête va justement avoir pour but de comprendre d’où vient cette réactivation spontanée.
Le 26/06/2023 à 15h32
Les chiffres y sont. Ilsl ne sont pas regroupés dans le même paragraphe, mais il y a tout ce qu’il faut pour. Et il y a une comparaison directe entre le taux pour les Tesla avec le FSD contre la moyenne générale.
Bref, tout ça pour dire que non, pour le moment, l’automatisation des Tesla avec le FSD ne les a pas rendus plus sure, au contraire. C’est comme ça maintenant, ce n’était pas le cas avant (de mémoire, une étude d’accidentologie en Suède ou Norvège avait exclus les Tesla car … elles n’y avaient pas assez d’accidents pour que ça soit statistiquement valable) et ce sera peut être de nouveau le cas dans le futur.
Le 26/06/2023 à 15h34
Je trouve assez fascinant ce type d’article (ou de vidéo YouTube) entièrement basé sur
“J’ai lu un truc sur Internet qui dit que…”
Pas juste un commentaire, mais bien un article entier. Sans même de tentative de remonter à la source ou de vérifier les affirmation.
Du coup l’article lui-même (de developpez.com) est en fait le 3ème niveau de “bouche à oreille” avec à chaque fois un peu plus d’exagération, en rajoutant une couche, comme avec l’analyse trompeuse de la video de Marques Brownlee (contrairement à ce que dit l’article, le véhicule n’a pas manqué la sortie).
J’ai eu l’occasion de tester AutoPilot (pas le FSD mais c’est la même chose avec la navigation en ville en plus) et mon expérience personnelle est que c’est supérieur aux solutions concurrentes équivalentes que j’ai eu l’occasion d’essayer.
Pas incroyablement supérieur mais tout de même meilleur.
Contrairement à ce que prétend l’article (sur la base d’absolument rien) il est très peu probable que la plupart des conducteurs aient FSD d’activé. Il faut manuellement s’inscrire à la bêta pour l’utiliser, avec moult avertissements, sans parler du prix de l’option.
À titre perso je n’achèterai pas de Tesla en raison des positions politiques de Musk.
Kia et Hyundai font de très bon véhicules électriques pour ceux que ça intéresse.
Mais le fait est que le système de Tesla est en avance sur la concurrence. Honnêtement leurs véhicules sont agréables à conduire, bien plus qu’une BMW avec des boutons en plastique partout et un siège certes en cuir italien mais dur comme un banc.
Le 26/06/2023 à 15h56
Il faut considérer que la Model S Plaid est une des voitures les plus puissantes/rapides au monde, ce qui peut facilement causer des accidents.
Pour l’instant on n’a pas d’info permettant de savoir si AutoPilot ou FSD était activé lors du crash.
Le 27/06/2023 à 07h40
Des stats fournies par un vendeur de système de conduite autonome, prises pour des faits. (d’ailleurs, encore une fois, il est difficile de tirer des conclusions de cet article, puisque les véhicules Waymo ont plus d’accidents que la moyenne, mais encore une fois en ayant un périmètre restreint donc pas comparable).
Il me semble qu’ils sont pilotés, non ?