Connexion
Abonnez-vous

Accident d’un véhicule piloté à distance : le CNRS nous précise les circonstances

Effet démo ?

Accident d’un véhicule piloté à distance : le CNRS nous précise les circonstances

Le 26 juin 2023 à 09h50

Jeudi midi, une démonstration d'un véhicule électrique piloté à distance mise en place par le laboratoire LAMIH a mal tourné : la voiture a redémarré en dehors du contrôle humain et a percuté trois personnels du CNRS dont un transporté par le SMUR aux urgences, expliquait en fin de semaine dernière la Voix du Nord.

Le Laboratoire d’Automatique, de Mécanique et d’Informatique Industrielles et Humaines, qui dépend de l'Université Polytechnique Hauts-de-France mais aussi du CNRS, a organisé une demi-journée de démonstration de ses travaux en cours pour la délégation régionale des Hauts-de-France du CNRS jeudi 22 juin au matin.

Ce laboratoire travaille, entre autres, sur l'automatisation des véhicules dans des situations telles que le maintien dans la voie ou la régulation de la distance avec les autres véhicules. 

Trois blessés, un toujours hospitalisé vendredi

La délégation d'une vingtaine d’agents de la Délégation régionale CNRS Hauts-de-France, répartis en trois groupes, était présente sur le Campus du Mont Houy de l’UPH, a pu suivre les avancées des recherches du laboratoire. Mais, alors que le premier des trois groupes a assisté à la démonstration d'un véhicule électrique piloté à distance sans problème, un accident a eu lieu lors de la deuxième présentation.

Selon un communiqué de l'Université qu'a pu obtenir la Voix du Nord, un véhicule électrique piloté à distance a « redémarré de manière inopinée, percutant trois agents ». Une des victimes a été transportée aux urgences de Valenciennes par le SMUR mais l'université a expliqué au journal régional qu'elle avait reçu des nouvelles « toutefois rassurantes ».

Le CNRS nous a indiqué lundi 26 juin au matin que « l'un des deux agents est sorti des urgences dès la fin d’après-midi jeudi, l’autre agent était encore hospitalisé vendredi ». Le CNRS et l'Université UPHF restent en contact avec l'hôpital et sa famille pour suivre son état de santé.

Expérimentations sur matériel roulant stoppées

La direction du laboratoire a envoyé depuis l'accident plusieurs emails, aux chercheurs de son équipe, que Next INpact s'est procurés. Le premier est à propos de procédures de sécurité annonçant que « toute expérimentation sur matériel roulant est interdite jusqu’à nouvel ordre ».

Dans un autre courriel envoyé vendredi en fin de matinée, elle a informé officiellement les chercheurs, la direction du CNRS et celle de l'université de l'accident. La direction explique, encore une fois, que les nouvelles sur l'état de santé des personnels administratifs du CNRS percutés « étaient toutefois rassurantes ». Le directeur ajoute que tous étaient « très marqués par cet accident  » et exprime des pensées allant aux agents victimes et à leurs familles.

Dans cet email, le directeur du laboratoire veut aussi afficher son attachement aux questions de sécurité : « Cet accident doit nous motiver pour que cela ne se reproduise plus. Nous allons redoubler de rigueur lors de la mise en place de procédures pour les nouveaux matériels expérimentaux. Les procédures existantes vont également être revues ». Cela va très certainement relancer la délicate question de la responsabilité d’un accident avec un véhicule autonome.

Contactées, l'Université et la délégation régionale du CNRS n'ont pas voulu répondre à nos questions, renvoyant en cascade vers le service presse national du CNRS. Ce dernier nous apporte des précisions sur les circonstances de l’accident. 

Un prototype issu d'un utilitaire Goupil

La démonstration en question était celle d’un véhicule utilitaire électrique de marque « Goupil » modifié en prototype. Celui-ci dispose de trois modes de pilotage : manuel classique, déporté via un joystick et déporté via un ordinateur.

« L’accident s’est produit à la fin d’une démonstration faite au second groupe ; le véhicule s’est remis en marche alors que les agents suivaient la présentation d'un autre projet, dos tourné au véhicule », explique le service presse du CNRS (et non alors qu'ils visionnaient une séquence vidéo sur un écran comme indiqué dans une version précédente). Ce dernier ajoute qu'il n'est pas en mesure de donner plus d'information pour l'instant et qu'une enquête de gendarmerie est en cours.

Commentaires (51)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Je suis désolé pour les blessés mais ça me fait tellement penser à Vilebrequin

votre avatar

Sauf qu’eux n’ont pas provoqués d’accident :D

votre avatar

J’ai eu la même pensée que toi !!!!

votre avatar

J’ai eu la même pensée que toi !!!!

votre avatar

Euh du coup c’est quoi la différence, à part la taille, entre cette expérience et de vulgaires voitures télécommandées pour enfant ?

votre avatar

Le passage à l’échelle. Une voiture est constituée de 100 à 150 calculateurs communément appelés (ECU) qui sont interconnectés par 1 ou plusieurs réseaux. En termes de complexité informatique, on est au même ordre que le SI d’une PME. Bien sûr, la dimension automobile fait que l’on doit systématiquement penser à ce qui peut arriver à l’usager, histoire de ne pas le blesser ou le tuer. C’est un aspect que ces chercheurs ont visiblement oublié

votre avatar

il va bien falloir tirer au clair les responsabilités et fixer un cadre légal. Demain, dans un tel, cas, qui sera responsable (et devra gérer les indemnisations ? )




  • le constructeur qui aura “mal” programmé son produit ?

  • l’utilisateur propriétaire ?

votre avatar

(reply:2139677:War Machine)


A mon avis l’utilisateur sera responsable, sauf si il peut prouver la faute du constructeur. Au milieu, les assureurs se frotteront les mains.

votre avatar

Pour moi y’a 2 possibilités :




  • Soit le mode automatique est utilisé dans les conditions requises et la responsabilité est du ressort de l’automate et donc du constructeur.

  • Soit le mode automatique est utilisé en dehors du cadre prévu et dans ce cas la responsabilité revient à l’utilisateur.



Dans les faits, il y a de forte chance pour que les clauses d’utilisation que personne ne lira (genre “ne pas utiliser le mode automatique en cas de danger possible”, “quitter le mode automatique en cas de situation de danger”, etc.) fera en sorte dans 99% des cas, la responsabilité soit du ressort de l’utilisateur.
Soit parce qu’il n’a pas suivi les recommandations des clauses. Soit parce qu’il ne pourra pas prouver que le problème ait été causé par le pilotage automatique.



Quoi qu’il en soit, il me semble que notamment du fait des problèmes juridiques, les voitures autonomes, c’est pas pour tout de suite.

votre avatar

Ça dépendra de la loi. Peu importe les clauses du contrat, si la loi dit que c’est la responsabilité du constructeur.



Par ailleurs, le propriétaire pourrait bien être le constructeur……..

votre avatar

argumente un minimum peut-être ?



Il est bien établi depuis l’arrivée de tesla & co que le nombre d’accidents en baisse … au contraire les assurances sont perdantes avec l’arrivée de ces modes de conduite.

votre avatar

Moins il y a d’accidents plus les assurances se frottent les mains.
Les assurance adorent assurer sans risques.



Normalement les aides à la conduite (pas uniquement Telsa), aident à réduire les accidents.




Les études existantes montrent que pour chaque ADAS, on enregistre une réduction des accidents variant entre -2% et -50%


Bon … après le système le plus efficace semble être celui de détection de somnolence (suivi de l’ESC qui aide à maintenir la trajectoire du véhicule et des systèmes qui avertissent quand il y a un obstacle à l’arrière)

votre avatar

Les primes d’assurances sont liées aux risques, quand je paie ma prime d’assurance moto 4x moins cher que lors de ma première année en jeune conducteur, je suis content.
Et mon dernier sinistre non responsable à 4000€, je reste satisfait …
Donc demain avec un véhicule “autonome” la prime sera encore réduite, car moins accidentogène.



Mais oui l’assurance gagne bien de l’argent sur le produit d’assurance, l’ensemble de la population paiera ses primes moins cher, et graduellement avec le nombre d’accidents en diminution l’assurance augmentera son économie d’échelle.



Mais ce n’est en aucun cas le “doute” de la mise en cause de la responsabilité qui favorise un gain pour l’assurance.

votre avatar

Pour la mise en cause, je suppose que durant pas mal de temps le conducteur aura la responsabilité (à peu de choses près, tant qu’un volant sera dans la voiture).



Je suppose que la responsabilité peut être donnée au constructeur si un dysfonctionnement a directement provoqué le problème sans que le conducteur ne puisse l’éviter (cruise control bloqué, …)



Ceux qui vont y perdre ce sont les garagistes, les carrossiers et les experts.

votre avatar
votre avatar

alors, juste pour le principe du “on peut faire dire ce qu’on veut aux chiffres”, et sans lire l’article, je me méfie :
“10 fois plus meurtriers”, c’est pas forcément incompatible avec “moins d’accidents”, si 3 accidents se font sur autoroute avec décès du conducteur systématique, ça fait un taux de 100%, si un véhicule non autonome fait les mêmes 3 accidents mortels sur autoroute, mais avec 30 accrochages avec juste de la tôle froissée en mauvaises manœuvres dans des parking ça fait 10% d’accidents mortels, 10 fois moins, mais c’est pas représentatif de la dangerosité du véhicule (en considérant que les km parcourus comptabilisés sont cohérents)

votre avatar

Alors, juste pour le principe, on peut aussi lire l’article avant de critiquer.

votre avatar

du coup je me suis penché sur l’article
il est encore moins fiable que ce que j’imaginais en disant qu’il fallait se méfier
les conclusions sont peut-être correctes, mais les chiffres pour les obtenir sont absents, je veut bien que qqn qui est peut-être réputé fiable dise “10 fois plus meurtriers”, mais je vois pas sur quoi il se baserait, y’a que les chiffres de 2022 (sur la période 2021-2022 donc)
c’est assez léger, ou au moins dans cet article mal organisé
et y’a aucune mention de la population étudiée (tesla / non tesla, quantité / niveau d’aide à la conduite, km parcourus par élément de la population …)



note que je dirai la même chose dans l’autre sens, si un article disait “10 fois moins meurtriers”, je demanderai les chiffres sur la population, les conditions, les km parcourus …



l’avantage d’une automatisation (de manière générale), c’est un gain en fiabilité / reproductibilité / prévision, mais si on en profite pour changer certains paramètres d’entrée, les résultats en sortie peuvent être opposés à ce qu’on espère, mais c’est pas forcément intrinsèque à ce qui a été fait pour l’automatisation



pour prendre un exemple extrême pifométrique, admettons qu’un humain standard roule à 100 sur autoroute, il y aura un petit échantillon d’humains qui roulera à 200 (les autres ressentant quand même un danger et n’iront pas jusque là), ceux qui se planteront à 200 auront peu de chance de survie, mais seront naturellement peu nombreux
le même véhicule avec une conduite autonome donnera peut-être une impression de sécurité à beaucoup et ils seront plus nombreux à rouler à 200, les inévitables crash auront un niveau de survie équivalent aux conduites humaines, mais il y aurait probablement une proportions plus importante à première vue, mais directement influencée par les données de départ différentes



en résumé, pour affirmer des choses aussi importantes (“10 fois”, c’est pas rien) faut des chiffres argumentés, qu’il n’y a pas dans l’article

votre avatar

Bon, c’est pas une Tesla …

votre avatar
votre avatar

Et le “mode Elon” reste secret car Tesla n’a pas encore validé sa capacité à produire des véhicules 100% autonomes en pilotage et commercialisables. Mercedes est le seul constructeur à avoir atteint ce stade. On a déjà signalé qu’Elon Musk est surtout un commercial de génie…

votre avatar

Pas très clair tout ça.



La voiture est pilotée à distance mais par qui/quoi ?



Des humains ou un système automatique ?



Si c’est par des humains, comment a-t-elle pu redémarrer toute seule ?



Dans tous les cas, piloter à distance me semble une mauvaise idée en présence d’humains. En cas de rupture du canal de communication, on court à l’accident quel que soit le “pilote”.



Ce qui est sûr, c’est effectivement que leurs procédures de sécurité sont à revoir complètement.

votre avatar

Par l’IA… mais celle ci a affiché le message “insérez le disque 4 et appuyez sur [entrée] pour continuer” au moment du démarrage inprévu.

votre avatar

C’est vague en effet, et vu que les expérimentations dans la région, le passif pour le métro autonome et les travaux affichés sur le site de l’université, je dirais véhicule autonome supervisé à distance.



Après si effectivement la sécu est à revoir, ça m’étonne aussi quand je compare avec la navette autonome qui a circulé sur le campus de Villeneuve d’Ascq pendant plusieurs mois il y a quelques temps. Elle roulait moins vite que papy et s’arrêtait au moindre caillou de travers sur la route. C’était limite le comportement frustré des autres conducteurs qui était dangereux.



Dommage qu’il n’y ait pas plus d’info, et perso je ne suis plus abonné à la Voix du Nord pour savoir si l’article source est plus complet.

votre avatar

+1 : ça manque d’infos.
Que veut dire “redémarrer” ici :
1/ la voiture est allumée et à l’arrêt, et elle se remet à rouler
2/ la voiture est éteinte, et elle s’allume et se met à rouler



Ça veut dire quoi “en dehors du contrôle humain” ?
1/ comme une voiture télécommandée jouet, elle capte un mauvais signal et fait n’imp’ (bonjour la gestion de l’authentification des commandes)
2/ elle capte un signal réel d’instructions, et c’est l’émetteur qui n’aurait pas dû émettre
3/ elle a un système d’autonomie et elle a décidé de faire des actions sans signal extérieur



Est-il possible qu’il y ait eu une action malveillante (un pirate s’est infiltré sur le PC contrôlant la voiture et lui a envoyé les instructions) ?



Bref, ça manque d’infos. 😔

votre avatar

Bienvenu chez les ch’tis pilote amateur :D

votre avatar

fred42 a dit:


… Si c’est par des humains, comment a-t-elle pu redémarrer toute seule ?



Dans tous les cas, piloter à distance me semble une mauvaise idée en présence d’humains. En cas de rupture du canal de communication, on court à l’accident quel que soit le “pilote”.



Ce qui est sûr, c’est effectivement que leurs procédures de sécurité sont à revoir complètement.


Cela me fait penser aux comportement erratiques de voitures télécommandées à 27 MHz, bande archi saturée.



J’ai le sentiment que c’est leur protocole radio qui est à revoir car on sait faire des protocoles sûrs avec des actions de sauvegarde très claires en cas de rupture du lien, qu’il soit filaire ou radio ou même audio.

votre avatar

Clair, j’ai fait un peu de TT 110 ème quand j’étais jeune et le 26Mhz c’était bien la merde, suffisait qu’un crétin allume son émetteur sur le circuit sans avoir prit la peine d’aller regarder sur le tableau de fréquence pour voir si sa fréquence était libre et c’était le merdier (les plus riches utilisaient des radios en 41Mhz et y avait beaucoup moins de monde mais moi j’étais “pauvre” du coup …)



Cela dit le 2.4Ghz c’est pas non plus toujours la panacée, ayant repris le modélisme en aéro depuis une petite dizaine d’années j’ai eu une radio Spektrum DX7 en DSM2 avec laquelle j’ai eu un certain nombre de blancs dont certains se sont soldés par des crashs.
Par contre jamais eu le moindre soucis avec Frsky ou Radiomaszter, comme quoi parfois le matos Chinois abordable c’est pas si mal.



T’as pas besoin d’être à l’échelle 1 pour avoir un danger potentiellement mortel avec un bidule télécommandé.
Pour faire un peu d’hélico RC je vérifie systématiquement tout 3-4 fois avant d’envisager un démarrage moteur, en cas d’erreur ou/et d’imprudence avec des pales en carbone tournant à plusieurs milliers de tr/min ça peu rapidement se finir très très mal voir se finir tout cours (tous les ans il y a des accidents mortels avec ces joujoux, parfois à cause d’impondérables, le plus souvent à cause de l’inconscience du pilote)



Là vu qu’il n’y a aucun détails dans l’article difficile de connaitre leur protocole de sécurité mais visiblement soit il en manque soit ils ont prit quelques libertés avec et est arrivé ce qui devait arriver.
Le 1er commentaire citait la vidéo de Vilbrequin sur le sujet, quand je vois le nombre de sécurités qu’ils avaient foutus partout alors que ça n’était qu’un bricolage d’amateurs (très éclairés quand même), et les précautions qu’ils prenaient quand même parcequ’on ne sait jamais, j’ai du mal à imaginer que des chercheurs “pro”, CNRS et école Polytechnique, n’en aient pas prit au moins autant, ou alors excès de confiance on saute 2-3 précautions pour aller plus vite paracerque ça a toujours marché sans soucis avant et c’est généralement là que ça part en couilles.

votre avatar

Certes et le passage à l’échelle que je mentionne n’est pas propre à la taille de l’objet mais plutôt à sa complexité informatique. Ce que je voulais dire c’est que faire une analyse de risques ISO 26262 et ISO 21434 sur un modèle RC est sans commune mesure avec un vrai véhicule. Les implications elles même sont différentes tout autant que les sources de panne et autres événements hasardeux.



Mon propos est que modifier un véhicule quel qu’il soit c’est modifier aussi les hypothèses de ses concepteurs. Aussi le faire sans une connaissance complète de comment il a été conçu est une imprudence. Le problème ici n’est pas que le véhicule ait redémarré tout seul (ça arrive) mais plutôt de savoir pourquoi cela a conduit à blesser trois personnes alors que le véhicule est conçu de sorte que cela n’arrive pas. Il n’y a que 2 réponses possibles: soit les modifications apportées ont désactivé des mesures de sécurité soit elles ont introduit des événements redoutés non-prévus dans l’arbre de défaillance. Dans les deux cas - et c’est l’ingénieur automobile que je suis qui le dis - cela résulte d’un manque de compétences. Je comprends l’intention de ces chercheurs de changer d’échelle dans leurs expérimentations. Mais ce que je ne comprends pas c’est qu’ils aient pu le faire avec autant de légèreté sur la sécurité humaine.

votre avatar

Juste une précision, il ne s’agit pas ici de l’école polytechnique, mais de l’université polytechnique Hauts-de-France

votre avatar

Dotez cette voiture du dernier ChatGPT, et elle vous présentera ses plus plates excuses aprés vous avoir aplati

votre avatar

Skynet s’entraîne.

votre avatar

.

votre avatar

A partir du moment où un constructeur vend son “pilote automatique” en tant que “pilote automatique”, c’est de sa responsabilité pleine et entière. On ne peut pas dire que c’est automatique et que la faute incombe à l’utilisateur si cela ne fonctionne pas correctement et qu’il faut que l’utilisateur reprenne le contrôle.



Sinon, ils changent de nom en appelant cela une “aide à la conduite” et là, la responsabilité du constructeur ne sera pas forcément à mettre en cause pour chaque accident.



L’État se doit de défendre ses concitoyens contre ce genre de pratique en légiférant ce genre de mercatique, d’abus de langage, de mauvaise foie, etc…

votre avatar

En fait, le CNRS ne stoppe rien du tout, car si je comprends bien l’article, au moment de l’accident la voiture était arrêtée (non roulante donc). :non:

votre avatar

nikogaug a dit:




  • Soit le mode automatique est utilisé dans les conditions requises et la responsabilité est du ressort de l’automate et donc du constructeur.

  • Soit le mode automatique est utilisé en dehors du cadre prévu et dans ce cas la responsabilité revient à l’utilisateur.



Dans les faits, il y a de forte chance pour que les clauses d’utilisation que personne ne lira (genre “ne pas utiliser le mode automatique en cas de danger possible”, “quitter le mode automatique en cas de situation de danger”, etc.) fera en sorte dans 99% des cas, la responsabilité soit du ressort de l’utilisateur. Soit parce qu’il n’a pas suivi les recommandations des clauses. Soit parce qu’il ne pourra pas prouver que le problème ait été causé par le pilotage automatique.



Quoi qu’il en soit, il me semble que notamment du fait des problèmes juridiques, les voitures autonomes, c’est pas pour tout de suite.


Ça me fait penser à ma boîte automatique.
Dans le manuel, pour passer du mode auto au mode manuel il faut être à l’arrêt, en pratique on passe de l’un à l’autre sans problème.
Idem en mode manuel pour changer la vitesse, il faut lâcher la pédale d’accélération pour changer de vitesse.
En pratique…



Plein de petit truc comme ça qui fait que si t’as une merde, t’as pas mal de chance d’être en tord 😅

votre avatar

Etonnant que cela puisse arriver :-( ils auraient quand même du prévoir un circuit d’urgence …

votre avatar

“le véhicule s’est remis en marche alors que les agents visionnaient une séquence vidéo sur un écran, dos tourné au véhicule”
Il faudrait équiper l’écran de rétroviseurs. :transpi:

votre avatar

Shadowman_2k3 a dit:


argumente un minimum peut-être ?


C’est un simple argument économique. En cas d’accident, l’assurance, le conducteur passager du véhicule responsable et son fabriquant vont se renvoyer la balle. Deux des trois partie prenant on des moyens considérable pour faire traîner voir étouffer l’affaire. A moins d’une erreur flagrante du constructeur, les conditions d’utilisation feront en sorte de contenir des exception renvoyant la responsabilité au “conducteur”. Donc les “conducteurs” paieron une prime d’assurance au cas ou, tout comme les constructeurs, au cas ou.




Il est bien établi depuis l’arrivée de tesla & co que le nombre d’accidents en baisse


Je te retourne ta question : argumente un minimum peut-être ?
Je veux des sources :windu:

votre avatar

cadeau :
étude waymo



Je vous laisse creuser plus le sujet si besoin, mais les faits sont là.



Pour un modèle classique, un constructeur souscrit déjà à des assurances si erreur de leur part et un conducteur est déjà assuré … donc si moins d’accidents, peu importe le responsable l’assureur est perdant.
Pour un modèle autonome, Je ne vois pas à quel moment on AJOUTE une prime d’assurance dans le processus …



Autant les assurances s’en mette plein les fouilles avec le réchauffement climatique et grâce à micron qui flingue la sécu, mais sur le sujet automobile, ils sont perdants.

votre avatar

Chouette, une étude indépendante.



Et légèrement de mauvaise foi. J’aurais compté les déconnections comme des accidents. Si le passager doit avoir la concentration d’un chauffeur pour éviter les accidents, a quoi sert l’autonomie prétendue du véhicule ?

votre avatar

Shadowman_2k3 a dit:


Il est bien établi depuis l’arrivée de tesla & co que le nombre d’accidents en baisse … au contraire les assurances sont perdantes avec l’arrivée de ces modes de conduite.


Il n’est rien établi du tout, parce que les comparaisons faites (par Elon Musk) sont sur des choux et des bananes (i.e. des véhicules récents roulant sur autoroute, vs l’ensemble des véhicules sur tout type de route).

votre avatar

désolé pour les blessés.



sinon faut éviter de pomper le code des drones suicide ukrainiens …

votre avatar

Pour revenir à l’article, c’étaient des expérimentations, donc ce genre de mauvaises surprises n’est pas si surprenant. Et il est beaucoup plus difficile de faire confiance à une voiture “éteinte”. Comment-sont connectés les batteries au réseau de la voiture? Peut-on y mettre un gros coupe-circuit pour tout couper?

votre avatar

Le youtubeur Jean-Baptiste Dessort (Le Billet Auto) est décédé dans un accident de voiture (Numerama, 26/06/23)




L’homme de 37 ans était au volant d’une Tesla Model S Plaid du parc presse de l’entreprise. La gendarmerie énonce qu’il aurait percuté un arbre après une sortie de route. Aucune information supplémentaire ne permet à ce jour d’en dire plus sur les circonstances de l’accident.


votre avatar

Rien à voir avec le contenu, mais juste un point par rapport aux demandeurs de contenus vidéo, un truc qui m’a vendu du rêve sur le site de Numerama :




La vidéo est bloquée car vous n’avez pas accepté les cookies et autres traceurs.
Ce contenu est fourni par un tiers. Pour pouvoir le visualiser, vous devez accepter l’usage étant opéré par ce tiers avec vos données, qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l’amélioration des produits d’Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l’audience de ce site.


votre avatar

La démonstration en question était celle d’un véhicule utilitaire électrique de marque « Goupil » modifié en prototype. Celui-ci dispose de trois modes de pilotage : manuel classique, déporté via un joystick et déporté via un ordinateur.


Si j’en crois donc la description, le véhicule n’est pas spécialement autonome mais piloté à distance. On peut donc imaginer que le “redémarrage de manière inopinée” soit une instruction envoyée au véhicule par erreur ou mégarde.




fragzepika a dit:


Pour revenir à l’article, c’étaient des expérimentations, donc ce genre de mauvaises surprises n’est pas si surprenant. Et il est beaucoup plus difficile de faire confiance à une voiture “éteinte”. Comment-sont connectés les batteries au réseau de la voiture? Peut-on y mettre un gros coupe-circuit pour tout couper?


L’alimentation haute tension (la mega batterie de 500kg) d’une voiture électrique est, en temps normal et de mon expérience de conducteur de véhicule de ce type, “démarrée” dans la même idée qu’un véhicule thermique. Au sens où il y a bien une action positive à faire pour “démarrer” le véhicule (appuyer la pédale de frein, appuyer un bouton, etc). L’électronique est maintenue en vie par une batterie 12v classique sinon. L’alim haute tension s’active aussi dans le cas où la clim stationnaire est utilisée si je ne m’abuse (après j’ai pas la prétention de connaître l’ensemble du marché).



C’est donc de la pure spéculation spéculative qui vaut ce que vaut toute spéculation, mais de mon point de vue, si le véhicule est télécommandé, il a donc reçu une action positive pour démarrage. J’imagine que leur enquête va justement avoir pour but de comprendre d’où vient cette réactivation spontanée.

votre avatar

Les chiffres y sont. Ilsl ne sont pas regroupés dans le même paragraphe, mais il y a tout ce qu’il faut pour. Et il y a une comparaison directe entre le taux pour les Tesla avec le FSD contre la moyenne générale.
Bref, tout ça pour dire que non, pour le moment, l’automatisation des Tesla avec le FSD ne les a pas rendus plus sure, au contraire. C’est comme ça maintenant, ce n’était pas le cas avant (de mémoire, une étude d’accidentologie en Suède ou Norvège avait exclus les Tesla car … elles n’y avaient pas assez d’accidents pour que ça soit statistiquement valable) et ce sera peut être de nouveau le cas dans le futur.

votre avatar

fragzepika a dit:


Je trouve assez fascinant ce type d’article (ou de vidéo YouTube) entièrement basé sur
“J’ai lu un truc sur Internet qui dit que…”
Pas juste un commentaire, mais bien un article entier. Sans même de tentative de remonter à la source ou de vérifier les affirmation.



Du coup l’article lui-même (de developpez.com) est en fait le 3ème niveau de “bouche à oreille” avec à chaque fois un peu plus d’exagération, en rajoutant une couche, comme avec l’analyse trompeuse de la video de Marques Brownlee (contrairement à ce que dit l’article, le véhicule n’a pas manqué la sortie).



J’ai eu l’occasion de tester AutoPilot (pas le FSD mais c’est la même chose avec la navigation en ville en plus) et mon expérience personnelle est que c’est supérieur aux solutions concurrentes équivalentes que j’ai eu l’occasion d’essayer.
Pas incroyablement supérieur mais tout de même meilleur.



Contrairement à ce que prétend l’article (sur la base d’absolument rien) il est très peu probable que la plupart des conducteurs aient FSD d’activé. Il faut manuellement s’inscrire à la bêta pour l’utiliser, avec moult avertissements, sans parler du prix de l’option.



À titre perso je n’achèterai pas de Tesla en raison des positions politiques de Musk.
Kia et Hyundai font de très bon véhicules électriques pour ceux que ça intéresse.

Mais le fait est que le système de Tesla est en avance sur la concurrence. Honnêtement leurs véhicules sont agréables à conduire, bien plus qu’une BMW avec des boutons en plastique partout et un siège certes en cuir italien mais dur comme un banc.

votre avatar

serpolet a dit:


Le youtubeur Jean-Baptiste Dessort (Le Billet Auto) est décédé dans un accident de voiture (Numerama, 26/06/23)


Il faut considérer que la Model S Plaid est une des voitures les plus puissantes/rapides au monde, ce qui peut facilement causer des accidents.
Pour l’instant on n’a pas d’info permettant de savoir si AutoPilot ou FSD était activé lors du crash.

votre avatar

Shadowman_2k3 a dit:


cadeau : étude waymo
Je vous laisse creuser plus le sujet si besoin, mais les faits sont là.


Des stats fournies par un vendeur de système de conduite autonome, prises pour des faits. (d’ailleurs, encore une fois, il est difficile de tirer des conclusions de cet article, puisque les véhicules Waymo ont plus d’accidents que la moyenne, mais encore une fois en ayant un périmètre restreint donc pas comparable).




Srg2 a dit:


sinon faut éviter de pomper le code des drones suicide ukrainiens …


Il me semble qu’ils sont pilotés, non ?

Accident d’un véhicule piloté à distance : le CNRS nous précise les circonstances

  • Trois blessés, un toujours hospitalisé vendredi

  • Expérimentations sur matériel roulant stoppées

  • Un prototype issu d'un utilitaire Goupil

Fermer