Model S : Tesla envisage deux pistes pour expliquer l’accident mortel
Il faut sauver le soldat pilote automatique
Le 01 août 2016 à 12h00
3 min
Sciences et espace
Sciences
Des représentants de Tesla ont été entendus par des sénateurs américains sur l'accident mortel de la Model S avec le pilotage automatique activé. Deux pistes sont actuellement privilégiées par le fabricant automobile.
Dans l'enquête sur le premier accident mortel impliquant une Tesla Model S avec le pilotage automatique activé, les choses avancent doucement. Le fabricant a expliqué les conditions « extrêmement rares » de l'accident, tandis que le Conseil national de la sécurité des transports (NTSB) indiqué que la voiture roulait trop vite dans un rapport préliminaire. Alors que l'enquête suit son cours, des représentants du constructeur ont eu un rendez-vous avec des sénateurs américains pour s'expliquer sur cette affaire.
Deux hypothèses retenues par Tesla pour expliquer l'accident
Selon des sources concordantes (dont une au moins est membre du personnel du Congrès) citées par nos confrères de Reuters et du New York Times, Tesla envisage actuellement deux scénarios possibles pour expliquer cet accident et le fait que les freins n'aient pas été actionnés.
Le premier, le plus simple, est que la voiture n'a pas détecté qu'un camion traversait la route. Dans la seconde hypothèse, la Model S a bien identifié l'obstacle, mais elle l'aurait – à tort – classé comme un pont ou un panneau de signalisation placé en hauteur au-dessus de la route.
Une séparation des fonctions pour mieux gérer l'image de marque de Tesla ?
Comme l'a expliqué Elon Musk le mois dernier sur Twitter, le radar de la voiture ne tient en effet pas compte de ce qui ressemble à ces éléments pour éviter de nombreux freinages inutiles :
@artem_zin @theaweary Radar tunes out what looks like an overhead road sign to avoid false braking events
— Elon Musk (@elonmusk) 30 juin 2016
Dans les deux cas, la conséquence est la même : les freins n'ont pas été actionnés et la voiture est passée sous la remorque du camion, tuant le conducteur (qui n'a pas non plus actionné les freins).
Quel que soit le scénario, les sources de nos deux confrères américains ajoutent que, selon les représentants de Tesla, le freinage automatique en cas d'urgence et le pilotage automatique sont deux fonctionnalités distinctes l'une de l'autre. Une « séparation » de deux systèmes, censés fonctionner de concert, qui peut s'expliquer de manière simple pour Kelley Blue Book, un spécialiste du domaine automobile interrogé par nos confrères du New York Times.
Pour lui, c'est lié à l'image de marque de la société : « Le pilote automatique est un élément clé de l'image que Tesla veut projeter. C'est un sujet très important. Ils ne veulent donc pas être en position de dire qu'il y a quelque chose qui ne va pas avec un élément qui fait partie de l'image de l'ensemble de l'entreprise ».
De son côté, Tesla a confirmé à nos confrères qu'une rencontre avait bien eu lieu avec des sénateurs, mais le fabricant automobile a refusé d'en dire plus sur le contenu de cet échange.
Tesla inaugure sa Gigafactory dans le Nevada
Notez enfin que, dans un registre différent, Tesla a inauguré sa Gigafactory il y a quelques jours à peine. Les travaux ont débuté il y a deux ans, mais elle n'est pas encore terminée. Le début de la production y est prévu pour 2017 avec une capacité maximale en 2020.
Model S : Tesla envisage deux pistes pour expliquer l’accident mortel
-
Deux hypothèses retenues par Tesla pour expliquer l'accident
-
Une séparation des fonctions pour mieux gérer l'image de marque de Tesla ?
-
Tesla inaugure sa Gigafactory dans le Nevada
Commentaires (240)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 01/08/2016 à 14h56
Le 01/08/2016 à 15h02
Dis donc, ça polémique à tout va !
Pour faire simple (mais comme personne ici, je n’ai pas le dossier) :
Il va probablement se produire d’autres accidents de voiture autonomes ou semi-autonomes. Et, pour le dire cyniquement, c’est les leçons tirées de ces accidents qui permettront d’améliorer cette technologie.
Pour Tesla, c’est un échec, un incident de parcours. Mais pas une vraie faute à mon sens. Même si ça peut être monté en épingle et nuire à leur image et à l’image des voitures autonomes.
PS: quelqu’un sait comment s’est soldé l’affaire des régulateurs de vitesses qui devenaient incontrôlables….? (Renault, Nissan, Toyota….). En tout cas, les constructeurs en question vendent toujours des voitures (avec régulateurs) !
Le 01/08/2016 à 15h02
Merci Telsa, maintenant on va avoir l’air malin avec nos comparaisons informatique/automobile " />
Le 01/08/2016 à 15h06
Pardon Ikea a supprimé toutes ses commodes à la vente? " />
ou ils ont juste “corrigé le problème de la commode qui était dangereuse” ?
Le problème de l’accident ici n’est en RIEN la “perte d’attention”, c’est la bêtise de ne faire “aucune attention à la route”.
Même un mec qui rêvasse aurait du voir ce véhicule qui se rapproche à grande vitesse. Même si il avait perdu 1 seconde de réaction, il aurait pu réduire suffisamment sa vitesse, pour sauver sa vie
Ca n’est pas parce qu’il y a des idiots qu’on doit interdire completement toute “assistance à la conduite”.
Le 01/08/2016 à 15h07
Un seul accident est statistiquement non pertinent : VRAI.
Tesla prétend vendre une voiture avec pilote automatique : FAUX
En revanche, c’est ce que prétend BMW qui est bien moins avancé.
C’est juste que la plupart des gens ne savent pas qu’autopilot vient du terme utilisé en aéronautique et qui n’implique pas à la base une autonomie complète. Tesla vend un véhicule certifié pour une autonomie de niveau 2 même si leur soft s’approche du niveau 3 et Google est sur le niveau 4 et vise le 5 (autonomie totale).
Tesla vend un système en phase beta-test : FAUX, du moins au sens ou on l’entend habituellement. Le problème avec ce genre de technologies, c’est qu’il est impossible de certifier le fonctionnement sans tests en conditions réelles (Musk a publié qu’il faudrait plus d’un milliard de km en conditions réelles pour envisager de sortir de cette pseudo phase beta).
Où est le problème ? Quand on vend au gens un système capable de faire bouillir de l’eau, ils essaient de faire le café directement avec.
Personne ne semble se souvenir des problèmes (humains) qu’il y a eu avec les premiers régulateurs de vitesse (non adaptatifs).
(Edit :
Le 01/08/2016 à 15h08
Ah, et au fait, l’existence de ce fait divers, et les conclusions qui en seront tirées sur le plan de la responsabilité, n’auront que peu d’impact sur le développement (inexorable à mon avis) des voitures autonomes.
Si la législation doit changer avec la généralisation des algorithmes embarquées, alors la législation sera changée. Mais avec un décalage temporel. Le code de la route a été inventé bien après les voitures.
D’ailleurs, il y a déjà pas mal de débats de juristes là dessus.
(ex de séminaire sur le sujet à Grenoble l’automne dernier:http://www.inria.fr/centre/grenoble/actualites/logiciel-embarque-et-responsabili…
Le 01/08/2016 à 15h10
Le 01/08/2016 à 15h16
Dans mon cas, c’est bien un régulateur, je n’ai pas de limiteur mais quand ça s’est dégagé après ralentissement, je fais un rappel de vitesse dès que je suis revenu au niveau de la limitation légale.
Le 01/08/2016 à 15h20
Pas lie a l’accident, mais en regardant la video youtube, je suis surpris du nombre de “heu” de la part d’Elton Musk. Pour une personne de la silico valley il ne fait pas tres a l’aise pour faire des presentations
Le 01/08/2016 à 15h22
Il est toujours comme ça. C’est effectivement peu commun mais on s’y fait.
Le 01/08/2016 à 15h25
C’est la premiere fois que je vois une de ses videos, a part son cameo dans Big Bang Theory" />
Apres, ca montre qu’on a pas besoin d’etre un orateur hors pair pour reussir a vendre du reve.
Le 01/08/2016 à 15h39
Le 01/08/2016 à 16h23
Le 01/08/2016 à 16h27
Sur le fait qu’il y moins de mort par x kilomètre parcouru avec auto pilote qu’avec conducteur.
ça à été dit dans la news NXI qui annonce la première mort pour le pilote auto.
Le 01/08/2016 à 16h54
Le 01/08/2016 à 16h56
Le 02/08/2016 à 08h56
les chinois ne respectent pas complètement le process qui conduit à un pilote automatique de sécurité, c’est pour ça qu’ils achètent des pilotes auto européens quand ils ont vu qu’ils ne savaient pas faire.
Le 02/08/2016 à 08h59
si c’est en ville à 50 tu vas freiner des que la menace est détecté soit avant ce que l’humain aurait fait.
A moins que la personne ne se jette sous tes roues (dans ce cas c’est imparable), tu devrais la taper à faible allure.
Le 02/08/2016 à 09h01
Les pilôtes auto des avions ne sont pas infaillibles, mais ils sont développés avec des normes qui sont drastique, comme évoqué plus haut par illidanPowa, l’objectif, comme dans le ferroviaire que je connais bien mieux, c’est une probabilité d’occurence d’un évenement redouté de 10^-9/h (SIL4).
C’est à dire en gros que ton système est résistant à un défaut simple, et les conséquences d’un défaut doubles sont au mieux nulles, au pire réduites au maximum par des mitigations.
Pour faire simple, pour tout ce qui est capteur de grandeur critiques (ie vitesse et dans notre cas, environnement extérieur), il y a deux types de capteurs utilisant des procédés physiques différents. Dans le cas d’un train, la vitesse est mesurée à la fois en utilisant un radar Doppler (même concept que les radars pour flasher les bagnoles, mais c’est embarqué à bord du train) et une roue phonique (on compte le nombre de tours de roue. le roue est mesurée au laser tous les x km parcourus pour recalibrage, et l’usure de la roue est modélisée à l’intérieur du calculateur). Chaque techno a ses avantages et inconvénients, et si les mesures des deux capteurs divergent trop, le système applique les freins (pas de soucis de sécurité, l’espacement des trains assure que le train suivant peut s’arrêter en temps et en heure).
Bien sur que le tesla est responsable de son logiciel, c’est pas parce que c’est marqué dans la licence que le logiciel est livré tel quel et sans garantie qu’ils sont exempts de toute responsabilité. ça n’enlève en rien la responsabilité du conducteur qui aurait du conduire et non regarder un film.
Le problème avec des systèmes, c’est qu’ils ont tendance à transmettre un faux sentiment de sécurité et de fiabilité alors que leur niveaux d’intégrité n’est pas forcément compatible avec ce qu’ils promettent. En gros, c’est pas parce que le système dit à chaque fois “je suis en bêta test, conduit et fait pas le con” que l’utilisateur ne prend pas confiance dans le truc, et au fur et à mesure, il laisse le système se débrouiller, vu qu’il n’y a pas eu de soucis avant. Jusqu’au drame.
Tous ces pilotes automatiques se basent sur de la détection d’objets avec aux choix laser/vidéo/ultrason … et cette détection se fait sur base d’algo de traitement du signal, soit uniquement des probabilités. Il suffit que l’algo soit mal calibré/pas assez performant ou détecte trop de choses à tort, pour que son paramétrage soit un peu relâché pour détecter moins de choses (autrement la voiture passerait son temps à freiner, réaccélérer) : pas possible. On se retrouve avec un algo qui ne détecte pas certains objets.
Pour conclure, il faut accepter la mise en service tels système de conduite, s’ils diminuent de façon intrinsèque le nombre de victimes et d’accidents sur la route, même avec un usage ‘mauvais’, type relâchement de la vigilance, voire absence de vigilance du conducteur, sinon le nombre de morts commencera par diminuer, et raugmentera ensuite. Dans le bilan de bénéfices du système, il faut aussi prendre en compte le effets ‘indus’ par celui-ci, et notamment le fameux facteur humain. Et je ne suis pas sûr que ce soit déjà le cas.
Le 02/08/2016 à 09h02
Le 02/08/2016 à 09h08
Le 02/08/2016 à 09h08
Je suis bien d’accord." />
Le 02/08/2016 à 09h10
ouais ben faut arrêter de croire aussi que le fournisseur peut se protéger de tout procès rien qu’en blindant les “petites lignes” du contrat. C’est pas comme ça que ça se passe en justice.
Le 02/08/2016 à 09h11
sauf que là on parle quand même d’une usurpation très grave puisqu’elle conduit à la mort.
Je connais une personne qui a une Tesla S avec le pilote auto, et la première chose qu’elle fait quand elle veut montrer cette fonction c’est de lâcher les mains…. Le nom est beaucoup trop trompeur pour que ce ne soit pas dangereux.
au passage merci pour l’insulte ça élève le débat, on se demande qui est l’idiot…
Le 02/08/2016 à 09h13
oui sauf que là c’est un accident évitable….. on parle pas de situation tordu, imparable ou autre
Le 02/08/2016 à 09h15
Le 02/08/2016 à 09h16
Toi t’es du genre à attaquer le fabricant de ton micro-ondes parce que tu as mis le chat à réchauffer.
Ca fait peur.
Le 02/08/2016 à 09h19
Pour ton point 2, tu as des chiffres à citer ? parce que d’après Wikipédia, la “sinistralité” (létale et non létale) n’a fait que baisser depuis les années 80 (peu être même avant, je n’ai pas fouillé jusque là). J’ai du mal à croire que les gens conduisent si mal comparé à avant quand le nombre d’accidents est divisé par trois entre 1990 et 2015, pour une circulation augmentée de quasiment 80% (soit à peine un cinquième de la fréquence, en proportion). Les aides à la conduite réduisent la létalité des accidents, pas vraiment leur nombre. Je vote pour un effet “c’était mieux avant” " />
Et si tu trouves dangereux un mec qui décroche sur ta voie à la vitesse limite…ben si tu étais aussi à la vitesse limite, ça ne serais pas dangereux, donc les tords sont un peu partagé non ? " /> (et je dis bien partagé, le décrocheur fou est clairement en tord aussi)
Le 02/08/2016 à 09h30
le micro-onde ne s’appelle pas sèche poil, là c’est exactement ça le problème.
Le 02/08/2016 à 09h31
si, Tesla est en tort, on ne fournit pas une fonction de sécurité en BETA, même avec les explications.
sinon si une personne se jette sous ta voiture, c’est un accident imparable.
Un camion en travers de la route aurait du être détecté, sinon, leur fonction ne devrait pas être vendu comme pilote automatique.
Le 02/08/2016 à 09h38
Le 02/08/2016 à 09h39
Le 03/08/2016 à 08h03
Le 03/08/2016 à 08h51
" />
Après quand on est pas d’accord avec quelqu’un on est pas d’accord, mais je retiens quand même que tout ceux qui veulent rouler dans des véhicules autonome sont des futurs légumes!
/tête de poireau
Le 03/08/2016 à 09h05
ah ben voilà on y est monsieur est à cours d’arguments alors il active le mode défense de gamin de maternel, j’ai assez perdu mon temps j’éviterais de commenter à nouveau sur nextinpact.
juste pour ton info, si on met des portes sur les quais des métros c’est parce que les gens descendent sur les voies et qu’ils se tamponnent des règles, pourtant le risque de mort est extrêmement élevé entre le métro qui peut te percuter et les rails d’alimentation qui sont de forte puissance (et qui ne vont pas de se couper parce qu’un humain fait court-circuit). Sur un métro en pilote automatique c’est obligatoire car personne n’arrêtera la rame dans ce cas, surtout qu’il entre beaucoup plus vite en station qu’un conducteur humain.
combien de fois j’ai vu des gens descendre en voie ramasser son smartphone ou même le doudou de son gosse, alors que tout simplement il a de très fortes chances de mourir. alors tu penses bien que les recommandations d’un constructeur comme Tesla….
Tout le monde n’a pas ta grande intelligence….. " />
Le 03/08/2016 à 09h06
c’est tout à fait ça.
pour les médicaments ça à tuer y’a pas longtemps " />
Le 03/08/2016 à 09h42
T’inquiète pas on a compris que la connerie d’un seul avait condamné l’ensemble de l’humanité à l’inconscience et à la débilité… Triste monde…
Après je suis depuis 10 ans à Paris, j’ai absolument jamais vu quelqu’un descendre sur les voies du métro.
Le 03/08/2016 à 09h50
ben je suis sur Paris aussi et ça arrive tous les jours, c’est pour ça que la ligne 13 notamment a été équipée de porte palières ce qui coûte cher et qui n’est pas lié à une automatisation.
Le 03/08/2016 à 10h17
Le 03/08/2016 à 12h32
Le 04/08/2016 à 08h26
C’est une aide à la conduite, et tu as toujours la main (et le pied !)
Le 04/08/2016 à 15h59
Le 04/08/2016 à 16h07
Le 04/08/2016 à 16h18
Le 04/08/2016 à 20h40
C’est plutôt vers tesla qu’il faut que tu te tournes si ca ne te plais pas. Je n’ai fais que citer ce qui es mis en gros caractères chez eux, rien de plus.
(appel un chat un chat… assistance à la conduite pas pilote automatique).
Et perso, je ne suis pas pour ce genre de véhicule car il n’y a aucun doute que cela apportera d’autres problèmes.
Surtout que d’autres se frotteraient bien les mains avec des voitures complètement connectées (je pense à voleurs et gendarmes).
Le 04/08/2016 à 20h50
edit trop tard,
Si le terme n’influençait pas tu n’aurais même pas pas réagit à mon mesage…
Le 01/08/2016 à 14h31
Le 01/08/2016 à 14h32
Je comprend l’erreur de l’autopilot, et je voie pas trop comment on pourra l’éviter par la suite : Imaginer un camion en travers de la route en haut d’une côte et la même côte sans camion mais avec un panneau d’indication un peu plus bas dans la descente de la côte, la caméra ou le radar verront la même chose : une surface en travers de la route. Et si la voiture s’arrête a chaque côte avec un panneau… Donc a moins de connaitre la topologie exacte du terrain…
Le 01/08/2016 à 14h39
Le 01/08/2016 à 14h41
Le 01/08/2016 à 14h42
Le code de la route Américain est-il différent du code de la route Français ?
Je fais référence à l’article R412-6, qui dit “tout conducteur doit rester maître de son véhicule”.
Le 01/08/2016 à 14h42
Le 01/08/2016 à 14h43
Je dis pas non plus que “tout est parfait dans l’autopilote” et que “ça a fonctionné parfaitement”.
Mais quand tu as un véhicule lancé à grande vitesse, avec un systeme automatisé qui t’explique que “tu dois être en plein controle à tout moment” et que le conducteur “laisse completement le controle”, c’est à 100% de sa faute.
Le 01/08/2016 à 14h45
Le 01/08/2016 à 14h47
J’y arrive bien en jouant à Gran Turismo " />
Le 01/08/2016 à 14h47
Ils devraient le renommer :
“autopilot” => “pilot assist”
Fin de la polémique…
Je ne suis pas fan des assistances à la conduite qui mènent les gens à une attitude qui nuit à la sécurité.
Rien qu’un régulateur de vitesse, je suis convaincu que certains enlèvent leur pied de l’endroit où il devrait se trouver (sur la pédale de frein vu que ça accélère tout seul, ce qui améliorerait sensiblement le temps de réaction des gens).
Là, c’est encore pire, tu n’as plus rien à faire, mais on te dit d’être attentif. C’est incohérent, c’est incompatible avec le fonctionnement du cerveau humain.
Vu que la voiture n’est pas considérée totalement autonome, le mec conduisait en regardant un film.
Je fais partie de ceux qui ne verseront pas leur petite larme.
Le 01/08/2016 à 14h47
eeeet si ils le savent " />
Les conditions d’utilisation de l’autopilote s’associent à une récupération de données comme le nombre de km parcouru, le nombre de fois où l’utilisateur a “désengagé” l’autopilote et “les informations autour du désengagement”.
Et toutes ces info sont utilisés par Tesla pour améliorer leur algo … (la voiture a freiné trop tard ce qui a fait peur à l’utilisateur ? freinons plus tôt …
Il n’empeche que les stats sont absolument incomparable à d’autre stats car le nombre de km est bien trop bas et le pool d’utilisateur trop réduit et pas représentatif.
Mais elles n’en restent pas “fausses” … il faut juste les associer à leur contexte.
Le 01/08/2016 à 14h49
Le 01/08/2016 à 14h49
Le 01/08/2016 à 14h52
Le 01/08/2016 à 14h52
Mais j’ai jamais dit le contraire. Et avoire les données d’utilisation de l’autopilot, Tesla peut les avoir. Je serai même étonné qu’il n’y ait pas un reporting en live.
Le 01/08/2016 à 14h56
Le 01/08/2016 à 12h05
C’est le genre d’accident qui peut totalement tuer un concept :/
Un peu comme le tourisme spatial (crash de SpaceShipTwo).
Le 01/08/2016 à 12h06
Le 01/08/2016 à 12h07
Confondre un camion et un pont, il faut déjà un bon grammage pour y arriver en tant qu’humain.
Le 02/08/2016 à 14h51
tu as le raisonnement de quelqu’un qui développe une app pour smartphone, sauf que là ça tue une personne, si y’a une enquête c’est pas pour rien!! si Musk doit s’expliquer devant le Sénat c’est pas pour rien. On parle de la vie d’une personne qui a fini par avoir trop confiance en un système qui donnait l’apparence d’être fiable.
quand tu prends un ascenseur dans une tour comme l’empire state building, tu ne te poses pas la question de savoir si tu prends un risque? et pourtant, il y a un système critique derrière qui t’inspire une tel confiance que tu n’y fais même plus attention, mais je peux t’assurer qu’en cas de défaillance personne ne survie à une chute de 300m.
Là ça revient à dire monte dans l’ascenseur, je l’ai pas trop testé mais allez-y j’ai confiance en lui…. ben ouais mais surtout saute pas dans la cabine hein (ce que va faire le 1er gosse pour voir).
Le 02/08/2016 à 14h52
Le 02/08/2016 à 15h15
N’importe quoi …
On te dis c’est fiable, que ça a fait des millions de kilomètres sans problème, là 2 connards font n’importe quoi et se plantent et tu nous bourres le mou comme quoi c’est de la merde à cause de cet unique incident… Tu voies pas le problèmes?
Le jour où il y a un accident mortel alors que le chauffeur à respecter les consignes, là ce sera à Tesla d’être complètement en tort. C’est le cas ? Non.
Maintenant qu’ils prennent une partie des torts et améliore leur système, encore heureusement…
Mais je t’en pris envoie une lettre à Tesla, au gouvernement des différents pays, et aux utilisateurs actuels pour qu’il arrêtent cette horrible beta test tueur d’une personne. Heureusement le progrès attend pas les réfractaires.
Le 02/08/2016 à 15h32
je ne dis pas que le mec est un gros débile d’avoir fait confiance à cette machine en dépit des règles (même si là il a quand même pousser le bouchon), je dis juste que à force de jouer avec ce système et lui faire confiance (nature humaine de base, j’ai pas de problème donc j’ai confiance), l’accident était inévitable car le système est en exploitation alors qu’il est pas fini. donc on peut jeter la pierre au conducteur mais Tesla est responsable dans tous les cas d’avoir mis un système qui inspire la confiance a tel point qu’on en oublie qu’il est pas fini.
Le 02/08/2016 à 15h42
tu as raison, le NTSB sont idiots de faire une enquête sur le système de Tesla qui a failli, le Sénat à tort de se poser des questions sur l’accident et notamment le dysfonctionnement de la Tesla et Tesla de reconnaître que leur système à failli (c’est pas comme s’ils cherchaient à cacher le cadavre sous la moquette). Et moi, en tant que spécialiste du domaine des systèmes critiques impliquant la vie des personnes, je suis complètement idiot de croire que Tesla est en tort et que son système à eu le malheur de faire une erreur et que toi tu m’expliques que c’est tout à fait normal, tu comprends il est un peu jeune le système, pis c’est la faute du conducteur du poids lourds, quelle idée de couper une autoroute…..
en gros, je me dis que mon métier ne sert à rien parce que le jour où 2 métros se percuteront à pleine vitesse, je repenserais à ton argumentaire pour me sauver la peau, non mais là c’est en bétâ test vous comprenez les 200 morts c’est juste que le système n’est pas encore au point. " />
J’oublie le meilleur, tu oses affirmer que c’est fiable alors que le système s’est raté au bout 200 millions de km? là où les autres avec plus de 500 millions de km ne mettent pas en service?
D’ailleurs 1 mort tous les 200 millions de km c’est à peu prêt la proportion de ce que savent faire les français…… c’est horrible humains mauvais conducteurs.
Le 02/08/2016 à 15h46
Donc ils sont résponsable de faire un système fiable qui inspire confiance…
Un inconscient se crois dans une voiture autonome au mépris des règles, se crashe et tous les humains sont devenues stupides…
Le 02/08/2016 à 15h59
Je ne me souvient pas avoir dit qu’il n’avait aucune responsabilité, mais que la responsabilité était avant tout humaine, et que dans le respect des règles de conduite de la voiture, il n’y aurait pas eu d’accident, où il n’aurait pas été du faite du système de la voiture.
Je vais me répéter mais le système est jeune, et que de faire de la merde avec c’est complétement irresponsable… Se croire dans une voiture autonome quand elle n’est qu’assisté c’est complétement con et ne pouvait conduire qu’à un accident.
En attendant le système est commercialisé, c’est qu’ils ont dut avoir l’accord, donc des experts en sécurité automobile autre que toi l’on approuvé. Après je dis ça je dis rien hein … Mais c’est pas un mort stupide qui me fera changer d’avis sur l’intérêt du système.
Le 02/08/2016 à 16h17
Quand on lit ça… Federal regulator says car makers “cannot wait for perfect” on automation ">
Le 02/08/2016 à 16h34
on parle d’un pays où tu peux construire ton véhicule de A à Z et rouler sur la route légalement avec du moment que tu as bien les feux, clignotants et plaque d’immatriculation.
Alors crois-moi que le super assistant ils s’en foutent…. parce que eux ont leur a vendu comme ça.
Sauf que ben comme je le répète oui l’humain a eu tort, mais il a fini par faire confiance à la machine parce qu’il avait la sensation que ça marche bien, ceci est inévitable, c’est une réaction humaine et normale mais je te l’accorde pas rationnelle, à force de laisser la voiture conduire toute seule et freiner toute seule tu finis par croire en elle, ta vigilance baisse et boom c’est l’accident.
On ne peut pas mettre un système pas fini (ça Tesla l’a reconnu qu’il est pas fini) dans les mains du grand public même si on le prévient…… surtout quand ce système peut te donner l’illusion qu’on peut lui faire confiance. surtout quand cette fonction est vendu comme de sécurité (encore une fois c’est Tesla qui le dit). Le mec était un grand fan de Tesla, il avait une confiance aveugle dans le système peut-on lui reprocher?si il sort du garage oui après a voir longuement éprouvé le système non.
encore une fois le système de Tesla a failli, il n’aurait pas du, la faible durée de test est en cause et c’est pourquoi on ne voit pas de voiture autre que Tesla sur les routes avec ce genre de système(ils sont d’ailleurs loin d’être des cadors du domaine les mecs de Tesla, très loin).
Le 02/08/2016 à 16h38
si les autres, ceux qui font des automobiles depuis la nuit des temps n’ont pas sorti de système équivalent ce n’est pas parce qu’ils sont en retard (loin de là, très loin de là même), mais parce qu’ils ont conscience de ce problème et que eux n’escamotent pas la phase de test.
Le 02/08/2016 à 17h04
Le 02/08/2016 à 17h08
Le 02/08/2016 à 17h51
je ne fais pas de pleurnicherie, je dis juste que quand on prétend vendre quelque chose au grand public, ce grand public risque de faire n’importe quoi encore plus quand il s’agit de sécurité. exemple pourquoi on met des portes sur les quais de métros pour empêcher de descendre sur les voies d’un métro? c’est dangereux (souvent mortel), c’est interdit et pourtant on met des portes, a ton avis pourquoi?
Quand le système te donne confiance et que tu te sens en sécurité, ta vigilance baisse, c’est un comportement humain. donc quand on prétend vendre ce genre de système, il ne peut se soustraire aux exigences de sécurité auxquels il prétend et donc ne peut être en “beta”.
sur le dernier point on voit que tu es totalement hors sujet. le prochain véhicule de ce type de série sera une Audi, sera une assistance automatique et ne sera autorisée que dans des conditions très restrictives (vitesse<60km/h, autoroute, dans les bouchons en gros) qui seront gérées par cette assistance.
On parle de cet accident mortel mais y’en a d’autres liés à la défaillance de l’autopilote qui heureusement n’ont pas tués mais qui ont détruits les Tesla.
Ce que je constate en tout cas et ça n’a pas changé (c’est pour ça que je commentais rarement depuis un bon moment), c’est qu’ici les gens sont quand même drôlement étroit d’esprit.
Personnellement j’ai argumenté, avancer des chiffres vérifiables, des sources et la seule chose qu’on me rétorque dans ce débat c’est un ton péremptoire et le fait que je dois boire vos paroles et ne pas avoir le droit de ne pas être d’accord avec vous sans être pris pour un idiot seulement quand je lis les réponses qu’on me donne ça me fait quand même bien rire : elles sont soit sans argument, soit à côté de la plaque, soit c’est une insulte. en fait y’a pas de débat, on ne peut donner son avis contraire sans être pris pour un débile.
en tout cas Tesla a été beaucoup plus respectueux de son client décédé que vous ici.
Par ailleurs, hormis l’épisode du pilote auto qui reste scandaleux à mes yeux, je suis fan de Tesla, et oui c’est dommage ton principal argument tombe à l’eau, j’adore l’avancée majeure qu’ils ont réalisé dans les véhicules électriques hautes performances et la projection dans le futur qu’offrent leurs véhicules, y’a de l’audace, y’a des paris et le résultat est bien. y’a tout ce qu’on peut attendre d’une voiture moderne sur ce véhicule.
Maintenant, je le redis sans hésiter, ils ont merdé sévère avec le pilote automatique: dans le nom volontairement pompeux et trompeur, dans le fait de le mettre en service précipitamment et ça va nuire sévèrement à leur image ainsi qu’aux autres projets de ce type…..
Maintenant j’espère qu’ils en tireront les bonnes conclusions mais là ils ont fait une très grosse boulette, surtout qu’ils ont eu des alertes avant.
Le 02/08/2016 à 17h57
“qui te dit que le système n’a pas empêché le conducteur d’agir?“il roupillait: il n’y a eu apparemment aucune action de sa part avant le crash.
Le 02/08/2016 à 19h18
Le 02/08/2016 à 22h29
Le 02/08/2016 à 12h00
Cherche pas tu as tord et il a raison " />
Le 02/08/2016 à 12h05
Le 02/08/2016 à 12h07
et bien dans ce cas pourquoi l’appeler autopilot? c’est quand même donner le bâton pour se faire battre non?
Le 02/08/2016 à 12h09
sur les trains l’humain est considéré comme un élément de sécurité….. avec une probabilité de défaillance bien supérieure à un pilote automatique certes mais de sécurité quand même, il serait idiot de ne pas le considérer comme tel.
quand on se sait pas de quoi on parle, on évite d’étaler sa science….
Le 02/08/2016 à 12h17
je vois pas le rapport là. je remarque juste qu’ici y’a des gros fanboys de Tesla qui ont le kikitoutdur devant les annonces de Musk. et que moi avec mes arguments et mon métier je peux affirmer haut et fort qu’ils font n’importe quoi et que les faits sont là pour le prouver.
Maintenant si tu veux te suicider en Tesla libre à toi, perso je ne le ferais pas.
Appeler une fonction pilote automatique dans le texte (c’est écrit sur la page française de Tesla) alors que c’est pas ce que fait la fonction, n’est pas du tout une volonté d’induire les gens en erreur, nooooooooooon du tout. c’est moi qui suit un gros débile et qui comprend rien.
tiens je vais inverser la pédale d’accélérateur et de frein sur les voitures et surtout je vais bien le dire aux gens à qui je le vends…….. on va voir s’il y a pas d’accident…..
Le 02/08/2016 à 12h17
Le 02/08/2016 à 12h22
des gros cons y’en a partout et tu dois faire avec. c’est pour ça aussi que les systèmes de sécurité sont si complexes. Une fois que tu as compris ça tu as compris que Tesla est une boite inconsciente. Je le répète je suis pour l’innovation mais cette boite a fait de la merde. Google (pourtant je suis pas fan de cette entreprise) eux ont une approche plus pragmatique et dans les règles de l’art.
dans les systèmes critiques, il n’y a pas de low-cost….. Tesla vient de l’apprendre à ses dépends.
Je n’aime pas ce que fait Tesla car c’est une insulte à tous les autres, vouloir sortir un truc pourri avant les autres pour dire qu’on est innovant alors que c’est de la merde…… et réussir à tuer quelqu’un…. ben je trouve ça con.
Le 02/08/2016 à 12h31
je ne me contredis absolument pas, je dis que l’humain est un élément de sécurité mais que ça probabilité de défaillance est nettement supérieur à un pilote automatique (pour les cas des trains hein!!).
Tesla par cet accident vient de démontrer que son pilote auto est moins fiable qu’un humain.
Par ailleurs, un élément de sécurité n’est pas infaillible, mais la probabilité qu’il le soit est très faible et la panne qui peut survenir ne sera pas systématique (les non systématique sont en général des défaillances matériels qui ont chacun d’ailleurs le propre probabilité de défaillance).
Ce qui signifie que si tu reproduis la situation, le système ne se plantera pas à nouveau.
Je suis certain que si tu remets le camion en travers la Tesla le ne verra toujours pas. c’est une panne systématique et ça doit donc jamais arriver.
La probabilité qu’un humain faillisse en ferroviaire est de 0.1 chance par heure.
La probabilité qu’un pilote auto en ferroviaire est une défaillance est de 0,00000001 chance par heure.
Le 02/08/2016 à 12h36
Le 02/08/2016 à 12h46
Haters gonna hate…
On a bien compris que tu n’aimes pas Tesla, mais le principe de leur voiture c’est une aide à la conduite sur autoroute et compagnie. Pas une voiture autonome, mais bon comme tu ne peux pas dépasser le nom d’auto-pilote choisis, on peu rien pour toi malheureusement.
Après faire un tel flan pour un accident où: Le camion est en faute le premier, le conducteur ensuite, et la voiture en dernier; c’est un peu risible.
Tesla par cet accident vient de démontrer que son pilote auto est moins fiable qu’un humain.
Ils n’ont pas dit que la voiture remplaçais l’homme il me semble… juste une aide à conduite sur des routes précises… et avec comme condition que le conducteur reste attentifs et en place pour conduire… Je crois tu mélanges vraiment tout mon pauvre…
Le 02/08/2016 à 12h48
Le 02/08/2016 à 12h51
non je t’explique avec l’exemple que je maîtrise les bonnes pratiques que devrait appliquer Tesla.
Je t’ai donné les probabilités dans le ferroviaire entre l’humain et le pilote automatique dans mon post précédent. L’humain n’est pas si mauvais.
Pour la 2ème partie, ce que tu dis est juste : on a vu une défaillance on va régler le problème (c’est pas pour demain à priori hein….) mais là où je flagelle Tesla c’est que justement ce problème aurait du être vu en phase d’essai et non pas en phase d’exploitation publique.
Google réalise des essais avec des pilotes d’essais initiés à cette procédure de test qui va collecter toutes informations de contexte sur la défaillance éventuelle du système.
Tesla fait tester par le grand public => résultat ils savent même pas dire ce qui s’est passé puisque le conducteur est mort c’est super intelligent comme démarche.
Est-ce que tu comprends où je veux en venir?
D’un côté tu as une entreprise qui suit les standards de développement de systèmes critiques qui ont fait leurs preuves et de l’autre tu as une autre qui fait n’importe quoi pour faire un coup marketing quitte à tuer des gens.
Le 02/08/2016 à 12h52
illidanPowa a écrit :
et bien dans ce cas pourquoi l’appeler autopilot? c’est quand même donner le bâton pour se faire battre non?
illidanPowa a écrit :
je vois pas le rapport là. je remarque juste qu’ici y’a des gros fanboys de Tesla qui ont le kikitoutdur devant les annonces de Musk. et que moi avec mes arguments et mon métier je peux affirmer haut et fort qu’ils font n’importe quoi et que les faits sont là pour le prouver.
Maintenant si tu veux te suicider en Tesla libre à toi, perso je ne le ferais pas.
Appeler une fonction pilote automatique dans le texte (c’est écrit sur la page française de Tesla) alors que c’est pas ce que fait la fonction, n’est pas du tout une volonté d’induire les gens en erreur, nooooooooooon du tout. c’est moi qui suit un gros débile et qui comprend rien.
tiens je vais inverser la pédale d’accélérateur et de frein sur les voitures et surtout je vais bien le dire aux gens à qui je le vends…….. on va voir s’il y a pas d’accident…..
Franchement, j’abandonne, on ne peut plus abreuver quelqu’un qui n’a plus soif. Et je ne suis même pas le seul à le dire pour tes réponses. Tu défends une cause perdu.
TOUTES les entreprises font ça, ça n’excuse pas ce comportement mais une entreprise n’a ni éthique, ni moral, elle est là pour vendre. Si marquer ça en rouge taille 450 sur la plus haute tour du monde peut lui permettre de vendre plus, elle le fera, tant qu’elle ne pourra pas être condamner pour ça.
En l’occurrence, elle a le DROIT de marquer ça SI elle indique en petite ligne la “réalité” et qu’elle prévient ses utilisateurs (Idiot qui ne savent pas lire et/ou veulent faire les kéké), ce qu’elle fait.
Comme 99% des entreprises, surtout dans le high tech.
Toutes les boites d’oeuf avec de jolis pâturages et des poules en plein air qui sont en fait des élevage hors sol en cage avec des poules qui trime nuit et jour, tu défends aussi leur causes ? Nan parce que c’est juste marqué sur la coquille un numéro qui indique la vérité, alors je ne sais pas, tu pourrais confondre, tu vois ?
C’est simple non ? Donc arrête de passer pour un idiot+++ et écris à ton député si tu veux interdire la publicité mensongère. Ça n’a rien à voir avec le sujet ni avec Tesla d’ailleurs.
Argumenter que la conduite autonome a à voir avec Tesla et cet accident c’est aller droit au sophisme.
-> Vous faites des conclusions qui ne sont pas valables car la prémisse de base est fausse : Tesla NE FAIT PAS de conduite autonome. Remplacez “auto-pilot” par “régulateur de vitesse”, et contemplez la bêtise de vos commentaires jusqu’ici.
Le 02/08/2016 à 12h53
Le 02/08/2016 à 12h55
Le gros problème c’est surtout de savoir quand est-ce que le système ne va pas réagir ? Tu roules toute la journée avec, elle a toujours évité les obstacles du coup forcément tu commences à avoir confiance dans le système. Meme en restant attentif à 100%. Le moment ou tu te rends compte qu’elle ne réagi pas c’est trop tard tu peut plus rien faire. Même avec les mains sur le volant.
Le 02/08/2016 à 13h04
" /> un Tesla haters vite il faut le bannir. (ceci est ironique bien sur).
Le 02/08/2016 à 13h07
extrait du site de Tesla France :
“Le Pilotage automatique Tesla permet à la Model S de suivre parfaitement la route, de changer automatiquement de voie en actionnant simplement le clignotant et d’adapter sa vitesse grâce à son régulateur de vitesse dynamique qui réagit en fonction du trafic. Le contrôle numérique du moteur, des freins et du volant permet d’éviter les collisions frontales et latérales, tout en empêchant le véhicule de sortir de la route. La Model S vous prévient lorsqu’elle trouve une place de parking et se gare d’elle-même, suivant votre demande.”
donc si ils l’ont dit c’est quand même dommage de défendre l’indéfendable. C’est beau le fanboyisme.
Le 02/08/2016 à 13h07
Le 02/08/2016 à 13h13
Le 02/08/2016 à 13h15
Le 02/08/2016 à 13h16
les boites d’œufs ça tue pas des gens. Si tu ne comprends pas la différence, je peux plus rien pour toi en effet.
Tesla a dit que sa voiture évite les collisions elle a échoué point. c’est un fait pas une élucubration de fanboy ou de haters. Si tu contestes le fait que la voiture n’a pas su éviter la collision alors je veux bien ton argument. Tesla l’a écrit noir sur blanc sur son site.
Le 02/08/2016 à 13h17
Autant ton rappel historique des faits est intéressant, autant je ne peux pas partager ton analyse. Trop de généralisation et d’opinions présentées comme des faits.
Exemple :
Le 02/08/2016 à 13h18
l’accélration est juste stratosphérique " />
Le 02/08/2016 à 13h20
alors c’est d’autant plus grave…. puisque la fonction n’a pas fait son job.
Le 02/08/2016 à 13h23
Le 02/08/2016 à 13h26
Le 02/08/2016 à 13h33
ben vu le taux de défaillance de l’humain on peut le considérer comme un élément de sécurité (après je t’accorde que y’a des humais qui sont pas de sécurité du tout " />).
En fait là où c’est problématique c’est que les tests n’ont pas été réalisés ou pas suffisamment. (1ère erreur).
Toutes les défaillances systématiques n’ont pas été prises en compte, mais cela découle de l’insuffisance de test…. (2ème erreur).
Tester en grand public = retour quasi inexistant ou pas fiable du testeur. (3eme erreur).
Le 02/08/2016 à 13h46
enfin pour moi ça reste du tripotage de nouille, le système qui agit sur les freins doit être de sécurité peut importe son nom ça s’apparente à une fonction de pilotage automatique (même si tu le découpes en 50 logiciels). tu crois que les gens ont conscience du découpage logiciel?
Dans les autres domaines, les systèmes de sécurité défaillant du même type n’ont pas entraîné de mort.
et là dans l’automobile c’est pas grave, c’est juste un composant imparfait qui peut tuer. j’avoue que ton raisonnement m’amuse beaucoup.
donc sinon pour en revenir au pilote automatique, il aurait au moins du stopper la motricité, ce qu’il n’a pas fait…..
ce qui est assez drôle c’est que Tesla dans sa communication indique que son système est en mode beta……..
Le 02/08/2016 à 13h49
y’a t’il un pilote dans la bagnole?
ok ———> []
Le 02/08/2016 à 14h11
Le 02/08/2016 à 14h26
Je pense que c’est trop présenté comme un système de conduite qui fait tout, le nom est SUPER important.
On devrait avoir comme dans les trains, si tu enlèves les mains du volant, la voiture s’arrête. Là, ça devient une vraie assistance (à la douceur de la conduite et à l’arrêt précis devant les quais pour les trains), et plus un pilote automatique.
Mais qui voudrait d’une prison roulante où tu ne conduis pas, mais tu dois tenir le volant…
Le 02/08/2016 à 14h42
Et alors, ils vont pas écrire que le système ne marche pas…
Surtout qu’il marche, même si il est encore en perfectionnement, et que les personnes qui achètent la voiture savent très bien que ce n’est pas une voiture autonome. Là il propose de pouvoir swtich de voie, freiner/ralentir dans la circulation et se garer. Et tout cela en prévenant que le conducteur doit rester maitre de son véhicule.
En aucun cas c’est écrit que l’on peux tema un dvd en laissant la voiture se dermerder toute seul. On serait dans le cas de Google avec leur voiture autonome, oui Google serait entièrement en faute.
Celle de Tesla sont une ASSISTANCE à la conduite, ni plus ni moins. Vouloir regarder un DVD avec ce système c’est suicidaire, la voiture n’a pas l’ensemble des capteurs d’une Google Car, donc ne pourra jamais voir et anticiper autant.
Après je ne me souvient pas qu’on t’es forcé la main à acheter cette voiture…
Certain sont des early adopter, et aiment tester et acquérir des nouvelles technologie et sont prêt à faire avec les défauts inhérent d’une technologie récente. Le système n’est peut être pas parfait mais il est fiable si tu respectes les conditions d’utilisations… Ce qui n’a pas été le cas ici… Donc oui pour moi ce n’est pas la faute de Tesla, mais des chauffeurs qui font n’importe quoi.
Après cela ne les empêches pas d’améliorer leur soft après cet incident, d’enquêter sur le problème et de se confronter au enquête qu’il peux avoir par d’autre partie, dont le gouvernement.
Mais bon: Bouhouh c’est pipi caca, ca marche pas.. Bouhouh Tesla…
Super !
Le 02/08/2016 à 09h40
Le 02/08/2016 à 09h40
Moi surement quand j’achète un autopilote qui n’en est pas un oui.
Quand on vends un produit/option il doit être fonctionnel.
Oui le mec est mort et il est totalement en tord, mais l’autopilote / freinage d’urgence de tesla ne marche pas, du moins dans cette configuration et ne pas voir un camion en travers sur une autoroute on est loin du petit problème, donc forcement tesla a une grande part de responsabilité, tu peux chercher toute les excuses que tu veux sur le conducteur, mais tesla est autant en tords que lui, voir plus pour vendre un produit non fonctionnel.
Le 02/08/2016 à 09h50
1/ dans tes 20% je n’ai pas la stats mais une majorité est du à un défaut d’entretien de l’avion…..
2/ si la voiture n’a pas freiné, donc elle n’a pas détecté l’obstacle, Tesla a reconnu que le camion a certainement été confondu avec un panneau de signalisation. => c’est un défaut du pilote auto qui a entraîné la mort. Même si le système est en beta et même si le conducteur aurait du rester concentrer sur la route Tesla a vendu une fonction de sécurité qui a failli sur un cas évident et prévisible.
3/ les pilotes d’avions sont des professionnels, ils sont censés suivre des procédures, la plupart du temps les accidents sont dus au fait de ne pas avoir suivi la procédure, là on parle du grand public qui n’a pas de procédure, on lui vend un pilote auto même en beta tu attends que ça marche un minimum, sinon tu appelles pas ça un pilote auto.
4/ on a la démonstration inverse avec l’accident de Tesla : sans pilote auto, l’humain aurait certainement réagi et vu le camion (je peux t’accorder que peut-être pas à tous les coups pour l’humain, mais la défaillance du pilote auto est dans ce cas présent systématique)…..
globalement je suis choqué de la démarche de Tesla, même Google qui n’est pas dans le métier fait des test avec des pilotes formées à reprendre la main en cas de défaillance, la base quoi. On lâche pas un truc comme ça dans le grand public alors que c’est pas au point.
C’est comme si j’inventais la machine à téléportation que je faisais 10 tests avec un chien et que je commercialisait le truc…… tu monterais dedans toi?
Le 02/08/2016 à 09h52
tu évalues mal la bêtise humain visiblement……
Le 02/08/2016 à 09h55
il agit sur la volant oui ou non?
dans l’automobile les 2 éléments de sécurité sont :
si le système agit sur ces éléments alors il doit être de sécurité, s’il ne l’est pas => on tue des gens. c’est la base. donc si tu m’annonces qu’il n’est pas vendu comme un système de sécurité c’est encore plus grave que ce que je pensais.
Le 02/08/2016 à 09h56
Ben, ce serait quand même pas mal d’arrêter de dire de la merde dans les grosses lignes
Le 02/08/2016 à 09h57
Hum, moi je rejoins le coté humain pour l’erreur. Nous sommes encore loin de véhicule autonome.
Tu laisses ta voiture faire de la merde c’est ta fautes… Tu respectes pas les consignes d’utilisation de ton véhicule, t’es un danger publique, et un gros con…
Et de ce que j’ai compris la responsabilité est surtout du conducteur du camion, après du conducteur de la tesla, et ensuite du système d’aide au pilotage.
Donc clairement le problème est du coté humain…
Après le système est encore très jeune, et doit faire ses preuves, ne pas respecter les consignes d’utilisations dans ce cas là c’est juste complétement stupide, en plus d’être suicidaire…
/me rêve d’une voiture complétement autonome " />
Le 02/08/2016 à 10h01
Le 02/08/2016 à 10h05
Le 02/08/2016 à 10h07
Tu m’as l’air vraiment super enragé contre Tesla…
Si t’en veux pas tan pis. Mais quand c’est clairement annoncé que tu dois rester vigilant et maitre de ta caisse; tu va pas regarder un film " />
Si les consignes d’utilisation avait été respecter Tesla n’aurait jamais été impliqué dans cet accident mortel… Mais comme on a un gros con au volant de la caisse et du camion il y a eu accident impliquant le système de Tesla.
Quand je voie le niveau de débilité des conducteurs sur la route, je me dis que vivement qu’il n’y ai plus un seul , je me sentirai beaucoup plus en sécurité.
Encore hier on a failli se faire cartonner avec des potes, car sur une route de campagnes sans aucune visibilité sur le virage le bonhomme est a 100 au mieux de 50 et nous faire faire une embarder sur une route ou 2 voitures on du mal à passer ensemble.
Le danger c’est clairement l’humain qui est d’une inconscience bien grave, et d’une connerie sans limite.
Edit: Pour dire, j’ai pas de permis et j’en veux pas car moins je passe de temps sur les routes mieux je me porte.
Le 02/08/2016 à 11h00
Le 02/08/2016 à 11h19
Le 02/08/2016 à 11h29
Le 02/08/2016 à 11h41
Le 02/08/2016 à 11h41
Le 02/08/2016 à 11h54
Le 02/08/2016 à 05h35
Le 02/08/2016 à 06h25
Le 02/08/2016 à 06h48
Le 02/08/2016 à 07h15
Le 02/08/2016 à 07h48
Le 02/08/2016 à 07h54
Ton “raisonnement” est plus que bancale.
Le 02/08/2016 à 07h58
Le 02/08/2016 à 08h01
On a qu’à obliger toutes les remorques à être peintes en damier mauve/jaune pour être plus faciles à discerner. Ca marchera aussi pour les humains.
C’est un peu con d’avoir nommé leur système auto(nome)pilot ils auraient du l’appeler aide au pilotage.
Le 02/08/2016 à 08h13
J’adore lire les commentaires mais certains devraient quand même lire les caractéristiques de ce dont ils parlent :
Tesla ne fait PAS de conduite automatique. Leur “auto-pilot” c’est une aide à la conduite sur autoroute/national exclusivement (Interdit en ville et inutilisable de toute façon).
C’est le même principe que le régulateur de vitesse, c’est toujours le conducteur qui conduit et doit avoir le pied sur la pédale et les mains sur le volant. D’ailleurs le régulateur de vitesse aussi est complément inutile en ville…
Google fait de la conduite automatique. Vous pourrez (Un jour ?) lâcher le volant et regarder un film.
Ne confondez pas aide à la conduite et conduite automatique, vous passez pour des idiots.
Le 02/08/2016 à 08h14
C’est très possible. Le cerveau humain n’est pas fait pour rester vigilant à un truc qui pourrait arriver peut-être un jour sur de longues périodes. Quand on conduit, les événements sont directement liés à nos gestes, du coup on est attentif (et on se fatigue).
En revanche, rester assis à attendre qu’un truc improbable se passe n’est pas naturel. Notre cerveau va se concentrer sur autre chose et donc même si le conducteur ne dormait pas, plusieurs secondes de temps de réaction ne sont pas délirantes.
On aura d’autres accidents du genre si on déploie des systèmes où l’intervention humaine doit sauver la situation une fois sur des centaines d’heures de conduite.
Le 02/08/2016 à 08h31
Si on part du principe que la voiture respecte le code de la route alors elle doit légitimement préserver la vie de ses passagers de la menace qui ne respecte pas le code de la route.
Donc on ne fait une action que si :
on peut le faire en toute sécurité ou si
cette action peut améliorer l’espérance de survie des passagers (voiture vs camion)
Ca pique un peu au début (gamin qui échappe à la surveillance…) mais la sélection naturelle fera son boulot.
Si la voiture doit tuer N personnes (vieux,jeunes,femmes enceintes,meurtrier osef) pour sauvegarder n (n<N) occupants de la voiture je vote pour. A partir du moment ou elle le fait dans les règles (de conduite) et tant qu’à faire avec classe.
Et puis ces N personnes ont peut être conclu un pacte de suicide (les préserver ne serait qu’un bénéfice temporaire). Donc tout ce (ceux) qui se trouve sur la route et qui ne respecte pas les règles de circulation sera amené à disparaître.
Exception : Si la cible est un connard qui traverse en dehors des clous sans regarder (ou plutôt en regardant son smartphone) la voiture peut (doit) faire un écart pour ne pas le louper.
Le 02/08/2016 à 08h40
j’attendais cette exemple, et d’ailleurs, il semblerait que si le pilote avait laisser la main, il n’y aurait pas eu de crash bon le problème c’est de passer outre des alarmes " />
Pour moi le pilote auto n’est pas en cause, c’est une défaillance matériel du capteur, d’ailleurs il est étonnant qu’on utilise pas des capteurs de marques différentes pour éviter ce genre de mésaventures….. (ce qu’on fait habituellement dans le ferroviaire).
concernant l’accident de Tesla : la Tesla roulait trop vite….. dommage pour un pilote auto.
Le 02/08/2016 à 08h43
Le 02/08/2016 à 08h46
Le 02/08/2016 à 08h50
bon j’ai regardé tes exemples et tu le reconnais en-dessous, à chaque fois c’est une erreur humaine qui provoque l’accident et JAMAIS une décision du pilote auto (sauf dans le cas numéro 1 mais c’est du à une erreur de maintenance, donc humaine encore, la procédure de sécurité n’a pas été suivie)……
Le cas Ariane 5 a justement conduit à l’application du process de développement utilisé dans le ferroviaire et l’aviation…… c’est parce que ce process n’était pas appliqué qu’il y a eu défaillance.
Aujourd’hui ce process n’est pas appliqué dans les pilotes auto de voiture, je te laisse en tirer les conclusions.
Le 02/08/2016 à 08h53
dans ce cas Tesla est attaquable en justice :
https://www.tesla.com/fr_FR/models il est écrit en très gros pilote automatique, tu crois que les gens vont lire les petites lignes en-dessous? ben non. donc on appelle pas ça un pilote auto mais une super assistance, protection automatique de conduite, mais pas PILOTE AUTOMATIQUE!!!!
Le 01/08/2016 à 13h51
Le 01/08/2016 à 13h52
Le 01/08/2016 à 13h54
Le 01/08/2016 à 13h59
Le 01/08/2016 à 13h59
Le 01/08/2016 à 14h02
On n’en sait rien…il aurait pu se planter tout autant en train de taper un sms… c’est quand la machine tuera, fera une action meurtrière qu’on pourra en reparler, pas de son inaction…
Le 01/08/2016 à 14h03
Donc c’est pas la faute du conducteur qui s’assoupie sur l’autoroute …
Je dis pas que il n’y a pas un risque accru de baisse d’attention avec la conduit “auto”, mais que l’attention du conducteur reste de sa responsabilité tant que la voiture “reste sous son contrôle”.
Le 01/08/2016 à 14h07
Le 01/08/2016 à 14h08
Yep, le mec était fou de faire une confiance aveugle en un véhicule qui à son lancement et à chaque fois qu’il lachait de volant lui “hurlait” : FAIT GAFFE GARDE LE CONTROLE DU VEHICULE !
Selon les info, il regardait un film … alors qu’il doit à tout moment être capable de reprendre le contrôle du véhicule.
De mon point de vue il a eut du bol de ne s’être tué “que lui” et de pas avoir tué d’autres personnes.
Est ce qu’il faut qu’il y ait des corrections dans les algo ? oui. Est ce que cet accident doit remettre en question le systeme de freinage et d’auto-pilote chez Tesla ? ASSUREMENT.
Est ce que le conducteur est à 100% en tord, et ne peux s’en prendre qu’à lui même ? ASSUREMENT
Le 01/08/2016 à 14h10
Le 01/08/2016 à 14h11
Le 01/08/2016 à 14h20
“trololol” je comprend pas, j’ai mis ma voiture en autopilote et j’ai fait une sieste, je comprend pas pourquoi j’ai eut un accident ! c’est la faute de Tesla " /> je vais faire un procès contre Tesla et j’aurai tous les lecteurs de NXI qui seront avec moi " />
Je pensais pas les lecteurs de NXI autant anti technologie, c’est impressionnant " />
On a des adultes consentant qui acceptent des conditions d’utilisation en toute connaissance de cause (à l’achat, à l’activation et à l’utilisation) et on demande la tête de l’entreprise parce que l’utilisateur l’utilise mal " />
Faudrait vous inscrire en politique les mecs " />
Le 01/08/2016 à 14h22
Le 01/08/2016 à 14h26
Yay ! les impactiens pour l’interdiction de monter soi même ses meubles !
Tous ensemble pour interdire aussi de toucher à des prises électriques ! c’est BIEN TROP DANGEREUX !
Et puis quelle est cette folie de monter soi même son ordinateur ! " />
ps: IKEA a étudié la situation, estimé que la commode était particulièrement instable si non attachée, et ont organisé un rappel tout en demandant d’attacher la commode comme indiqué dans la notice.
Tesla a étudié la situation, travaille sur des correctifs software qui seront uploadé automatiquement, et ont rappelé encore que le conducteur est responsable de garder le contrôle à tout moment comme indiqué à plusieurs endroits.
aucun des 2 n’est responsable de la mort de “l’utilisateur”, mais aucun des 2 ne fait rien.
Le 01/08/2016 à 14h29
En vrai, c’est Ubuntu. " />
Le 01/08/2016 à 14h31
Le 01/08/2016 à 17h19
Le 01/08/2016 à 18h00
Hmm, je suis monté dans un model S vendredi, j’ai pas vu/entendu de message particulier lors de l’activation de l’autopilot (et du lâché de volant).
Bon après, j’étais côté passager et plus occupé à mouiller mon pantalon qu’autre chose, mais rien vu de spécial sur l’écran central, et si c’était sur le tableau de bord, ça devait être discret. A moins que ça se désactive…
Le 01/08/2016 à 18h40
C’était quel “grand” patron visionnaire du CAC40 qui disait que les usines c’était le passé, et qu’il fallait tout miser sur le tertiaire? Je crois que sa boite à été démantelé depuis alors que Tesla et sa Gigafactory vaut 35 milliards à la bourse " /> " />
Le 01/08/2016 à 18h42
Le 01/08/2016 à 18h46
J’aimerais bien qu’on compare le nombre de morts/km effectués sur ces voitures automatiques et sur les voitures manuelles. Ok il y a eu un accident, mais il faut comparer des données comparables. Tout le monde s’agite sur cet accident de la Tesla, et si je comprends qu’on en cherche les causes pour corriger la défaillance, j’ai du mal à admettre qu’on rejette le concept même de la voiture autopilotée parce qu’il y a eu un accident (surtout quand le conducteur a aussi sa part de responsabilité). Des accidents il y en aura d’autre, mais est-ce que leur nombre est réduit ou pas si la voiture se conduit seule, c’est ça le chiffre qu’il faut regarder pour juger.
Le 01/08/2016 à 18h46
Le 01/08/2016 à 18h53
C’est comme le régulateur, si tu dais de la merde c’est pour ta gueule. Voilà, fin de l’affaire et pourvu que les autorités tranchent pareil. Après si le lobby auto est du côté de tesla (pas sûr…) ça va le faire
Le 01/08/2016 à 19h00
Le 01/08/2016 à 19h49
c’est pour ça qu’on a imposé les éclipses pour empêcher de mettre des objets ou des doigts dedans et que quand tu branches ta prise tu ne peux y accéder.
du coup pour la voiture de Tesla imagine qu’un ado ou enfant montes dedans et lance la voiture en autopilote…. Tesla est responsable, on ne lance pas une fonction de sécurité en beta, ça ne s’est jamais vu dans le monde. Et la preuve ça tue
Le 01/08/2016 à 19h51
Le 01/08/2016 à 19h52
c’est pas un élément de sécurité comme la direction et les freins, c’est différent. là le système agit sur les éléments de sécurité, il doit donc être de sécurité et qui te dit que le système n’a pas empêché le conducteur d’agir?
Le 01/08/2016 à 19h55
oui car un pilote auto ne doit pas tuer…. sinon il ne sera jamais viable.
Le 01/08/2016 à 19h56
Le 01/08/2016 à 20h04
Pour moi Tesla a commis de nombreuses erreurs :
Quand on a un système impliquant la vie d’être humain, on doit pouvoir être capable de dire exactement ce qui s’est passé en cas d’accident. Je peux vous dire que si un métro automatique se crashe, on saurait exactement ce qu’il s’est passé, le fait d’hésiter entre 2 scénarios indique un amateurisme qui fait froid dans le dos. Les mecs n’ont pas conscience qu’ils jouent avec la vie des gens. Ce point est juste hallucinant et cette news confirme ce que je craignais : ils font n’importe quoi vendu à grands coups de marketing!!!! Je suis pour le progrès mais pas n’importe comment, ces mecs sont des gros tocards qui vont nuire sévèrement à l’image des voitures autonomes….
Le 01/08/2016 à 20h07
donnes moi un exemple? normalement si tu maîtrises ton véhicule ça ne doit pas arriver….. et les voitures autonomes sont censées anticiper à mort.
Le 01/08/2016 à 20h10
Le 01/08/2016 à 12h08
il faisait quoi le conducteur ? il dormait ?
Le 01/08/2016 à 12h10
Le 01/08/2016 à 12h10
Le 01/08/2016 à 12h11
Le 01/08/2016 à 12h12
Tesla envisage deux pistes pour expliquer l’accident mortel
" />
Le 01/08/2016 à 12h15
Le 01/08/2016 à 12h16
ah oui c’est mieux
(j’ai aussi corrigé mon troll mal formulé je suis pas sur qu’on puisse parler d’OS dans le cas de W10)
" />" />
Le 01/08/2016 à 12h16
Le 01/08/2016 à 12h18
il regardait Harry Potter sur son laptop.
Le 01/08/2016 à 12h20
Le 01/08/2016 à 12h21
Le 01/08/2016 à 12h21
le mec a pas freiné, tant pis pour sa gueule. Next !
Le 01/08/2016 à 12h22
Le 01/08/2016 à 12h22
Le 01/08/2016 à 12h23
Le 01/08/2016 à 12h26
Le 01/08/2016 à 13h20
Le 01/08/2016 à 13h22
Le 01/08/2016 à 13h27
Qu’il me prête une TESLA, je veux bien augmenter les stats Km/profil !
Le 01/08/2016 à 13h28
Le 01/08/2016 à 13h29
Et ils ont été mis au courant, ça leur a été expliqué à l’achat (parce qu’ils ont payé l’option en plus), on leur rappel à chaque activation de la fonction …
Et pourtant ils se plaignent pas …
Est ce que le problème est pas chez toi plutôt ?
Le 01/08/2016 à 13h30
Le 01/08/2016 à 13h31
Next im(n)pact même …
Le 01/08/2016 à 13h32
Le 01/08/2016 à 13h33
C’est sur, par contre avec la nouvelle Tesla Model 3 qui est au prix d’une berline haut de gamme (A3 si on prend pas la basique sans option), on devrait commencer à avoir un panel de profil de conducteurs plutôt correct. Après il y aura toujours un facteur humain, si un mec dépasse au dernier moment et tu te le manges en contresens, on pourra analyser ce qu’on veut, c’est très difficilement évitable.
Bon après on pourra jamais exclure les kékés du dimanche qui roulent comme des tanches.
Le 01/08/2016 à 13h37
L’humour c’est comme le café, plus c’est noir, mieux c’est (sans dépasser une certaine quantité bien sur).
Mais faut aussi prendre en compte si le chauffeur du poids lourd s’était rasé ces derniers jours, ça peut avoir un impact non négligeable sur l’enquête.
Le 01/08/2016 à 13h38
Quel est le rapport avec ce que je dis ? " />
Au passage, ce n’est pas comme si tu n’avais “rien à faire” … la voiture ne gére pas seule les dépassement, par exemple … si tu vois que le véhicule devant toi est trop lent, c’est à toi de “demander” un dépassement.
Et ce n’est pas parce que “l’autoroute c’est monotone et ça favorise l’assoupissement qu’on considére que “le conducteur n’est pas en cause” dans les accidents sur l’autoroute " />
Le 01/08/2016 à 13h39
Ce n’est pas quelques morts qui freineront (ou plutôt décapiteront…) le développement des voitures autonomes.
C’est normal qu’il y en ai et il y en aura toujours quelques uns même quand la technologie sera fiable et bien avancée.
Mais cela restera toujours beaucoup beaucoup plus performant que l’Homme.
Mais malheureusement, ce n’est pas demain la veille que 90% du parc auto (dans les pays développés) sera composé de voitures autonomes…
Le 01/08/2016 à 13h40
Le 01/08/2016 à 13h41
Le 01/08/2016 à 13h46
Le problème n’est pas tant l’accident mais de savoir si dans les même conditions l’accident aurait été évité avec un humain au volant.
Et dans ce cas précis visiblement l’humain aurait freiné et pas percuté le camion
Le 01/08/2016 à 13h49
Une bonne blague c’est un peu comme une levrette, faut que ça soit toujours un peu tiré par les cheveux.
Voilà c’est corrigé " />
Le 01/08/2016 à 12h26
Les gens pensent vraiment qu’il n’y aurait pas du avoir de victimes dans ce genre de concept ? C’est moche pour la vie de cette personne, mais c’était évident que ça allait arriver. Reste à trouver les causes, les régler et optimiser la bête.
Le risque 0 n’existe pas.
Le 01/08/2016 à 12h28
Bah son comm est peut être un peu trop “sec” , mais faut quand même avouer que ça en fait un bon candidat pour les Darwin’s Award ….
PS : 2 belles erreurs (signalées) dans le texte, faîtes gaffe avec la relecture :)
PS 2: c’est bien d’avoir changer l’icône de signalement :)
edit : le temps d’écrire et c’était corrigé, gg :)
Le 01/08/2016 à 12h30
J’ai envie de dire que c’est 100% de sa faute du coup. C’est un système encore à ses balbutiements et complètement expérimental et Tesla le répète assez. Dans 10⁄20 ans peut être qu’on pourra blâmer le constructeur mais en attendant ce n’est que du gadget qui requiert toujours l’attention du conducteur.
Sinon il n’y a pas des logs qui permettent à Tesla de savoir ce que la voiture a justement interprété (ou pas si elle n’a rien détecté)?
En tout cas elle claque leur nouvelle usine.
EDIT: C’est pour quand leur patch de sécurité? " /> A quand les voitures qui ne démarrent plus si t’as oublié de faire la dernière update?
Le 01/08/2016 à 12h38
Il me semble qu’il n’y a pas de radar dans les Tesla. (Comme un Lidar)
Le 01/08/2016 à 12h39
Tout à fait, après reste aussi la question de la responsabilité à éclaicir.
Mais apparemment les résultat de l’auto pilotes sont quand même concluant par rapport à un conducteur lambda " />
Le 01/08/2016 à 12h46
Pour l’automobile, c’est peut être pour l’image de marque, mais pour l’aéronautique, c’est la base de la base de séparer pilotage et élément de sécurité.
Le 01/08/2016 à 12h54
Non il y a des sonar de faible portée et un camera.
Apres le Lidar n’est pas exempt de défauts (en particulier souci en cas de pluie / poussières), mais si c’est possible.
Il semble que Tesla se dirige plus vers le sonar de “plus grande portée” et qu’ils arriveraient à avoir un resultat similaire.
Wait & see …
Le 01/08/2016 à 13h02
Le 01/08/2016 à 13h03
Le 01/08/2016 à 13h03
C’est ce que j’avais entendu, un système via une caméra et un autre similaire au niveau du fonctionnement aux radars de stationnement avec une portée un peu augmentée.
Le 01/08/2016 à 13h08
Et sinon on oblige les barres anti-rapprochement sur camions US et le problème est régler.
car bon ya qu’aux US que tu peut rouler sous un camion à la FAST & Furious hein, en Europe ya des barres AR et des soutes (a migrant " /> ) sous les remorques, du coup il aurais juste frotté, mais sera en vie pour aller chez le carrossier (et faire un procès à Tesla :wistle: )
Le 01/08/2016 à 13h10
Rejeter la faute sur le conducteur ? " />
Tu as un véhicule, qui pour activer la conduite auto te dis “attention TU es le conducteur, la fonctionnalité est toujours experimentale”, si tu laches le volant il te rappelle avec un bip que tu dois être au controle du véhicule (et si tu ne remet pas les mains sur le volant il met la voiture sur le bas coté de lui même), et le mec va sortir un ordi portable pour regarder un DVD ?
Et ça doit être la faute de Tesla ? " />
Qu’on parle de risque de somnolence avec la conduite “automatique”, qu’on parle du fait que le mec n’a pas le même temps de réaction, ok … mais ne pas regarder la route “du tout” ? " />
Le 01/08/2016 à 13h10
Apparement, ils ont un taux d’accident/Mkm plus faible que sans auto pilote. Mais leur mesure est amha statistiquement incorrecte : ils ont eu 1 seul accident, alors que la conduite manuelle a un échantillon malheureusement plus grand, et la mesure est plus fiable. Quand ils auront atteint 1000 accidents, la mesure sera bien plus fiable.
Le 01/08/2016 à 13h14
De toute façon, Tesla a toujours revendiqué que son pilotage automatique était en bêta et je pense que quand on l’actionne on doit avoir un message du genre : “Cette fonctionnalité est encore à l’état de test, il en va de votre responsabilité de garder le contrôle sur votre véhicule”.
Autant dans un monde où tous les véhicules fonctionneraient ainsi et auraient des balises pour se positionner l’un à l’autre, ça n’aurait pas posé de problèmes.
Par contre pourquoi personne ne remet en cause le camion ? Le mec a traversé une voie alors qu’un véhicule arrivait en face. Certes ça aurait pu être éviter si le véhicule était piloté par le conducteur (qui aurait fait un écart et aurait peut être fini en tonneau mais vivant). Mais à aucun moment on parle de la responsabilité du chauffeur du camion …
Le 01/08/2016 à 13h15
Le 01/08/2016 à 13h20
Ha mais sur ce point là je suis tout à fait d’accord. Difficile de savoir qui a raison, qui a tord etc… Je dis juste que j’ai vu des gens (ou plutôt lu) s’insurgeaient sur le fait que ça “tue” des gens. Je tenais à rappeler que le risque 0 n’existe pas et que c’est dans ce sens qu’on améliore le produit (oui il faut des victimes et de multiples cas de figure).
Le 01/08/2016 à 20h11
Le 01/08/2016 à 20h12
Le 01/08/2016 à 20h15
Le 01/08/2016 à 20h17
le pilote auto des avions n’a été mis en serve commercial que quand il a été démontré après de très nombreux tests qu’il était fiable….. de plus le pilote doit toujours être prêt à reprendre les commandes.
On parle pas de chose nouvelles là…. faut arrêter de croire que c’est une innovation incroyable comme les 2 choses que tu viens de citer.
Le 01/08/2016 à 20h18
Franchement….
Le mec mate un DVD à 100 km/h, mettant ainsi en danger tous ceux qu’il croise, et il faudrait le plaindre ?
Je ne le pleurerai carrément pas, et cyniquement sa mort sera doublement utile (sans toutefois m’en réjouir) : d’une elle améliorera le système de Tesla, et de deux c’est un con dangereux de moins sur terre.
Le 01/08/2016 à 20h22
Le 01/08/2016 à 20h41
il pourrait puisqu’il sera alerté que le pilote auto ne peut plus assuré ses fonctions, ça ne me choque dans la mesure ou en plus ils sont 2…. il va même aux toilettes tu te rends compte le scandale? " />
effectivement, il peut y avoir un accident, sauf que là on est quand même dans un cas concret et facile à identifier…. on est loin du 0,00000001 chance qu’une défaillance dangereuse par heure se produise comme dans le ferroviaire ou l’aéronautique……
Le 01/08/2016 à 20h54
Le 01/08/2016 à 20h56
Le 01/08/2016 à 21h05
cites moi dans ce cas un exemple de crash d’avion avec pour cause le pilote automatique d’un avion commercial.
Pour info, sur les métro j’ai la réponse : il y en a eu 0 (je compte pas les chinois parce qu’ils font n’importe quoi).
Le 01/08/2016 à 21h11
saut que théoriquement si tu lui as pas appris il ne saura pas la bouger la voiture.
Le 01/08/2016 à 21h34
Indéniablement le warning apposé par tesla lors de l’activation de ce système es la pour que cela ne puisse se retourner contre eux.
Il suffit de lire les manuels de nombreux appareils ou un pléthore de cas invraisemblables sont cités afin que des personnes peu attentives ne se retournent pas contre la fabricant car ils on posé l’appareil au sommet d’un meuble et en équilibre.
Apres de ce que j’ai vu, le camion effectuait un demi tour sur une autoroute !
Auquel cas, même un humain avec un seul moment d’inattention aurait eu le même accident.
Quand à l’excuse de la vitesse… Franchement même a vitesse “normale”, vu la hauteur du passage sous le camion, le mec était de toute façon mort.
Apres, je rejoins l’avis de certains sur le fait que ce genre d’appareil permettra à de nombreuses personnes… De faire autre chose que de surveiller la route (allez pas me faire croire que vous n’en avez jamais vu).
Et perso sur les longs trajets JE préfère conduire car je vois moins le temps passer et je me fais moins ch…
D’autant que pour moi c’est également un plaisir (tant que ce n’es dans des bouchons ^^‘)
En fait, je pense que conduire es non seulement un luxe (vu tous les frais que cela implique ^^’), mais que ce dernier risque de disparaître (pas tout de suite quand même ^^‘).
Le 01/08/2016 à 21h35
Le 01/08/2016 à 21h59
Sans que cela soit commercial (mais cas de figure qui pourrait arriver vu le coût de ce genre de projet),
Le vol 501 d’ariane 5.
Le 01/08/2016 à 22h09