Tesla : Consumer Reports tire à boulets rouges sur l’Autopilot
Le 23 mai 2019 à 09h32
2 min
Sciences et espace
Dans le viseur de la puissante association de consommateurs : la fonction de changement de voie automatique ajoutée récemment à l'Autopilot. Elle serait « beaucoup moins compétente qu'un conducteur humain ». Pire, elle pourrait « créer des risques potentiels pour la sécurité des conducteurs ».
Parmi les nombreux griefs contre cette fonctionnalité : « elle a coupé [la route] des voitures sans laisser assez d'espace et a même dépassé des véhicules d'une manière qui enfreint les lois [...] En conséquence, le conducteur a souvent dû intervenir pour empêcher le système de prendre de mauvaises décisions ».
Consumer Reports en rajoute une couche : cette fonction est « incroyablement myope. Elle ne semble pas réagir aux feux de freinage ni aux clignotants ». Elle aurait également du mal à estimer correctement la vitesse des voitures arrivant derrière sur une voie de dépassement, très problématique lorsqu'il s'agit justement de changer de voie.
Bref, « surveiller le système est beaucoup plus difficile que de changer de voie soi-même, et revient à surveiller un enfant au volant pour la toute première fois. Comme tous les parents le savent, c'est bien plus pratique et moins stressant de conduire soi-même », explique Jake Fisher, directeur des tests autonomes chez CR.
Pour David Friedman, vice-président de CR, « Tesla montre ce qu'il ne faut pas faire pour arriver à l'autonomie automobile : mettre en service des systèmes de plus en plus automatisés sans approbation adéquate. Avant de vendre ces systèmes, les constructeurs devraient être tenus de prouver leur sécurité aux pouvoirs publics ».
Le 23 mai 2019 à 09h32
Commentaires (45)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 23/05/2019 à 08h50
#1
elle a coupé [la route] des voitures sans laisser assez d’espace et a même dépassé des véhicules d’une manière qui enfreint les lois
[La fonction]ne semble pas réagir aux feux de freinage ni aux clignotants ». Elle aurait également du mal à estimer correctement la vitesse des voitures arrivant derrière sur une voie de dépassement
L’autopilot™ est tout simplement parisien " />
Le 23/05/2019 à 09h00
#2
Dans les logs de la voiture il est indiqué “ouh ca va, ca passe large !”
Le 23/05/2019 à 09h02
#3
>> Avant de vendre ces systèmes, les constructeurs devraient être tenus de prouver leur sécurité aux pouvoirs publics
J’aimerai bien voir une expérimentation du genre “une voiture autonome passe le permis de conduire”
Le 23/05/2019 à 09h06
#4
Trop fort. " />
Le 23/05/2019 à 09h17
#5
Il est possible de désactiver les update / fonctions supplémentaire histoire de ne pas être un beta testeur ?
Le 23/05/2019 à 09h22
#6
Le vrai problème de “l’autopilot”, c’est son nom qui prête à confusion…
C’est, certes, un gros atout de la voiture mais il ne doit en aucun cas remplacer le conducteur, ce que son nom ne laisse pas forcément supposer pour ceux qui manqueraient de la plus élémentaire des intelligences (en plus d’un problème à l’écoute lors de l’achat).
Le 23/05/2019 à 10h02
#7
Comme quoi, entraîner une IA en prenant la place de l’Etoile vers 19h00 / 19h30, c’était ptet pas une bonne idée :)
Le 23/05/2019 à 10h15
#8
Si le truc prend des décisions qui t’oblige à faire plus attention que quand tu conduis une voiture normale. Ça devrait surtout s’appeler le randompilot.
Le 23/05/2019 à 10h21
#9
“les constructeurs devraient être tenus de prouver leur sécurité aux pouvoirs publics” : C’est déjà le cas. Les régulateurs ont validé l’utilisation d’Autopilot dans de nombreux pays et c’est en monitoring.
Et franchement on dirait du troll “elle ne semble pas réagir aux feux de freinage ni aux clignotants” : encore heureux !
Le 23/05/2019 à 10h22
#10
Le 23/05/2019 à 10h24
#11
Donc en gros le truc a zéro intérêt à part celui de rendre la conduite plus difficile de ce qu’elle est déjà.
Le 23/05/2019 à 11h09
#12
Le 23/05/2019 à 11h13
#13
Le 23/05/2019 à 11h43
#14
Le plus important c’est quelle réagisse au freinage effectif des autres. Le fonctionnement des feux et clignotants est plus aléatoire. Après ça peut être une donnée supplémentaire pour confirmer celles venant d’autres capteurs.
Le 23/05/2019 à 13h43
#15
Arte avait diffusé un reportage sur les voitures autonomes et d’après les spécialistes interrogés, le seul moyen que ce soit parfaitement fiable, ce serait que tous les véhicules discutent entre eux afin que chaque voiture connaisse la position de toutes celles qui lui sont proches.
Deux problèmes quasiment insolubles à ça :
Le 23/05/2019 à 15h10
#16
Le 23/05/2019 à 15h27
#17
Il me semble que bien des “spécialistes” confondent autonome et connecté.
Tout ce qui concerne la conduite doit être 100% autonome.
Ce sont les services comme la navigation qui sont connectés.
Le 23/05/2019 à 15h39
#18
Je ne vois pas pourquoi tu veux différentier les deux, c’est tout à fait possible d’allier les deux (même si utopiste). Il y a pas mal de recherche sur les voitures connectés (entre elles). Elles communiquent donc leur vitesse et trajectoire en tout temps (entre autres), ce qui permet à tous les véhicules de se coordonner.
La conduite est donc autonome (sans conducteur), mais la conduite est déduite par les informations reçues des autres véhicules connectés
Le 23/05/2019 à 15h44
#19
Le 23/05/2019 à 15h45
#20
Le 23/05/2019 à 15h59
#21
La comparaison, n’est pas correcte.
Le régulateur est supposé garder ta vitesse constante et rien d’autre, donc tu t’attends à qu’il garde la vitesse constante, pas qu’il freine s’il y a une voiture devant ou je ne sais quoi. C’est ton rôle de freiner, c’est le rôle du régulateur de garder la vitesse.
Est-ce que tu contrôle constamment que ton régulateur garde bien la bonne vitesse ?
Dans le cas d’un auto pilote on te suggère qu’il va freiner tout seul, qu’il va changer de voie tout seul,… du coup, la frontière n’est plus clair où et quand c’est qqch qui qui doit être gérer par l’auto pilot ou par toi. (Surtout si ça marche parfois, mais parfois pas). C’est ça le vrai problème.
Le 23/05/2019 à 16h19
#22
Le 23/05/2019 à 17h08
#23
Le 23/05/2019 à 17h12
#24
Le 23/05/2019 à 18h01
#25
En fait c’est un discours qui est lié à la peur du changement ou des nouvelles choses dans notre vie. On est actuellement à l’étape de la panique face à quelque chose qui paraissait encore être de la SF il y a deux ans et s’avère être désormais réel.
La technologie des véhicules autonomes est déjà d’une grande fiabilité. (même si rappelons que Tesla n’a pas encore de système totalement autonome offert au public, juste une assistance)
Il y a eu des pots cassés, oui.
Il y en aura encore, c’est évident.
Il faut juste arrêter de croire que la technologie passe de naissante à parfaite sans étapes transitoires… Ce sont les mêmes cas de figure que j’ai du subir dans des projets de déploiement automatisés où il a fallu fiabiliser les procédures.
Ca a gueulé, le moindre plantage montait en mayonnaise et ça hurlait à la mort.
Deux mois après, on est bien content de déployer à la volée sans se poser de question des systèmes où avant tout était fait à la main avec autant d’erreurs possibles que de manip, et que ça prenait 3 mois au lieu de 3 heures. (non non, je n’exagère pas, c’est bien le temps gagné)
Tout ça pour dire que la bagnole autonome c’est comme le vélo, va falloir se casser un peu la gueule avec avant de considérer que c’est “parfait”. Et qu’une fois que ça sera fiable, ça fera partie de notre quotidien…
Le 23/05/2019 à 18h27
#26
Pour avoir conduit une model S avec un autopilot de première génération, je n’ai eu aucun probleme avec le changement de voie en autoroute avec trafic moyennement dense.
Aucun probleme non plus en cas de trafic dense/bouchons (mais tu es pas sensé changer de voie dans ce cas la….
Le 23/05/2019 à 22h16
#27
Le 23/05/2019 à 22h38
#28
Le 24/05/2019 à 01h11
#29
faut arrêter le vendredi vient juste de commencer
Le 24/05/2019 à 05h20
#30
Le 24/05/2019 à 07h09
#31
Je dois me faire une moyenne de 150 bornes par jour sur Paris/region Parisienne et des gens comme toi qui roulent comme s’ils étaient tout seuls sur la route j’en croise malheureusement quelques uns tous les jours, souvent avec le samu pas loin parcequ’ils se sont emplâtrés un motard ou une autre bagnole …
Mais bon je vais arrêter là de perdre mon temps à répondre à un troll …
Le 24/05/2019 à 07h52
#32
Le 24/05/2019 à 08h01
#33
Le 24/05/2019 à 09h13
#34
Je ne compte plus le nombre de gens qui gardent leur cligno allumé pendant des km parce qu’ils ont oublié de le virer ou parce qu’ils sont sur la voie du milieu et qui le justifient en disant “je double des gens donc j’ai mon cligno” et ensuite pour se remettre sur la voie de droite (quand ils s’y remettent) ils arrêtent leur clignotant parce que “quand on se rabat après un dépassement on n’a pas besoin de mettre le cligno à droite” ou pire ils se rabattent en gardant leur clignotant à gauche et le coupent quand ils sont revenus sur la voie de droite.
Et de la même manière, je ne compte plus le nombre de gens qui changent de voie sans cligno (et sans regarder)
Donc non, la présence ou absence du clignotant n’est pas une indication fiable sur les intentions du conducteur.
Idem pour les feux de stop, je vois régulièrement des voitures qui n’ont qu’un feu de stop ou pas du tout ou la vitre cassée ce qui fait que ça s’allume en blanc et non en rouge (donc probablement pas détecté par l’autopilote) ou pire les 3 feux de stop allumés en permanence.
Certes c’est une information plus fiable que le cligno mais là non plus, ce n’est pas fiable à 100% et c’est bien plus fiable de se fier à l’accélération/décélération de la voiture plutôt qu’à l’allumage ou pas d’une ampoule.
Donc personnellement ça ne me choque pas que l’autopilot ignore ces informations. Se baser sur ce qui se passe réellement (accélération, freinage, trajectoires…) est à mon avis plus fiable que de se baser sur le fait que l’utilisateur a probablement une voiture en bon état et qu’il respecte probablement à la lettre le code de la route.
Le 24/05/2019 à 09h17
#35
j’ai vu un truc magique une fois, je suivais une voiture qui sortait d’un rond point (je sortait au même endroit)
bien évidemment, le conducteur n’a pas mis le cligo pour sortir du rond point
là où ce fut magique, c’est qu’il l’a mis quand il était déjà sorti du rond point …
Le 24/05/2019 à 10h29
#36
On t’apprend a ne pas te fier uniquement aux feux et clignotants, mais c’est un indicateurs à prendre en compte parmi d’autres.
Pourquoi ils sont encore obligatoire sinon? Le lobby des ampoules?
Si tu as une liste des indicateurs fiables, partage la.
Le 24/05/2019 à 13h20
#37
On te demande de les prendre en compte mais pas t’y fier. Ca marche comment dans ton code pour l’autopilot ? " />
Pour les indicateurs fiables y’a pas mal de papier qui en parle que ce soit Tesla, Uber, Google, etc. La bise.
Le 24/05/2019 à 14h44
#38
Le 24/05/2019 à 16h23
#39
Ah mais on est d’accord que c’est pas 100% fiable et donc non suffisant pour prendre ta décision avant d’initier une manœuvre.
Maintenant quand tu vois une voiture autour de toi avec ses stops/ses clignotants allumé ça reste une information plus que suffisante pour réfléchir un minimum au lieu de te jeter tête baissée dans un changement de voie à la kamikaze donc quand l’autre troll vient raconter que les signaux lumineux des autres il s’en bat les burnes il s’engage/change de voie quand il a envie et pire que c’est ce qu’on apprend en auto école … (dans quel pays ? " />)
En plus dans la news il est bien expliqué que non seulement l’automatisme Tesla ne tient pas comptes des feux des autres véhicules mais a également du mal à estimer correctement les distances et les vitesses, ça commence à faire beaucoup pour un truc autorisé à circuler sur route ouverte et perso je préfère conduire moi même que d’utiliser un automatisme aussi peu fiable. (l’analogie sur l’enfant au volant est bien trouvée je trouve)
Le 24/05/2019 à 18h48
#40
Dans la réalité, les algo des véhicules autonomes essayent de déterminer la trajectoire des objets en mouvement. Le système est évidemment assisté d’une palanquée de capteurs pour cela, dont le LIDAR.
Exception faite de Tesla qui a basé sa technologie sur la reconnaissance visuelle par caméras. (et qui semble être tout de même fiable)
Effectivement, les signaux lumineux des véhicules leur sont parfaitement inutiles. Quand une bagnole freine, ce sont les radars qui captent le ralentissement et le système réagi en conséquence.
Cf les vidéos au titre erroné du type “tesla autopilot predicts accident”. Bah nan, il a juste vu que ça ralentissait…
Le 24/05/2019 à 20h44
#41
Le 24/05/2019 à 20h56
#42
Je pense que tu souhaitais répondre à quelqu’un d’autre. Moi je sais tout ça. ;-) Comme déjà dis, y’a pleeeein de doc sur le web qui en parle, venant d’Uber, Google, Tesla… Y’a rien de secret.
Le 25/05/2019 à 11h55
#43
Il est tout simplement indispensable que 100% de la conduite soit autonome et ne nécessite aucune interconnexion. A tous les niveaux c’est essentiel pour la sécurité.
Le véhicule doit savoir en permanence où il se situe par rapport à l’ensemble des éléments composant son environnement et en déduire quelles manœuvres sont sûres ou quand déclencher un évitement ou un freinage. C’est à dire qu’il doit pouvoir faire ce que l’humain fait au volant.
Le dialogue entre les véhicules, avec l’infrastructure n’est là que pour apporter des éléments de confort et de navigation mais en aucun cas ne doivent concerner la sécurité des occupants du véhicule.
En outre, ça permet de limiter le risque de piratage de ces circuits.
Le 27/05/2019 à 10h14
#44
Effectivement ça fait parfaitement sens !
Du coup j’imagine un système à deux niveaux.
Un niveau prioritaire, qui est la conduite autonome comme tu le décrit.
Un deuxième niveau, la partie connecté, qui permet aux véhicules de se coordonner. Il participe donc aussi à la conduite. Mais en cas d’informations divergentes avec le premier système, ce dernier prend le relais (Du coup ton véhicule n’est pas dépendant des informations transmit par les autres en cas de piratage par exemple)
Si le dialogue entre véhicules est 100% fiable, théoriquement, il n’y a plus de manœuvres d’urgences. Excepté les perturbations externe comme un animal qui traverse la route ou un arbre qui tombe, mais du coup, la voiture qui fait la manœuvre le communique aux autres qui autres ont le temps de freiner car ils avaient déjà la bonne distance de sécurité et la bonne vitesse. Puisqu’ils savaient exactement la vitesse, position et direction du premier véhicule.
Le 30/05/2019 à 08h09
#45