Voiture autonome Waymo : un accident suite à une erreur humaine, le pilote automatique l'aurait évité

Voiture autonome Waymo : un accident suite à une erreur humaine, le pilote automatique l’aurait évité

Voiture autonome Waymo : un accident suite à une erreur humaine, le pilote automatique l'aurait évité

La filiale de Google a publié un billet Medium pour revenir sur un accrochage s'étant produit le 19 octobre. Le conducteur d'essai (derrière le volant de la voiture autonome) a repris le contrôle du véhicule après avoir vu, sur sa gauche, une voiture de tourisme se rabattre brusquement vers sa voie.

Le pilote a alors tourné vers à droite : « Malheureusement, notre chauffeur n'a pas vu qu'un motocycliste venait de passer derrière notre véhicule sur la voie de droite pour nous doubler ». Le pare-chocs arrière droit est alors entré en contact avec la moto. Le conducteur de cette dernière a été blessé dans l'accident, sans plus de précision.

« Notre pilote d'essais a réagi rapidement pour éviter ce qu'il pensait être une collision, mais sa réaction a contribué à en créer une autre ». Waymo en profite pour affirmer que c'est justement « le type de situation que les véhicules autonomes peuvent prévenir ».

Dans le cadre précis de cet accident, la société affirme « que sa technologie aurait pu éviter la collision en prenant des mesures plus sûres ». Grâce à sa vision à 360°, la voiture aurait détecté le motard en plus de la voiture et, selon des simulations de Google, le pilote automatique aurait réduit la vitesse et ajusté la position, mais sans changer de voie, pour éviter un accrochage.

Commentaires (7)


C’est toute la problématique de ces tests.

Les conducteurs ne conduisent pas, ils sont forcément moins attentif à tout ce qui se passe autour.

Je suppose qu’ils doivent aussi contrôler sur des écrans ce que voit le système donc quitter la route de vue assez souvent.



En l’état ils ont donc le choix en cas d’urgence:




  1. Espérer que le système va réagir et le laisser faire, et s’il ne réagit pas alors ils sont responsable de ne pas avoir agit…

  2. Réagir avec les données qu’ils ont, et qui comparé à un chauffeur qui conduit et est normalement “attentif” à ce qui l’entoure (et donc ce qui se passe derrière lui dans ses rétros en continu) potentiellement mal réagir et donc encore une fois être responsable d’avoir mal agit… (comme ici, bien que ça soit facile de le dire à postériori qu’il a mal réagi il faudrait voir en vrais si c’était possible de s’en rendre compte…).





    Après encore une fois dépassement par la droite, sauf exception locale, chez nous ça serait un non respect du code de la route, je ne sais pas ce qu’il en est là bas…








Burn2 a écrit :



Après encore une fois dépassement par la droite, sauf exception locale, chez nous ça serait un non respect du code de la route, je ne sais pas ce qu’il en est là bas…





En lisant la description de l’accrochage c’est le premier truc sur lequel j’ai tiqué, aux USA le dépassement par la droite est autorisé (par conséquent il n’y a pas non plus de logique “voies de gauche + rapide que les voies de droite”… ce qui n’est pas très pratique).



Mais bon, en vrai des dépassements “sauvages” par la droite il y en a aussi même quand c’est pas autorisé hein.

Je pense que l’analyse sur la non capacité du chauffeur test à se comporter comme un vrai chauffeur est assez juste.

J’imagine qu’ils pourraient mettre un chauffeur attentif qui pilote pour de faux, et un autre, observateur qui contrôle le système ?



Si le conducteur a eu ce réflexe c’est qu’il était attentif à la situation…



Par ailleurs il n’y a rien à “controller sur les écrans”, ces données sont contrôlées a posteriori à la base.



J’ai remarqué une lourde tendance dans le débat sur les voitures autonome : les capacités humaines sont toujours glorifiées et surestimées.. En cas de défaillance humaine le premier réflexe est de chercher des excuses, comme si il était horriblement humiliant qu’une machine puisse mieux réagir qu’un humain.


C’est dommage, car une machine ne fait (pratiquement) aucune erreur, si erreur il y a, elle a toujours une origine humaine (le stagiaire, c’est toujours le stagiaire).


@wagaf

(la réponse ne fonctionne pas depuis chromium, obligé de tout reposter :( )



Je ne cherche pas d’excuse au conducteur, ni ne dis pas que la machine n’est pas capable de réagir mieux que l’humain. Dans certains cas ça sera vrais dans d’autre non. Par exemple la machine n’est pas capable d’anticiper ce qui se passe devant le véhicule te précédent, ou au delà d’un certains angle, ou ce que l’expérience peut t’apprendre. Tout comme à l’inverse, si elle a toute les carte en main elle réagira plus vite que l’être humain clairement. Mais là n’était pas ma question.



Le véhicule autonome de test n’a peut-être pas d’écran, mon souvenir de tdb de voiture d’essais est sans doute faussé, moi j’ai ça en tête:

http://www.feline.cc/photos/cache/reportages/2016-04-groupe-psa-voiture-autonome…




  1. on voit bien des écrans de contrôle (pas forcément le cas de tous les véhicules de test peut-être, j’en conviens)

  2. vu la position de conduite l’utilisateur ne peut réagir aussi vite qu’une personne qui conduit. Le conducteur n’est pas actif de toute façon, donc même si dans le meilleur des cas, il serait assis convenablement, le pied sur la pédale d’accélérateur, ou en hauteur au dessus du frein pour réagir le plus vite possible, ou en ayant les mains sur le volant pour braquer au bon moment (mais vu que le volant tourne tout seul??? )



    Mais ce que j’évoquais surtout, c’est qu’en étant “spectateur” en continue, tu es de moins en moins attentif, c’est justement humain. Rien que le régulateur suffit à te rendre moins attentif (et c’est prouvé….), alors là en “attendant” derrière un volant , tu ne peux être constamment attentif.



    Je ne dis pas encore une fois que le gars a mal réagit, qu’il n’était pas à 100% à ce moment là, personne ne peut savoir, je dis juste que ça reste tout à fait possible, et que c’est un vrais problème de ces tests en grandeur nature.


C’est marrant, il y a régulièrement des accidents avec les voitures autonomes. Mais ça n’est jamais la faute de la machine. Ben voyons.



 Et qui nous donne les informations pour juger si la machine est responsable ou non ? Les concepteurs de la machine eux-mêmes. Dans le genre juge et partie, et donc totalement non fiable, ça se pose là.


“Paroles, Paroles, Paroles…”

ou

“On a eu un accident: ça prouve que notre IA est bien!”


Fermer