Voiture autonome Waymo : un accident suite à une erreur humaine, le pilote automatique l’aurait évité
Le 07 novembre 2018 à 09h30
2 min
Sciences et espace
Sciences
La filiale de Google a publié un billet Medium pour revenir sur un accrochage s'étant produit le 19 octobre. Le conducteur d'essai (derrière le volant de la voiture autonome) a repris le contrôle du véhicule après avoir vu, sur sa gauche, une voiture de tourisme se rabattre brusquement vers sa voie.
Le pilote a alors tourné vers à droite : « Malheureusement, notre chauffeur n'a pas vu qu'un motocycliste venait de passer derrière notre véhicule sur la voie de droite pour nous doubler ». Le pare-chocs arrière droit est alors entré en contact avec la moto. Le conducteur de cette dernière a été blessé dans l'accident, sans plus de précision.
« Notre pilote d'essais a réagi rapidement pour éviter ce qu'il pensait être une collision, mais sa réaction a contribué à en créer une autre ». Waymo en profite pour affirmer que c'est justement « le type de situation que les véhicules autonomes peuvent prévenir ».
Dans le cadre précis de cet accident, la société affirme « que sa technologie aurait pu éviter la collision en prenant des mesures plus sûres ». Grâce à sa vision à 360°, la voiture aurait détecté le motard en plus de la voiture et, selon des simulations de Google, le pilote automatique aurait réduit la vitesse et ajusté la position, mais sans changer de voie, pour éviter un accrochage.
Le 07 novembre 2018 à 09h30
Commentaires (7)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 07/11/2018 à 15h23
C’est dommage, car une machine ne fait (pratiquement) aucune erreur, si erreur il y a, elle a toujours une origine humaine (le stagiaire, c’est toujours le stagiaire).
Le 07/11/2018 à 16h58
@wagaf
(la réponse ne fonctionne pas depuis chromium, obligé de tout reposter :( )
Je ne cherche pas d’excuse au conducteur, ni ne dis pas que la machine n’est pas capable de réagir mieux que l’humain. Dans certains cas ça sera vrais dans d’autre non. Par exemple la machine n’est pas capable d’anticiper ce qui se passe devant le véhicule te précédent, ou au delà d’un certains angle, ou ce que l’expérience peut t’apprendre. Tout comme à l’inverse, si elle a toute les carte en main elle réagira plus vite que l’être humain clairement. Mais là n’était pas ma question.
Le véhicule autonome de test n’a peut-être pas d’écran, mon souvenir de tdb de voiture d’essais est sans doute faussé, moi j’ai ça en tête:
http://www.feline.cc/photos/cache/reportages/2016-04-groupe-psa-voiture-autonome…
Mais ce que j’évoquais surtout, c’est qu’en étant “spectateur” en continue, tu es de moins en moins attentif, c’est justement humain. Rien que le régulateur suffit à te rendre moins attentif (et c’est prouvé….), alors là en “attendant” derrière un volant , tu ne peux être constamment attentif.
Je ne dis pas encore une fois que le gars a mal réagit, qu’il n’était pas à 100% à ce moment là, personne ne peut savoir, je dis juste que ça reste tout à fait possible, et que c’est un vrais problème de ces tests en grandeur nature.
Le 08/11/2018 à 08h43
C’est marrant, il y a régulièrement des accidents avec les voitures autonomes. Mais ça n’est jamais la faute de la machine. Ben voyons.
Et qui nous donne les informations pour juger si la machine est responsable ou non ? Les concepteurs de la machine eux-mêmes. Dans le genre juge et partie, et donc totalement non fiable, ça se pose là.
Le 12/11/2018 à 14h48
“Paroles, Paroles, Paroles…”
ou
“On a eu un accident: ça prouve que notre IA est bien!”
Le 07/11/2018 à 10h48
C’est toute la problématique de ces tests.
Les conducteurs ne conduisent pas, ils sont forcément moins attentif à tout ce qui se passe autour.
Je suppose qu’ils doivent aussi contrôler sur des écrans ce que voit le système donc quitter la route de vue assez souvent.
En l’état ils ont donc le choix en cas d’urgence:
Après encore une fois dépassement par la droite, sauf exception locale, chez nous ça serait un non respect du code de la route, je ne sais pas ce qu’il en est là bas…
Le 07/11/2018 à 11h27
Le 07/11/2018 à 14h01
Si le conducteur a eu ce réflexe c’est qu’il était attentif à la situation…
Par ailleurs il n’y a rien à “controller sur les écrans”, ces données sont contrôlées a posteriori à la base.
J’ai remarqué une lourde tendance dans le débat sur les voitures autonome : les capacités humaines sont toujours glorifiées et surestimées.. En cas de défaillance humaine le premier réflexe est de chercher des excuses, comme si il était horriblement humiliant qu’une machine puisse mieux réagir qu’un humain.