Voiture autonome Uber et accident mortel : Intel et Waymo vantent leur technologie

Voiture autonome Uber et accident mortel : Intel et Waymo vantent leur technologie

Voiture autonome Uber et accident mortel : Intel et Waymo vantent leur technologie

Suite à l'accident mortel d'un piéton la semaine dernière, Doug Duce (gouverneur de l'Arizona) a décidé de suspendre l'autorisation délivrée à Uber de mener des expérimentations sur les routes publiques de l'État. Dans une lettre envoyée à Dara Khosrowshahi, PDG d'Uber, il explique que les vidéos de l'accident « soulèvent des inquiétudes » sur la capacité d'Uber à mener des tests en toute sécurité.

Cette décision a été prise indépendamment des enquêtes, toujours en cours, des différentes autorités. Dans la pratique, elle ne change rien pour le moment : Uber avait décidé de laisser ses voitures autonomes au garage suite à l'accident mortel. Face à cette déconvenue, les réactions des partenaires et concurrents d'Uber n'ont pas tardé.

Velodyne, le fabricant du Lidar utilisé par le VTC, s'expliquait il y a quelques jours auprès de Bloomberg. « Notre Lidar est capable de représenter clairement Elaine et sa bicyclette dans cette situation. Cependant, il ne prend pas la décision de freiner ou de s'écarter de son chemin », cette manœuvre incombe au système de pilotage automatique de la voiture, en se basant sur les différents capteurs. Pour le PDG, « l'accident n'a pas été causé par le Lidar. Le problème est ailleurs ».

Intel (Mobileye) en profite pour mettre en avant les capacités de détection de son logiciel ADAS (aide à la conduite automobile). En se basant sur les vidéos transmises par la police de Tempe, c'est-à-dire avec une plage dynamique réduite et sans aucun autre capteur, la solution d'Intel aurait été capable d'obtenir « une détection claire environ une seconde avant l'impact ».

Même son de cloche chez Waymo (filiale d'Alphabet) : « dans le cas d’un piéton ou d’un cycliste, nous sommes confiants dans la capacité de notre technologie à s’adapter à une situation de genre » affirme John Krafcik. Des attitudes à visée promotionnelle que certains jugeront pour le moins déplacées dans un tel contexte. 

Pour le moment, Toyota et nuTonomy ont décidé de mettre en pause leurs expérimentations sur les voitures autonomes. Les autres constructeurs n'ont pas fait de déclaration en ce sens et devraient donc continuer normalement.

Commentaires (38)


Je comprends tout à fait l’interdiction: on parle d’une boîte qui veut atteindre le niveau maximum de conduite autonome et n’est même pas capable d’atteindre les premiers niveaux d’assitance qu’on a sur de nombreuses voitures grand public actuellement.





  • pourquoi la voiture était en excès de vitesse?

  • la vidéo est certainement plus sombre que la réalité, quelle est le problème de visibilité: des phares pas assez puissants, une vitesse trop importante par rapport au warfog?

  • si l’ordinateur ne se sentait pas capable de rouler dans ses conditions, pourquoi une alarme ne s’est pas déclenchée pour signaler au conducteur de reprendre la main?

  • en l’absence de réaction humaine à une conduite autonome incertaine, pourquoi la voiture ne s’arrête-elle pas? (donc vitesse plus basse)

  • aucun capteur n’a déclenché de freinage d’urgence. On trouve l’option freinage d’urgence jusqu’à 80km/h sur des voitures milieu de gamme. L’option régulateur de vitesse adaptatif aussi.



    Je n’entre pas dans le débat du comportement des humains (autre que les équipes d’Uber).

    La même Volvo sans l’électronique d’Uber aurait certainement limité la gravité de l’accident. Et là je parle des outils considérés comme “assistance à la conduite”, loin, très loin de l’appelation “conduite autonome”.



    Ca manque de garde-fous pour rouler sur route ouverte.








skan a écrit :



Je n’entre pas dans le débat du comportement des humains (autre que les équipes d’Uber).

La même Volvo sans l’électronique d’Uber aurait certainement limité la gravité de l’accident. Et là je parle des outils considérés comme “assistance à la conduite”, loin, très loin de l’appelation “conduite autonome”.



Ca manque de garde-fous pour rouler sur route ouverte.





Volvo a l’un des meilleures systèmes de sécurité, mais bon c’est comme avoir un parapluie et ne pas l’ouvrir quand il pleut… Uber a certainement désactivé le système proprio Volvo pour ne pas troubler son propre système, ou alors Volvo a livré des véhicules non-équipé pour alléger le prix qu’Uber paye.



Maintenant j’ai hâte de voir la conclusion de l’enquête, car si le Lidar l’a vu mais que l’IA made in Uber n’a pas interprété l’obstacle, ça va coûter cher à Uber, on s’improvise pas développeur de solution de conduite autonome du jour au lendemain, même si on ne peut exclure un bug logicielle, une alarme aurait du demander au pilote de reprendre le véhicule.



Ça m’étonnera toujours qu’on parle plus d’un mort à cause d’une voiture autonome que des 1,3 millions d’ accidents de voitures mortels sur les routes au niveau mondial…


“Des attitudes à visée promotionnelle que certains jugeront pour le moins déplacées, étant donné la situation.”



Plutot normal de vouloir se différencier du système Uber.

Beaucoup de gens ne font pas de distinction entre les différentes boites faisant de la navigation autonome (waymo, Uber, Tesla, …) et parlent de “voiture autonome” en général.

Les concurrents ne veulent certainement pas se retrouver freiner au niveau de leurs tests à cause d’Uber.



Comme @thomgamer, j’attends avec impatience les conclusions de l’enquête.








BTCKnight a écrit :



Ça m’étonnera toujours qu’on parle plus d’un mort à cause d’une voiture autonome que des 1,3 millions d’ accidents de voitures mortels sur les routes au niveau mondial…







Contrairement à tonton Roger fan d’Alain Prost et amateur de vins à ses heure perdues, ces véhicules – en plus de représenter ce qui tend à être de plus en plus le future de l’automobile grand public – sont censés être presque infaillibles et globalement meilleur que l’humain à la tâche. C’est ça qui fait toute la différence.









skan a écrit :



Je comprends tout à fait l’interdiction: on parle d’une boîte qui veut atteindre le niveau maximum de conduite autonome et n’est même pas capable d’atteindre les premiers niveaux d’assitance qu’on a sur de nombreuses voitures grand public actuellement.





  • pourquoi la voiture était en excès de vitesse?

  • la vidéo est certainement plus sombre que la réalité, quelle est le problème de visibilité: des phares pas assez puissants, une vitesse trop importante par rapport au warfog?

  • si l’ordinateur ne se sentait pas capable de rouler dans ses conditions, pourquoi une alarme ne s’est pas déclenchée pour signaler au conducteur de reprendre la main?

  • en l’absence de réaction humaine à une conduite autonome incertaine, pourquoi la voiture ne s’arrête-elle pas? (donc vitesse plus basse)

  • aucun capteur n’a déclenché de freinage d’urgence. On trouve l’option freinage d’urgence jusqu’à 80km/h sur des voitures milieu de gamme. L’option régulateur de vitesse adaptatif aussi.



    Je n’entre pas dans le débat du comportement des humains (autre que les équipes d’Uber).

    La même Volvo sans l’électronique d’Uber aurait certainement limité la gravité de l’accident. Et là je parle des outils considérés comme “assistance à la conduite”, loin, très loin de l’appelation “conduite autonome”.



    Ca manque de garde-fous pour rouler sur route ouverte.





    Détails importants : le “conducteur” qui devait s’assurer de surveiller la voiture était sur son téléphone au moment de l’impact, vidéo à l’appui : https://jalopnik.com/video-shows-driver-in-fatal-autonomous-uber-crash-was-l-182…

    Le garde-fou était présent, mais défaillant

    On ne vois pas le téléphone mais bon … On peut s’en douter



De ce que je me souviens de la vidéo, la personne au volant regarde vers le milieu du tableau de bord.

Celà peut aussi être un écran de contrôle pour vérifier l’état du système autonome ou voir ce qui est vu par le véhicule.



Et même si cette personne avait le contrôle pour pouvoir freiner rien ne dit que l’accident mortel aurait été évité. Personnelement je ne vois la piétonne que au moment où elle apparait dans la lumière des phares -> déjà trop tard


[Envoi de commentaire erroné, commentaire original perdu, tant pis, j’efface.]


Ton lien est KO, mais la vidéo était passée sur NextInpact je crois, le problème de la vidéo c’est qu’on sait pas si il a des écrans de contrôle ou non, j’ai pas trouvé d’image de l’intérieur d’une “Uber Car autonome” mais à l’époque les Google Car autonome c’était ça mais si c’est plutôt ça c’est sur qu’il regardait pas l’écran de contrôle, ou alors il était vraiment absorbé par la route !



Bon là, visiblement le chauffeur + le système Uber ont eu un manque d’attention …


ENFIIIIN ils retirent la licence à UBER <img data-src=" />

J’étais passé à coté de l’interview de la boite qui fait le Lidar, je me disais aussi, Uber à bel et bien tué cette femme par négligence…


Ha mince, alors pour retrouver mets ça dans google :&nbsp; “video-shows-driver-in-fatal-autonomous-uber-crash-was-l-1823970417”&nbsp; et ce sera le premier site.



&nbsp; On vois la conductrice de face seulement ,sans pouvoir voir ses mains, et oui c’est une double défaillance ^^


“Dans une lettre envoyée à Dara Khosrowshahi, PDG d’Uber, il explique que les vidéos de l’accident « soulèvent des inquiétudes » sur la capacité d’Uber à mener des tests en toute sécurité.”



Pour moi, il y a quelque chose d’encore plus anormal : comment peut-on délivrer des autorisations de faire des tests sur les routes sans aucun contrôle ou certification par un organisme indépendant au préalable ?

Il y a une double responsabilité : le constructeur, ici le développeur de l’IA, et l’organisme qui distribue des autorisations sans aucun contrôle.



&nbsp;Surtout il faut que les autorités légifèrent pour déterminer les conditions d’octroi des autorisations de tests sur route. Parce que le mode d’apprentissage par l’échec c’est acceptable en labo mais pas sur route.


Comment perdre des années de recherche à cause d’une cycliste suicidaire…


@knai2 @lenul79





&nbsp;Donc un humain aurait dû rouler moins vite.

On s’adapte aux conditions de circulation.



Ca aurait été un rocher ou une moto ça aurait été plus grave.



Ce que je retiens c’est que la voiture ne voyait pas où elle allait mais elle y allait. Peut-être n’avait-elle pas non plus vu le panneau de limitation de vitesse.



Tu demandes pas à un humain de conduire et de téléphoner en même temps. On ne peut que spéculer sur le rôle du conducteur dans la voiture: est-ce la procédure d’Uber de confier la surveillance de l’ordinateur ET de la route? Jouait-il à Candy Crush? Est-ce que l’humain a le droit de déconnecter l’ordinateur sur un simple sentiment de doute sur la conduite de l’auto-pilote? Est-ce que l’humain doit toujours être en confiance quand il délègue la conduite?


Je suppose aussi qu’Uber a désactivé les systèmes propres au modèle de véhicule pour maitriser toute la chaîne: capteurs + algo. Et ne pas être parasiter par une action tiers.








secouss a écrit :



ENFIIIIN ils retirent la licence à UBER <img data-src=" />

J’étais passé à coté de l’interview de la boite qui fait le Lidar, je me disais aussi, Uber à bel et bien tué cette femme par négligence…





Doucement avec la justice de réseaux sociaux, pour l’instant aucune décision de justice met en cause Uber et je ne sais même pas s’il y a une quelconque plainte. La décision du gouverneur est un simple principe de précaution en attendant plus de détails de l’enquête (mais politiquement aussi, c’était important, c’est quand même un minimum à faire pour brosser dans le sens du poil ses électeurs).









Intel via la news a écrit :



Intel (Mobileye) en profite pour mettre en avant les capacités de détection de son logiciel ADAS (aide à la conduite automobile). En se basant sur les vidéos transmises par la police de Tempe, c’est-à-dire avec une plage dynamique réduite et sans aucun autre capteur, la solution d’Intel aurait été capable d’obtenir « une détection claire environ une seconde avant l’impact ».



1 seconde avant ? Ouah, elle ne serai pas morte alors mais tetraplegique avec une facture d’un million de dollars sur le dos. <img data-src=" />



C’est bien la même vidéo :)



Après j’aurais tendance à plus incriminer Uber que le chauffeur/superviseur, car “rester en alerte” tout en ne conduisant pas la voiture, je sais pas au bout de combien de temps tu décroches … Au début tu dois être super concentré et attentif car t’as pas confiance à la voiture, mais au bout de dizaines d’heures ou milliers de kilomètres tu dois plus être aussi attentif.



Et cette vidéo (c’est une Tesla) me fait dire que Uber est encore loin du niveau d’une voiture déjà commercialisé et autorisé à rouler (pas en autopilot qui n’est qu’une “aide à la conduite” même si Tesla vise l’autonomie d’ici quelques années). Même cas : visibilité nulle, objet en déplaçant non visible par un humain et en plus on peut rajouter le caractères imprévisible de l’animal.




Intel (Mobileye) en profite pour mettre en avant

les capacités de détection de son logiciel ADAS (aide à la conduite

automobile). En se basant sur les vidéos transmises par la police de

Tempe, c’est-à-dire avec une plage dynamique réduite et sans aucun autre

capteur, la solution d’Intel aurait été capable d’obtenir « une détection claire environ une seconde avant l’impact ».



Bref, il aurait lui aussi réagit trop tard pour éviter l’impact.

&nbsp;







thomgamer a écrit :



Maintenant j’ai hâte de voir la conclusion de l’enquête, car si le Lidar l’a vu mais que l’IA made in Uber n’a pas interprété l’obstacle, ça va coûter cher à Uber, on s’improvise pas développeur de solution de conduite autonome du jour au lendemain, même si on ne peut exclure un bug logicielle, une alarme aurait du demander au pilote de reprendre le véhicule.





La faute n’est absolument pas à Uber, si la voiture est en phase de test avec pilote humain, c’est bien parce que l’on sait qu’il n’est pas encore qualifié pour remplacer l’humain, d’ailleurs aucun projet de véhicule autonome n’en est a ce stade.

&nbsp;

S’il doit y avoir un responsable, ce que je ne me permettrait pas de garantir au vu des éléments a ma disposition, ça serait forcément le conducteur, qui est le seul que la loi oblige a agir qu’il y ait assistance ou pas. Le seul cas ou la technologie d’Uber serait responsable serait si le conducteur avait été empêché de reprendre les commandes.







skan a écrit :



Je comprends tout à fait l’interdiction: on parle d’une boîte qui veut atteindre le niveau maximum de conduite autonome et n’est même pas capable d’atteindre les premiers niveaux d’assitance qu’on a sur de nombreuses voitures grand public actuellement.





L’assistance à la conduite n’est pas le but de ces expérimentations, ici le but est de tester la conduite autonome. Il ne vont pas s’emmerder a développer en bonus une assistance à la conduite alors que ce n’est absolument le sujet.

Le conducteur n’est pas censé être aidé par le logiciel mais au contraire assister la conduite automatique en reprenant le contrôle si les décisions sont mauvaises.







pv_le_worm a écrit :



Contrairement à tonton Roger fan d’Alain Prost et amateur de vins à ses heure perdues, ces véhicules – en plus de représenter ce qui tend à être de plus en plus le future de l’automobile grand public – sont censés être presque infaillibles et globalement meilleur que l’humain à la tâche. C’est ça qui fait toute la différence.





Non ces véhicules ne seront jamais infaillibles, pour la bonne raison qu’il peut y avoir un problème technique ou de reconnaissance vu qu’un réseau de neurone n’est jamais garantit d’être parfait. Et ils sont encore en expérimentation donc d’autant plus faillibles.



&nbsp;



A priori, Uber menait ses tests à la base avec 2 opérateurs par véhicules mais a décidé qu’un seul suffisait. Ceci avait été critiqué par les opérateurs eux même qui indiquaient la grande difficulté de rester concentré sur le contrôle alors que la tache est très monotone (99.9% du temps, tu ne dois rien faire, la voiture conduit toutes seules sur des routes monotones).



Rester les bras croisés à regarder du rien, je ne te donne pas 30minutes avant que ton attention parte papillonner ailleurs et 1h si t’es vraiment motivé et acharné. Mais c’est des truc assez bien connu.



Dans les taches similaires, on a les opérateurs chargés de contrôler les images rayon X des bagages dans les aéroports. La solution proposée pour garder “alerte” les opérateurs, c’est que de temps en temps des faux positifs sont incrustés à l’écran (“pouf” un fusil d’assaut dans la bagage de la vieille en fauteuil roulant, on ne se méfie jamais assez des vieux en fauteuil roulant). Ainsi, on les “réveille” régulièrement et en plus on est capable de mesurer la capacité de l’opérateur à être attentif (passer à coté d’un faux négatif).



Chez les conducteurs de TGV, l’astuce est beaucoup moins “stimulante”, il faut qu’ils exécutent une tache de manière périodique (il faut qu’il appuient régulièrement sur le volant de traction), mais rien pour vraiment réveiller l’attention de l’opérateur.








Uther a écrit :



La faute n’est absolument pas à Uber, si la voiture est en phase de test avec pilote humain, c’est bien parce que l’on sait qu’il n’est pas encore qualifié pour remplacer l’humain, d’ailleurs aucun projet de véhicule autonome n’en est a ce stade.

&nbsp;

S’il doit y avoir un responsable, ce que je ne me permettrait pas de garantir au vu des éléments a ma disposition, ça serait forcément le conducteur, qui est le seul que la loi oblige a agir qu’il y ait assistance ou pas. Le seul cas ou la technologie d’Uber serait responsable serait si le conducteur avait été empêché de reprendre les commandes.





Quelques semaines avant l’accident, l’Arizona avait autorisé les expérimentations sans chauffeur, donc (pure supposition) Uber aurait pu dire à ces chauffeurs de “faire confiance” à leur vehicule.



D’un point de la loi d’Arizona, la seule obligation était d’enregistrer les vehicules qui seraient sans chauffeur avant OU de le faire dans les 60jours débutant l’expérimentation donc assez laxiste.



source



Après on a pas la vue qu’aurait eu le chauffeur, mais je pense que pleinement concentré il aurait évité l’accident, mais bon c’est que des suppositions, puis après 1h à se faire conduire, je peux comprendre le manque d’attention. On est toujours très attentif à la conduire au début en tant que passager puis après un temps on se détend.



Oui mais non, tu anthropomorphises là. Ton raisonnement se base sur le fait que la voiture soit gênée par l’absence de luminosité. Si tu regardes l’équipementqu’elle possède, elle ne se base pas que sur des caméras. Il y a des radars et lidars en plus des caméras. Le lidar est l’élément clé de l’histoire car il cartographie très rapidement l’environnement autour du véhicule.

Qu’il fasse nuit n’a aucune importance car la voiture “voit” mieux que toi (la question aurait pu se poser sur les performances avec du brouillard mais ce n’est pas le cas), elle n’a donc pas besoin de ralentir.

Si les dires du fabricants sont exacts (à vérifier après expertise), le lidar doit avoir détecté la femme, d’où des soupçons sur le logiciel de bord d’Uber qui aurait pu ignorer l’information.

&nbsp;

Ta critique aurait eu plus de sens sur une Tesla qui n’a pas de lidar car ils pensent pouvoir faire mieux avec des caméras (d’ailleurs rien n’empêche d’en avoir qui captent un spectre plus étendu que celui de l’œil humain).



Au passage, un certain nombre de gens se fixent sur un excès de vitesse (annoncée à 38mph au lieu de 35mph, même s’il y avait un doute sur les panneaux de vitesse). On reste dans les limites&nbsp; autorisées d’un contrôle radar, la voiture aurait pu aller plus lentement mais on ne connaît pas tous le contexte. C’est assez mineur dans l’histoire.








FunnyD a écrit :



1 seconde avant ? Ouah, elle ne serai pas morte alors mais tetraplegique avec une facture d’un million de dollars sur le dos. <img data-src=" />







C’est pour ça qu’en cas de choc avec un piéton :




  • s’il n’y a pas de témoin, il faut tracer sa route

  • s’il y a un témoin, s’assurer qu’il ne soit plus en mesure de témoigné

  • s’il y a plusieurs témoins feindre une marche arrière malencontreuse sur l’ex-piéton pour qu’il ne puisse plus emmerder qui que ce soit sur la chaussé, que ce soit à pied, avec des béquilles ou un quelconque appareil doté de roues.

    Rappelle toi, tu ne fais qu’appliquer la sélection naturelle, seul les plus fort survive et peuvent forniquer.







    thomgamer a écrit :



    C’est bien la même vidéo :)



    Après j’aurais tendance à plus incriminer Uber que le chauffeur/superviseur, car “rester en alerte” tout en ne conduisant pas la voiture, je sais pas au bout de combien de temps tu décroches … Au début tu dois être super concentré et attentif car t’as pas confiance à la voiture, mais au bout de dizaines d’heures ou milliers de kilomètres tu dois plus être aussi attentif.



    Et cette vidéo (c’est une Tesla) me fait dire que Uber est encore loin du niveau d’une voiture déjà commercialisé et autorisé à rouler (pas en autopilot qui n’est qu’une “aide à la conduite” même si Tesla vise l’autonomie d’ici quelques années). Même cas : visibilité nulle, objet en déplaçant non visible par un humain et en plus on peut rajouter le caractères imprévisible de l’animal.







    C’est justement ça qui me fait tilter, j’aimerais avoir les raisons de pourquoi la voiture n’a pas essayé d’éviter l’obstacle. N’importe quel obstacle aurait dû provoquer un arrêt ou au moins évitement d’urgence, surtout dans le cas d’une route totalement dégagé. C’est tellement basique que je doute qu’il n’y ait pas un algo pour dans la voiture d’Uber. Il y a eu un dysfonctionnement certain quelque part (j’espère que ce n’est pas un problème de dépassement de capacité)







    Uther a écrit :



    Non ces véhicules ne seront jamais infaillibles, pour la bonne raison qu’il peut y avoir un problème technique ou de reconnaissance vu qu’un réseau de neurone n’est jamais garantit d’être parfait. Et ils sont encore en expérimentation donc d’autant plus faillibles.





    D’où le presque. La force de l’apprentissage automatisée, c’est que plus on lui donne des exemple, plus il est capable de prendre en compte les cas rares (mais il faut encore que la complexité du modèle soit au moins équivalent au système). Du coup, la question de la fiabilité d’un véhicule autonome n’est pas de savoir s’il sera plus fiable qu’un être humain, mais quand il le sera.



+1



Pour l’excès de vitesse :

soit le panneau a effectivement été mal lu

soit c’est un signe que le système n’était pas capable de suivre correctement la vitesse donnée (problème mécanique ? électronique ? logiciel ?)








Uther a écrit :



&nbsp;



La faute n’est absolument pas à Uber, si la voiture est en phase de test avec pilote humain, c’est bien parce que l’on sait qu’il n’est pas encore qualifié pour remplacer l’humain, d’ailleurs aucun projet de véhicule autonome n’en est a ce stade.

&nbsp;





La faute peut toujours revenir à Uber.



&nbsp;- Manque de formation du personnel devant effectué les tests (en ne précisant pas correctement les situations à risques où le véhicule n’est pas capable de prendre des décisions correctement)





  • Manque de test sur route privée ou environnement controlé avant de passer sur route ouverte



    Mais il faudra attendre un petit peu avant de comprendre ce qu’il s’est passé.









tazvld a écrit :



C’est justement ça qui me fait tilter, j’aimerais avoir les raisons de pourquoi la voiture n’a pas essayé d’éviter l’obstacle. N’importe quel obstacle aurait dû provoquer un arrêt ou au moins évitement d’urgence, surtout dans le cas d’une route totalement dégagé. C’est tellement basique que je doute qu’il n’y ait pas un algo pour dans la voiture d’Uber. Il y a eu un dysfonctionnement certain quelque part (j’espère que ce n’est pas un problème de dépassement de capacité)





Maintenant reste à estimer le prix d’une vie, car le dépassement c’était juste de l’argent (d’ailleurs je crois qu’il y avait eu une autre perte du type dû cette fois à une erreur dans l’unité de distance). Peut être que le developpeur du Therac-25 a fini par retrouver du boulot chez Uber.









tazvld a écrit :



Doucement avec la justice de réseaux sociaux, pour l’instant aucune décision de justice met en cause Uber et je ne sais même pas s’il y a une quelconque plainte. La décision du gouverneur est un simple principe de précaution en attendant plus de détails de l’enquête (mais politiquement aussi, c’était important, c’est quand même un minimum à faire pour brosser dans le sens du poil ses électeurs).





On est loin de la justice de réseaux sociaux !! On parle d’une voiture autonome qui à tuée quelqu’un, cette voiture était elle équipée d’un Lidar oui ou non. Si oui, l’excuse “on l’a pas vu” est caduque.



On arrive donc à un constat simple, le logiciel à constaté un obstacle et n’a absolument pas réagi. Si tu met une voiture en tests “réel” sur route, tu est censé avoir un produit un minimum fini. C’est un accident grave et je pense que personne ne prend conscience que l’état à fais confiance à une marque qui à menti sur le niveau de performances de son logiciel.



De plus de nuit pour ne pas “perturber les capteurs” la voiture roule en feu de croisement mal réglés car abaissés au maximum. Impossible pour l’opérateur de rouler de nuit de manière juste satisfaisante.



Enfin on est face à une négligence, pour accélérer son développement ils testent un produit non terminé, mettant en danger non pas seulement des employés ou des testeurs, mais des civils ! Étant concepteur si un de mes produits venait à blesser quelqu’un (je parle même pas de tuer) je serais arrêté immédiatement en France… Aux Etats Unis il semble que ce soit plus light, pour une raison politique, l’avenir de l’automobile doit être autonome et américain… Donc prenons tous les risques au détriment de la sécurité des gens, business as usual.



Je suis d’accord, mais légalement sa responsabilité pourra être engagée








secouss a écrit :



On arrive donc à un constat simple, le logiciel à constaté un obstacle et n’a absolument pas réagi. Si tu met une voiture en tests “réel” sur route, tu est censé avoir un produit un minimum fini. C’est un accident grave et je pense que personne ne prend conscience que l’état à fais confiance à une marque qui à menti sur le niveau de performances de son logiciel.





L’Etat ne fait pas ses propres tests avant de donner les autorisations de circuler sur route ouverte ?



Le seul fait connu est que la voiture n’a entrepris aucune manœuvre d’évitement.

A priori, la voiture est équipé d’assez d’appareil capable de repérer le piéton avant. On sais en effet qu’elle est au moins équipé d’un lidar.

Maintenant dans les hypothèses très probables : on peut supposer avec une certaine certitude que tout véhicule autonome est en capacité de réaliser une manœuvre d’évitement d’urgence en cas d’obstacle sur la route. C’est en effet un comportement attendu de base d’un véhicule autonome.



Voilà à peut près le dossier connu. On a aucune information quant-à l’état de la voiture, des capteurs…. Avant de porter un avis quant-à la culpabilité d’Uber, j’aimerai avoir plus d’élément sur le dossier. Tout d’abord confirmer la présence de mécanisme de manœuvres d’urgences en cas d’obstacle. Ensuite, et surtout, où ça a merdé ? Et de là, oui, on pourra commencer à avoir des éléments permettant d’accuser ou de disculper Uber.



N’étant pas juge et n’ayant pas les éléments du dossier, Uber est, jusqu’à preuve du contraire, innocent. Et tant qu’aucune décision de justice sera rendu, Uber bénéficie de la présomption d’innocence.








lenul79 a écrit :



L’Etat ne fait pas ses propres tests avant de donner les autorisations de circuler sur route ouverte ?





Nop… Vraisemblablement il le fait sur la base de l’étude d’un dossier constructeur.



&nbsp;@tazvld



C’est vrai si on prend le pendant de la présomption d’innocence. Sauf que dans un cas de “mécanique” on applique le principe de précaution. La voiture en mode autonome à tué une personne = la voiture n’est pas autonome et est considérée comme dangereuse tant qu’UBER n’a pas prouvé le contraire, soit en prouvant que le cas présent était spécial et due à une erreur humaine (ce qui ne semble pas être le cas) soit qu’ils ont corrigé le soucis pour éviter qu’il se reproduise.



Dans la cas d’un véhicule autonome, il est assez aberrant qu’il ne possède pas une mécanisme pour éviter un piéton. Sans avoir le dossier, on peut quand même supposer que ce mécanisme existe dans la voiture d’Uber.

On peut aussi supposer sans trop de risque de se tromper qu’il a été testé sur circuitet validé .

On sais que le véhicule était doté de lidar.

Maintenant, on ne sais pas pourquoi la voiture ne s’est pas arrêté. A quel endroit ça a merdé ? ou plutôt à quels endroits ça a merdé ? En effet, c’est rare qu’une seule erreur soit la cause d’un accident, mais c’est souvent une combinaisons d’erreurs (plusieurs erreurs peuvent être la cause, d’autre peuvent ne pas avoir réussi à arrêter la cascade).








FunnyD a écrit :



1 seconde avant ? Ouah, elle ne serai pas morte alors mais tetraplegique avec une facture d’un million de dollars sur le dos. <img data-src=" />











tazvld a écrit :



C’est pour ça qu’en cas de choc avec un piéton :




  • s’il n’y a pas de témoin, il faut tracer sa route

  • s’il y a un témoin, s’assurer qu’il ne soit plus en mesure de témoigné

  • s’il y a plusieurs témoins feindre une marche arrière malencontreuse sur l’ex-piéton pour qu’il ne puisse plus emmerder qui que ce soit sur la chaussé, que ce soit à pied, avec des béquilles ou un quelconque appareil doté de roues.

    Rappelle toi, tu ne fais qu’appliquer la sélection naturelle, seul les plus fort survive et peuvent forniquer.







    \begin{tmtisfree}



    C’est tout à fait le cas, n’en déplaise aux escrologistes et autres fumistes du GIEC qui ont inventé le gaz carbonique pour justifier leurs délires sur le réchauffement climatique qui n’existe pas, données fiables d’Esso et de la Heartland foundation à l’appui.



    L’hyperréglementation pointilleuse d’une puissance publique forcément hystéro-marxiste et keynésiano-stalinienne fait que des entrepreneurs comme Über sont injustement pénalisées parce que leurs expériences en conditions réelles éliminent quelques inaptes à la survie. On tue bien des rats de laboratoire pour des expérimentations dans l’industrie pharmaceutique, pourquoi pas des humains sur les routes pour développer les voitures autonomes ?



    La régulation se fera par le Marché dans ce domaine comme les autres. S’il y a une demande pour des voitures qui ne tuent pas des piétons, les constructeurs fourniront. En attendant, inutile de les brider avec des concepts altruistes d’obédience gauchiste comme le respect de la dignité humaine. Seuls les plus forts survivent, mort aux autres.



    \end{tmtisfree}



    <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



    Pour la sauvegarde de votre santé mentale, veuillez ne pas prendre ce qui précède au premier degré, merci.









tazvld a écrit :



Dans la cas d’un véhicule autonome, il est assez aberrant qu’il ne possède pas une mécanisme pour éviter un piéton. Sans avoir le dossier, on peut quand même supposer que ce mécanisme existe dans la voiture d’Uber.

On peut aussi supposer sans trop de risque de se tromper qu’il a été testé sur circuitet validé .

On sais que le véhicule était doté de lidar.

Maintenant, on ne sais pas pourquoi la voiture ne s’est pas arrêté. A quel endroit ça a merdé ? ou plutôt à quels endroits ça a merdé ? En effet, c’est rare qu’une seule erreur soit la cause d’un accident, mais c’est souvent une combinaisons d’erreurs (plusieurs erreurs peuvent être la cause, d’autre peuvent ne pas avoir réussi à arrêter la cascade).





On est totalement d’accord sur tout ça. Ce qui m’étonne c’est qu’une telle erreur si massive ai eu lieu.



L’enchaînement d’erreurs doit être assez impressionnant en tous les cas, je me demande bien ce qui s’est passé…



Par contre cela ne retire pas la négligence, conduire une voiture de nuit nécessite d’avoir des feux réglés selon la législation. De plus sur route nocturne hors agglo et sans personne en face on peut (doit ?) mettre les pleins phares pour plus de sécurité.

Le “conducteur” censé reprendre le volant n’était pas en situation de conduite, il ne voyait pas la route (réglage des phares au plus bas pour les capteurs) et ne pouvait donc pas assurer sa fonction de sécurité…



Justement, il me semble qu’ils étaient en agglomération (enfin, selon les standard américain). Les feux étaient donc OK.



Aussi pressé que soit Uber, ils ne le sont pas au point d’avoir fait des erreurs évidentes dans leur système d’évitement de piéton. L’erreur doit être vraiment un cas particulier.








tazvld a écrit :



Justement, il me semble qu’ils étaient en agglomération (enfin, selon les standard américain). Les feux étaient donc OK.



Aussi pressé que soit Uber, ils ne le sont pas au point d’avoir fait des erreurs évidentes dans leur système d’évitement de piéton. L’erreur doit être vraiment un cas particulier.





Ok ? Pas vraiment, ils étaient réglés au plus bas Oo Aucune personne normalement constituée ne les règle aussi bas… Après il reste surtout un souci avec le conducteur de sécurité qui semble être formé de manière assez… light ^^&nbsp;

Je pense qu’il faudrait une surcouche de sécurité qui se déclenche quand le conducteur ne regarde pas la route pendant plus de X secondes par exemples.



&nbsp;J’espère que tu as raison, j’ai bien peur que non…. Autant l’accident de Tesla était due à une saturation des capteurs (contrejour et reflets) autant là je vois mal, pas d’obstacle, pas de difficulté, pas de circonstances spéciale… c’est louche



Justement, l’accident s’est déroulé dans des conditions proche d’un cas d’école pour voiture autonome. On était dans des conditions parfaites de la démo technique. C’est le genre du situation bateau pour lequel la voiture a plus que certainement déjà été testé.



Pour ce qui est des feux, en soit, on n’a pas forcément un véritable aperçu de ce qui se voyait ou pas. Tout d’abord, je doute que la caméra d’où vient la vidéo fasse réellement partie des capteurs du véhicule. Ca semble être plus la caméra “dashcam” pour l’analyse par des humains des rapports.



(bon, le piéton est aussi un candidat sérieux pour les Darwins Award, difficile de rater la voiture dans de tels conditions.)


Yep c’est sûr que la caméra est purement informative, comme tu dis c’est une simple dashcam pour avoir une vision d’ensemble lors des rapports d’anomalie. (bizarre qu’elle ai pas un mode nuit au passage)



Je pense qu’on à un Darwin Awards (alcool peut être) et une pub pour la sécurité routière, 10 contre 1 que le conducteur est en train de regarder son téléphone. Sur les photos de l’intérieur du véhicule il semble que les écrans ne se situent pas dans l’axe de sa vision mais sur le coté. Il existe des système qui vérifient la vigilance du conducteur, étonnant de ne pas en mettre dans une voiture où la vigilance du conducteur face à la machine est la seule et ultime sécurité …


Fermer