Accidents mortels : la délicate question du choix des victimes pour les voitures autonomes
« Faites ce que je dis, ne faites pas ce que je fais »
Le 28 juin 2016 à 10h32
13 min
Sciences et espace
Sciences
Face à un risque mortel et immédiat, les conducteurs réagissent généralement à l'instinct. Mais qu'en est-il pour les voitures autonomes qui auront la capacité d'analyser la situation et d'agir en conséquence ? Doivent-elles sacrifier le moins de vies possible ? Si oui, faut-il imposer une régulation des algorithmes ?
Les voitures autonomes sont une réalité et, même si elles ne circulent pas encore en masse sur les routes, cela arrivera inévitablement à un moment donné. Les constructeurs mettent en avant la grande capacité d'analyse et la rapidité de réaction des intelligences artificielles qui se trouvent à bord, et qui permettent d'éviter de nombreux accidents (pas tous non plus, comme en a fait l'expérience une Google Car il y a quelques mois). Mais que se passe-t-il lorsque la voiture est soumise à un « dilemme social » et qu'il faut choisir entre des options qui ont toutes des conséquences funestes pour une ou plusieurs personnes ?
Faut-il sacrifier le conducteur pour sauver une ou plusieurs vies ?
Prenons un exemple afin de poser le décor. Un piéton déboule de manière inattendue devant une voiture autonome. En une fraction de seconde cette dernière le détecte, analyse la situation et calcule qu'elle ne peut pas freiner suffisamment pour l'éviter, le tuant si elle continue sur sa trajectoire. Reste deux solutions : faire une embardée à droite ou une à gauche. Mais, sur la droite se trouve un groupe de piétons et sur la gauche un précipice. Que faire dans cette situation ? Ou plutôt qui « sacrifier » ? Le piéton, le groupe de personnes, le conducteur et les éventuels passagers ?
Un exemple parmi tant d'autres. Même si cela ne devrait pas arriver à chaque coin de rue (loin de là même), ce genre de situation peut arriver (et arrivera donc d'après la fameuse Loi de Murphy) et il faut donc l'anticiper. Si, dans le cas d'un humain, ce sont les réflexes qui prennent les commandes, pour la voiture se sera aux algorithmes de décider... en fonction de la manière dont ils auront été programmés. La question est justement de savoir comment ils doivent agir dans ce genre de situation.
Une version moderne en quelque sorte du « dilemme du tramway ». Un jeu de l'esprit dans lequel on se demande s'il est éthique pour le conducteur d'un tramway devenu incontrôlable d'actionner une manette qui déviera la machine afin qu'il ne tue qu'une seule personne, au lieu de plusieurs s'il ne réalise aucune action. Le conducteur est remplacé par une intelligence artificielle... elle-même créée par des humains. Faut-il agir sciemment pour limiter les pertes, ou bien ne rien faire pour changer la trajectoire et, en quelque sorte, laisser faire « le destin » ?
Via Amazon Mechanical Turk, des scientifiques ont posé la question à 1 928 résidents des États-Unis (chaque participant obtenait 25 centimes en échange de ses réponses, étaient répartis dans six groupes. Chacun planchait sur des situations différentes. Le compte-rendu de cette étude, publié dans le magazine Science, ne représente évidemment pas le sentiment de toute la population américaine, mais permet tout de même de se faire une idée de la manière dont les gens appréhendent ce problème, tout en soulevant de nombreuses problématiques.
76 % pensent que oui pour sauver 10 piétons par exemple...
Dans le premier groupe, la question était simplement de savoir s'il était « plus moral » de tuer un passager d'une voiture autonome plutôt que dix piétons. Pour 76 % des sondés, la réponse est sans surprise : oui. Lorsqu'on leur demande de noter sur une échelle allant de 0 (protéger le conducteur à tout prix) à 100 (minimiser le nombre de victimes), le résultat est du même acabit avec une médiane à 85 %. En théorie, le bien du groupe l'emporte donc sur l'individu, du moins pour une large majorité des personnes.
La situation se corse avec le groupe suivant lorsque le nombre de piétons varie entre 1 et 100. Avec un seul piéton impliqué, 23 % environ pensent qu'il faut sacrifier le passager de la voiture, « mais leur approbation morale augmente avec le nombre de vies qui pourraient être sauvées, jusqu'à un niveau correspondant aux 76 % observés avec le premier groupe ».
Les membres du troisième groupe pour leur part devaient imaginer qu'il se trouvait dans la voiture, parfois avec des personnes de leur famille. Même dans cette situation présentée comme « très agressive », le sacrifice des occupants de la voiture revenait majoritairement dans les réponses (entre 54 et 66 % pour 95 % des réponses) lorsque cela permettait de sauver plus de vies.
Pour résumer, les personnes interrogées s'accordent à dire que sauver le plus grand nombre de vies serait la meilleure option, même si de la famille est présente dans la voiture. Mais entre savoir ce qui est le mieux pour l'intérêt général et passer aux actes, il y a un fossé que certains ne veulent pas franchir.
... mais seulement 19 % seraient prêt à acheter ce genre de voiture autonome
En effet, peu de personnes semblent intéressées par l'achat d'une voiture autonome, même si elle est pensée pour protéger ses occupants en priorité. Mais lorsqu'on précise qu’eux et/ou des membres de la famille puissent être sacrifiés pour sauver le plus grand nombre, seulement 19 % des sondés ont indiqué être prêt à acheter une telle voiture. En d'autres termes, bien que pensant que les voitures sauvant un maximum de vies sont « plus morales », ils ne souhaitent pas en acheter une.
Les résultats du quatrième groupe vont dans le même sens. Trois algorithmes leur étaient soumis et ils devaient noter sur 100 la moralité de ceux-ci, leur sentiment si des voitures étaient programmées de cette manière et leur intention d'acheter une telle voiture autonome. Voici les trois situations proposées : faire une embardée pour tuer un piéton et en sauver dix autres, tuer les occupants de la voiture pour sauver dix personnes, faire une embardée et tuer un piéton pour sauver une vie.
Sans surprise, le fait de sacrifier une personne pour en sauver dix engrange le plus de points, tandis qu'en tuer une à la place d'une autre ne reçoit que quelques-uns. Le troisième cas (tuer les passagers pour sauver dix piétons) est là encore plus compliqué. Cette manière d'agir obtient des notes de moralité élevées et elle est considérée comme étant un bon algorithme par les personnes interrogées, mais elles sont beaucoup moins nombreuses à vouloir qu'un algorithme de ce genre arrive dans les voitures, et encore moins à vouloir en acheter une de ce genre.
Les conclusions de l'équipe de chercheurs sont simples : « Une fois de plus, il semble que les gens votent pour l'utilitarisme, l'abnégation des voitures autonomes et souhaitent voir ce comportement sur la route, mais sans réellement vouloir en acheter une pour eux-mêmes ». Un cas typique de dilemme social où « tout le monde cède à la tentation de l'autopréservation au lieu d'adopter un comportement de groupe qui conduirait à un meilleur résultat global ».
Et si les gouvernements imposaient une réglementation utilitariste ?
Pour passer outre ces considérations, les chercheurs proposent une solution : « que les régulateurs imposent de faire respecter le comportement conduisant au meilleur résultat global ». Un principe d'application qui n'a rien de nouveau et que l'on retrouve déjà dans d'autres domaines : vaccination des enfants, paiement des impôts, etc.
Mais dans le cas des voitures autonomes, les choses ne sont pas aussi simples comme le montre le cinquième groupe de cette étude. Pour commencer, il est demandé aux participants de noter quatre choix (de 0 à 100) : se sacrifier pour sauver une ou dix personnes lorsque l'on conduit, et la même chose si une intelligence artificielle est aux commandes de la voiture. Dans tous les cas, la moyenne est au-dessus des 50 % avec un score bien plus élevé quand le nombre de piétons est plus important. Bref, un résultat déjà obtenu auparavant.
Mais ce même groupe avait droit à une autre série de questions dont le but était de savoir s'ils étaient prêts à ce que ce principe (sacrifier les passagers de la voiture pour sauver les piétons en plus grand nombre) soit inscrit dans la loi. Cette fois-ci, le score est systématiquement en dessous des 50 %. Une majorité s'accorde donc à dire qu'il est bien plus moral de tuer une personne dans la voiture pour en sauver dix, mais quand il s'agit de graver cela dans le marbre (ou dans des lignes de codes), la tendance s'inverse.
Les robots plus à même de prendre des décisions « sensées » ?
Pour Jean-François Bonnefon, chercheur au CNRS, co-auteur de cette publication et interrogé par La Dépêche, la question est donc de savoir s'il faut laisser les robots décider pour nous de ce qu'il faut faire pour le bien du plus grand nombre. « Le monde est déjà en train de changer » ajoute-t-il, et il faut donc se décider assez rapidement.
Lors d'une conférence en 2011 à Toulouse sur la psychologie des risques, le chercheur expliquait qu'« on peut, peut-être au bout d'un moment, désespérer du genre humain. Vont venir s'empiler, démonstrations après démonstrations, des éléments qui laissent penser que vraiment nous sommes très très peu à même de juger correctement du risque ou de prendre des décisions censées ». Une intelligence artificielle (telle qu'on les connait aujourd'hui, en attendant les IA fortes) n'a pas ce genre d'état d'âme et sera capable d'agir de manière rationnelle... pour peu qu'aucun bug ne soit présent dans les lignes de codes bien évidemment.
Alors les gens auraient moins l'intention d'acheter une voiture autonome
Dans la dernière étude, les scientifiques ont demandé aux participants s'ils achèteraient une voiture dont les algorithmes auraient été réglementés. Là encore, différents scénarios sont évidemment mis en place : une personne seule au volant, avec un membre de sa famille et enfin avec leur enfant.
Comme avec les autres groupes, le fait de sacrifier les passagers pour sauver un grand nombre de personnes l'emporte, certes moins franchement lorsqu'il y a des membres de la famille et/ou des enfants à bords. Les participants sont par contre moins nombreux à vouloir qu'une régulation soit mise en place par le gouvernement (même lorsqu'ils sont seuls au volant).
Ils sont encore moins nombreux à vouloir acheter une voiture autonome avec algorithmes réglementés (21 % en moyenne), contre 59 % dans le cas contraire :
La situation est donc relativement complexe, car rien n'oblige (pour le moment) les automobilistes à acheter des voitures autonomes, que les algorithmes soient réglementés ou non. De plus, selon les conclusions de cette étude, si les fabricants automobiles veulent vendre en masse des voitures autonomes, ils n'ont pour le moment aucun intérêt à ce qu'une loi impose des algorithmes minimisant les victimes puisque cela baisserait drastiquement le nombre de clients potentiels. Dans le même temps, cela aurait pour effet de limiter le nombre de tués à cause des voitures, ce qui irait dans le bon sens. Dilemme...
Gouvernements, fabricants et consommateurs doivent se mettre d'accord
Les scientifiques expliquent ainsi que « trois groupes peuvent être en mesure de décider comment gérer les dilemmes éthiques des voitures autonomes : les consommateurs qui les achètent, les fabricants qui les programment et le gouvernement qui peut réguler le type d'algorithmes que les fabricants peuvent proposer et que les consommateurs peuvent choisir ».
« Nos résultats suggèrent que la réglementation des voitures autonomes peut être nécessaire, mais aussi contre-productive » tempèrent-ils. En effet, si des voitures autonomes protectrices des passagers et utilitaristes sont mises sur le marché en même temps, peu de gens seraient prêts à monter dans le second type de voitures pour l'instant, et ce, alors qu'elles aimeraient bien que d'autres le fassent.
Quand imposer des algorithmes pourrait avoir l'effet inverse que celui recherché
« Un règlement peut apporter une solution à ce problème, mais les régulateurs seront confrontés à deux difficultés » ajoutent les chercheurs. Tout d'abord, la plupart des gens semblent désapprouver la mise en place d'un règlement qui imposerait l'utilitarisme. Ensuite, plus problématiques, les résultats suggèrent que cette réglementation pourrait considérablement retarder l'adoption des voitures autonomes, « ce qui signifie que les vies sauvées grâce à l'utilitariste pourraient être dépassées en nombre par les décès causés en retardant l'adoption des voitures autonomes ».
Et encore, nous sommes restés dans des situations « faciles » où il n'est question « que » de vie et de mort. Que se passe-t-il avec des incertitudes sur l'issue d'un accident ? Est-il acceptable pour une voiture autonome d'éviter une moto en déviant dans un mur, car elle estime que la probabilité de survie est plus importante pour les passagers que pour le pilote de la moto ? Le pilote de la moto dirait certainement que oui, alors que le conducteur de la voiture serait certainement plus mitigé.
Faut-il prendre en compte l'âge, le sexe et la condition physiques ou sociales des personnes impliquées ? Imaginons maintenant qu'on laisse le choix à l'automobiliste entre plusieurs algorithmes, faut-il le condamner en cas de conséquences funestes ? Bref, un beau casse-tête en perspective, aussi bien pour les régulateurs, les constructeurs que les utilisateurs.
Et vous, quelles décisions prendriez-vous ?
Afin de vous mettre face à vos propres choix, les chercheurs ont mis en place un site poétiquement baptisé Moral Machine. Vous pouvez proposer vos propres scénarios catastrophes, mais aussi répondre à une série de 13 questions et accéder à une analyse de votre comportement. De manière générale, vous pourrez ainsi consulter les « personnages » les plus épargnés et au contraire ceux le plus souvent sacrifiés.
Mais le plus intéressant reste l'analyse plus fine des données en fonction de certains cas : avez-vous tendance à sauver le plus de vie possible, les passagers de la voiture, les piétons qui respectent la signalisation, les personnes en fonction de leur genre (sexe, âges, condition sociale), les humains ou les animaux et, dernier point et pas des moindres, éviter d'influencer sur la trajectoire de la voiture ? Dans ce dernier cas, il faudra voir si l'absence de décision est une décision ou non, mais c'est un autre débat.
Accidents mortels : la délicate question du choix des victimes pour les voitures autonomes
-
Faut-il sacrifier le conducteur pour sauver une ou plusieurs vies ?
-
76 % pensent que oui pour sauver 10 piétons par exemple...
-
... mais seulement 19 % seraient prêt à acheter ce genre de voiture autonome
-
Et si les gouvernements imposaient une réglementation utilitariste ?
-
Les robots plus à même de prendre des décisions « sensées » ?
-
Alors les gens auraient moins l'intention d'acheter une voiture autonome
-
Gouvernements, fabricants et consommateurs doivent se mettre d'accord
-
Quand imposer des algorithmes pourrait avoir l'effet inverse que celui recherché
-
Et vous, quelles décisions prendriez-vous ?
Commentaires (183)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 28/06/2016 à 12h56
Le 28/06/2016 à 12h58
+1 si pendant la chute le copilote avait réactivé le pilote automatique et surtout laché le manche il n’y aurait pas eut d’accident " />
Le 28/06/2016 à 13h00
Très intéressant comme problématique. Cependant, les chercheurs passent à côté d’un problème fondamental côté IA : si on crée le précédent d’une IA qui peut tuer son utilisateur pour en épargner d’autre, on ouvre la boîte de Pandore. Et ça, c’est très très grave de mon point de vue.
D’un autre côté, comme le disait Drepanocytose, le marketing viendra à bout des réticences sans souci en inversant le raisonnement. Plutôt que de demander à quelqu’un s’il veut acheter une voiture comme ça, il suffit de lui demander s’il serait content que ses voisins en achètent. De fil en aiguille, ça peut évoluer vers “tout le monde en achète comme ça on limite la casse”.
Mais, comme je le disais plus haut, ma grosse inquiétude ici est de voir des chercheurs passer à côté du précédent que j’ai décrit. S’ils passent à côté ici, comment ne pas passer à côté dans d’autres domaines ? Skynet, pas loin…. :p
Le 28/06/2016 à 13h01
Le 28/06/2016 à 13h01
c’est un peu le but de la question a mon avis. La voiture sait deja gerer le quotidien, mais lorsqu’un cas desespere surgit que faire?
comme disait l’un des inpactien, le debat n’est pas de savoir si la voiture autonome est plus securitaire que l’humain ou comment gerera t’elle les imprevus courants, mais plutot en cas de “mort inevitable” a qui faut-t-il raccourcir la vie?
Est-ce q’un algo a le droit de decider pour les pietons ou les passagers ?
Doit-on mettre a l’avance des choix en durs dans ces cas la ? (tue le passager vs tue les pietons)
lui donne-t-on l’ordre d’essayer de sauver tout le monde quitte a augmenter le nombre de victimes?
Laisse-t-on la voiture faire ce quelle veut litteralement?
A mon avis le mieux, dans ces situations serait de laisser faire le pilote comme dans les machines avec pilote automatique, mais vu qu’on ne sait pas si la voiture autonome aura les commandes accessibles au conduteur, et qu’on ne sait meme pas quelles seront les regles de pilotage, il est un peu difficile de s’etendre dessus.
Je dis cela a cause des concepts de certains constructeurs ou les sieges pivotent par exemple…
Le 28/06/2016 à 13h05
[quote:5689126:busta525…mais plutot en cas de “mort inevitable” a qui faut-t-il raccourcir la vie?
…[/quote]
Si je suis le passager/conducteur, pas la mienne en tout cas.
Le 28/06/2016 à 13h06
La seule vidéo disponible commence trop tard pour estimer à quel point la google car aurait dû voir l’obstacle.
2 comportements qui montre que c’est l’application de comportements “humains” qui ont déclenché “l’accident”.
C’est tout mon propos. Les voitures autonomes sont nulles à avoir des comportements humains. Laissons donc cela aux humains pour l’instant.
Pour info, les voitures autonomes sont impliquées dans quasiment deux fois plus d’accident au mile parcouru que les voitures non autonomes (stat californienne, l’endroit où elle roulent le plus). Certes, souvent pas de leur faute, certes, pour l’instant jamais grave. Mais quand le principal argument c’est la sécurité, ça fait tâche (surtout à comparer aux voitures avec assistance).
Si les autres véhicules avaient été automatisés, ils auraient communiqué l’obstacle, et le bus aurait pu “communiquer” l’autorisation/refus de changement de voie.
Foi aveugle en la technologie :). Rien ne permet de l’affirmer (à part des modèles théoriques centrés sur ce problème uniquement, je parle d’une situation réelle, avec des véhicules réels).
Le 28/06/2016 à 13h13
Le 28/06/2016 à 13h14
C’est surtout le concept de voiture personnelle qui n’a plus aucun sens une fois les voitures autonomes sur les routes. Une flotte de voitures autonomes qui s’occupent de déplacer les personnes au quotidien, en optimisant le nombre de personnes à son bord sur un trajet plus ou moins directe, c’est clairement l’avenir dans les agglomérations.
Une voiture, quoi qu’on en dise, c’est une boîte métallique mobile qui te déplace d’un point A à un point B, reste parqué x heures, pour ensuite à nouveau te déplacer du point B au point A, pour être à nouveau parquée x heures. Voilà l’utilité quotidienne qu’en ont la majorité des personnes, 30min à 1h d’utilité par jour et le reste du temps elle est parquée à un endroit, totalement inutile.
Reste les coins perdus ou mal desservis par les transport qui rende la voiture indispensable.
Le 28/06/2016 à 13h14
Le 28/06/2016 à 13h15
Ahah ! pas mal comme exemple.
Je pense que la question posée dans cette étude est absurde.
Plus un algorithme est compliqué, plus il rend le comportement de la voiture difficile à anticiper pour les personnes situées à proximité, plus celle-ci risque d’être dangereuse.
Une voiture qui fait un écart pour éviter un accident, c’est totalement contre-productif si les victimes potentielles ont aussi tenté de s’écarter dans la même direction, ne sachant pas ce que la voiture autonome aurait fait.
Une voiture autonome doit être suffisamment prudente pour ne pas provoquer d’accident responsable et avoir un comportement totalement prévisible par son environnement en cas de situation problématique. Pas plus.
Le 28/06/2016 à 13h16
Tout à fait d’accord
Le 28/06/2016 à 13h22
Le 28/06/2016 à 13h22
Le 28/06/2016 à 13h24
Je suis d’accord avec toi que ce point est un problème. Ce que je voulais dire par “une fois finalisées” c’est justement une fois ce genre de problème résolu car aujourd’hui je ne pense pas qu’on ait assez de recul vis à vis de l’usure des composants d’une voiture autonome.
Le 28/06/2016 à 13h25
+1
Le 29/06/2016 à 08h48
Le 29/06/2016 à 08h51
Ce qui est bien dans ce concept, c’est que quand les ambulances seront autonomes elles aussi, elles pourront prendre en charge plus rapidement les gens qu’elles auront sacrifié aalgorithmiquement " />
Le 29/06/2016 à 08h54
Bah alors tu tourneras pour trouver une place avec ta voiture autonome comme tu le fais avec ta voiture pas autonome (ou elle le fera à ta place et la situation sera comme aujourd’hui, sauf que tu te baladeras tranquillement avec tes amis). C’est un peu comme ce débat de sauver le piéton ou non, on s’imagine des nouveaux problèmes avec la voiture autonome alors que ces problèmes existent depuis aussi longtemps que l’automobile est massivement utilisée (nous avons déjà besoin de nous garer, nous tentons déjà de sauver un maximum de vies).
Le 29/06/2016 à 09h25
Si, exactement comme j’ai écrit plus bas dans le même commentaire :
Il est vrai, je considère que la notion même de véhicule particulier est vouée à disparaître dans les grandes villes d’ici 50 ans pour de multiples raisons de toute façon, et à la campagne je doute que l’aspect autonomie apporte une réelle plus-value par rapport à la situation actuelle, surtout considérant le surcoût et la variété de situations.
Le 29/06/2016 à 09h34
Je suis plutôt d’accord qu’il y a des chances qu’on remplace le véhicule individuel par la voiture automatique … imaginer un Uber “automatisé”, où quand j’ai besoin d’un véhicule, je peux l’appeler à n’importe quelle heure du jour ou de la nuit, qui arrive sous 2 minutes, et qui serait à un bon prix … je pourrai imaginer ne pas avoir besoin d’une voiture personnelle …
Il faudra voir comment tout ça évoluera.
Le 29/06/2016 à 09h45
Bah, pour tout faire à vélo 99% du temps (j’admets, j’ai piqué la voiture de mon père pour une semaine le temps de faire des gros achats " />, parce que le meuble de 20 Kg sous le bras, c’est pas évident " />), j’ai toujours été effaré de voir la proportion de voitures “vides” (= que le conducteur) en semaine.
Le 29/06/2016 à 09h55
Le 29/06/2016 à 09h59
Désolé je double poste direct car je sais que je me ferai squeezer par le temps sur l’édit. Pour finir sur ma lancée… Ou pas finalement, merci CS ! " />
Si, en revanche, on peut leur promettre la même couverture point-à-point avec des transports “collectifs”, et qu’on met également en balance le gain économique sur le long terme (tu payes ton ticket/abo, mais plus à gérer essence/assurance/entretien/etc) alors l’investissement initial demandé pourrait être accepté. Et cela, effectivement, est une promesse que les véhicules autonomes pourront bien plus facilement amener qu’un système “humain” à cause principalement du coût que représentent les employés comparativement à l’entretien d’un logiciel (bien que cela m’attriste parce que j’aime notre système social, il faut bien le reconnaître).
Le 29/06/2016 à 10h11
Le 29/06/2016 à 10h16
Le 29/06/2016 à 10h19
Puisque tu sembles plus calé que moi sur le sujet (de mauvaises langues diront que ce n’est pas difficile " />), pourrais-tu me dire pourquoi (ou juste me pointer un site) un tram a forcément plus de débit qu’un bus ? Si le bus doit s’insérer dans la circulation normale, ça me paraît évident. Mais un bus en site propre ?
Parce que si on devait faire une comparaison théorique entre les deux, tous deux en site propre, avec les mêmes arrêts, le seul critère que je vois qui peut jouer est la capacité d’accueil par rame. Et si les rames des trams peuvent être plus grandes qu’un double bus, il me semble que les règles de sécurité limitent bien plus leur capacité à “rapprocher” deux rames que deux bus, ce qui implique que l’on pourrait compenser la moindre taille des bus par une plus grande fréquence (limite mieux d’ailleurs vu que plus fluide) ?
Le 29/06/2016 à 10h21
Hmm, je vois ce que tu veux dire. Les véhicules autonomes pourraient rendre de la mobilité aux personnes âgées (et de la sécurité aux personnes alentours soit dit en passant " />), on est d’accord. Cela dit ça ne me semble pas une raison suffisante pour “posséder” le véhicule autonome (à fortiori puisqu’il est autonome, donc qu’il peut lui-même se déplacer pour aller servir d’autres personnes). Au contraire même, cela leur évite de supporter individuellement le coût complet d’un véhicule qui, à priori, ne leur sert que sporadiquement. Ce qui représente donc un cas supplémentaire en faveur de l’approche transport collectif du véhicule autonome.
Le 29/06/2016 à 10h35
Le 29/06/2016 à 12h38
Le 29/06/2016 à 12h40
Le 29/06/2016 à 12h54
Le 28/06/2016 à 12h21
Si je veux buter quelqu’un qui a une voiture autonome :
Le 28/06/2016 à 12h26
Mais google a déjà analysé ton commentaire et sait que tu as placé un groupe dans ce virage. Ainsi, la voiture roulera très tranquillement à cette endroit et ne rencontrera pas de situation à risque.
Et toi tu seras en taule suite à la dénonciation de google de ta tentative d’assassinat.
Non, vraiment, très bien ces voitures autonomes google " />
Le 28/06/2016 à 12h27
Il n’y a bien qu’un être humain pour s’engager à pleine bourre dans un virage sans visibilité à une vitesse trop grande pour rendre impossible un freinage sûr " />
Ps: mais si tu ajoute quelques orphelins tenant des chattons mignons, peut être que la pondération de l’algo fera que la voiture se suicidera peut être " />
Le 28/06/2016 à 12h30
Tout pareil.
Certains accidents sont inévitables. Le robot réagira mieux que l’humain.
Mais au moins avec 100% de voitures autonomes communicantes, pas de sur accident.
Le 28/06/2016 à 12h33
Le 28/06/2016 à 12h36
Blague à part, c’est un fait, les capteurs doivent pouvoir détecter les objects / personnes de petites tailles encore plus facilement qu’un conducteur (même si de base de toutes facon c’est plus rapide)
sachant que les accidents sont en majorité dus
si t’as une voiture qui peut limiter ces deux facteurs de base c’est un gros +
Le 28/06/2016 à 12h39
Moi.
80% de mes trajets sont pour aller bosser. Ça me prend 1h matin et soir à une moyenne de 25km/h sur autoroute. A cette vitesse et en file indienne, n’importe quelle bagnole autonome peut me remplacer.
P.S. Non, il n’y a pas d’alternative crédible là où je vis (banlieue de Montréal, Québec).
Le 28/06/2016 à 12h39
Maintenant, si une erreur de capteur fait que ma voiture se prend un arbre au milieu d’une route “sans personne”, là oui, je voudrais pas rentrer dans la voiture " />
Le 28/06/2016 à 12h43
C’est un problème complètement idiot, que les googles car après des millions de km n’ont jamais rencontré.
Il n’y a jamais 2 solutions pour une robot, toujours une infinité. De plus, si la voiture “prudente” voit les piétons au dernier moment, c’est leur faute, pourquoi sacrifier le passager ? Elle fera comme tous le monde : freinage d’urgence, et tentative d’évitement maximum.
Le 28/06/2016 à 12h44
Cette confiance dans la technologie est assez flippante.
Ok, la technologie est jeune, et elle doit encore progresser. Mais quand on regarde la google car :
Il est certain qu’en terme de temps de réaction, la machine bat l’homme. En revanche, en terme d’anticipation et d’appréhension de l’environnement, l’homme garde l’avantage (toujours chez google, on prend les noirs pour des gorilles, ils seraient donc plus « sacrifiables » que les blancs ? sérieusement ?).
Les systèmes d’assistance tels qu’on les voit arriver dans les berlines de luxe permettent aujourd’hui de cumuler le meilleur des deux mondes (le conducteur appréhende l’environnement, la machine intervient en cas d’extrême urgence) et sont amenés à encore progresser. Bon courage à la voiture 100% autonome pour faire mieux.
Le 28/06/2016 à 12h45
Le 28/06/2016 à 12h47
Le 28/06/2016 à 12h47
perso, ce sont plus les assurances qui me tracassent de ces scenarii…
Ils vont se retourner contre qui? Le fabriquant, l’usager de la voiture (on peut pu dire conducteur puisqu’on a plus aucun controle du véhicule pour notre sécurité), le pieton/obstacle qui a déboulé, ceux qui ont programmés les réactions du véhicule?
S’il y a encore des assurances…
Le 28/06/2016 à 12h52
Mon grain de sel : dans une autre vie et pendant presque 15 ans, j’ai été chauffeur PL, taxi, ambulancier.
Je n’ai jamais eu d’accident encore aujourd’hui, ni en pro, ni en perso. Tant mieux pour moi " /> et pourvu que ça dure." />
Ma règle a toujours été la suivante : «tu ne dévies pas. Jamais. Chacun sa voie, tu n’as rien a faire dans celle des autres. Point barre.». J’en ai laissé de la gomme au sol et des fois c’est pas passé loin du cimetière.
Tenter d’éviter, c’est un réflexe naturel, mais pas forcément très intelligent au volant : c’est agir dans l’affolement.
Perso, je ne voudrais pas d’une voiture qui s’autoriserait à dévier de sa voie de son propre chef.
Le 28/06/2016 à 12h55
Le 28/06/2016 à 12h55
Le 28/06/2016 à 11h09
En théorie, le plus simple c’est de refiler tous les contrôles au tas de viande qui est dans la voiture et de le laisser se démerder avec les choix éthiques et moraux
Le 28/06/2016 à 11h10
Est ce qu’il y aura un propriétaire de voiture assez fou pour se payer une voiture qui peut le tuer sans lui demander son avis ?
Le 28/06/2016 à 11h14
Le 28/06/2016 à 11h16
Solution : sortir de l’automobile.
" />" />" />" />" />
Je vous l’accorde, c’est ni facile, ni rapide, ni bon marché, mais ça résoudrait considérablement beaucoup de problèmes. Dont ceux posés dans cet article.
Le 28/06/2016 à 11h19
Même si c’est fondamentalement très intéressant comme question, c’est un faux débat, les algos devraient être assez bons pour éviter qu’un scénario de ce genre se produise (les piétons ne sortent pas de portails spatio temporels pour traverser). Si la visibilité est problématique, l’algorithme devrait adapter la vitesse pour être sûr que le freinage empêche tout risque de choc mortel.
Exemple bête : quand je vois beaucoup de voitures au bord de la route, instinctivement je réduis ma vitesse, et j’ose espérer au vu de la complexité des algos de ce type de véhicule, qu’ils font pareil depuis belle lurette, parce que je suis moins fiable qu’ils ne devraient l’être.
Le 28/06/2016 à 11h20
Les avions de lignes modernes peuvent effectuer un vol entier en pilotage auto (à condition que les pistes de décollage/atterrissage soient un poil récente). Ceci dit, il me semble bien qu’en cas de pépins durant le vol, l’ordinateur rend les commandes au pilote
Le 28/06/2016 à 11h21
Clairement, j’aurai bien plus confiance en une voiture autonome qu’en moi ou en la centaine de conducteurs que je croise chaque jour sur la route.
Le 28/06/2016 à 11h21
Donc dans un futur pas si lointain on trouvera
Le 28/06/2016 à 11h22
Le 28/06/2016 à 11h22
Dans les exemples montrés, il n’y a pas de présentation de la cause de la situation, qui pour moi, est primordiale. C’est à dire comment en est-on arrivé à ce dilemne.
Est ce la faute du/des piéton(s) ? Si oui (un mouvement volontaire : vouloir traverser, courir apres un oiseau/ballon, etre absorbé par son smartphone, etc) , personnellement, ils ont beau etre 100 et des enfants de 5 ans, c’est à eux d’y passer. Ce n’est pas la responsabilité du conducteur/voiture qui est mise en cause, c’est celle de la personne ou l’accompagnateur/tuteur (Ba oui, un parent qui élève mal son gamin et qui traverse n’importe comment….).
Si par contre la situation est due à un mouvement involontaire (une chute, quelqu’un qui vous pousse, un malaise, etc.), c’est déjà un peu différent. Personnellement je pense quand meme qu’il faut sacrifier le pieton, meme si ce sont 100 enfants de 5 ans. Des gens meurent tous les jours de causes involontaires, ce sont des accidents, ca arrive. Ce n’est toujours pas la faute du conducteur/voiture et il n’a absolument pas à patir de cette situation.
Après, si c’est un défaut de la conception de la voiture (mécanique ou de l’algorithme) qui mene à cette situation, c’est encore différent, et là, les questions soulevées dans l’article sont valable de mon point de vue.
Si c’est une erreur dû à un mauvais entretien ou des pieces contrefaites installées à cause du conducteur, le piéton a beau etre une grand-mère avec une espérance de vie de moins d’une semaine, c’est au conducteur et à toute personne de sa voiture d’y passer.
Bien entendu tout ceci n’est que théorique ; de facon pratique l’IA ne sera surement pas capable de différencier ces situations.
Un point soulevé en fin d’article sur la discrimination des gens, notamment basé sur l’age, peut, je pense, etre implémenté dans l’algorithme (une petite reconnaissance faciale couplée à un algo qui donne l’age ca doit se faire assez rapidement de nos jours je pense, suffisemment pour une situation d’urgence) mais ce n’est pas évident pour en faire une véritable utilité. Comment pondérer les choix via ce critère, qui doit etre numérique et systématique? Faire simplement la comparaison entre le temps restant à vivre des occupants de la voiture et ceux des piétons (basé sur l’espérance de vie moyenne)? Ce qui voudrait dire par exemple qu’un piéton de 5 ans vaut autant que d’un couple de 37 ans ou que cinq retraités de 65 ans?
Ceci était un avis d’une personne n’ayant pas son permis de conduire " />
Le 28/06/2016 à 11h25
Et là, tu es content d’avoir Alain Delon aux commandes " />
Tiens, un autre point intéressant est la responsabilité pénale.
Le 28/06/2016 à 11h25
Confier sa vie à un conducteur humain qui ne peut être attentif à 100% tout le long du trajet, qui a des réflexes dignes d’une huitre morte comparé à un ordinateur et qui ne fonctionne qu’à l’instinct et pas à la logique (si tu aperçois un obstacle au dernier moment, tes réflexes/instinct feront qu’il y a de grande chance que tu fasse un écart pour éviter l’obstacle dans la panique, même si ça te fait rentrer dans une groupe de piéton), tu trouve vraiment que c’est mieux ?
Le jour où les voitures autonome seront finalisées et sur le marché j’en achète une direct si j’en ai les moyens. Même si elles ne seront pas infaillibles (la perfection n’existe pas), comparé à un conducteur humain je vois pas bien comment elles pourraient être pires.
Quand je parle d’un conducteur humain je fais une moyenne qui comprends les conducteurs respectueux du code et très attentif mais aussi ceux qui conduisent en étant abruti par la fatigue, ceux qui conduisent comme des manches, ceux qui respectent pas le code, les vieux qui sont de vrai dangers publics, etc.
Le 28/06/2016 à 11h27
Comment tuer quelqu’un en voiture ? Se planter devant à plusieurs et par surprise à un endroit étudié pour : la voiture va tuer son conducteur.
Le 28/06/2016 à 11h29
Le 28/06/2016 à 18h49
C’est déjà le cas avec les voitures actuels. Tu peut te tuer avec, de mille et une façon.
Le 28/06/2016 à 19h01
Le 28/06/2016 à 20h39
je trouve l’exemple du piéton imprévu particulièrement mal choisi.
si la bagnole a pas pu anticiper le piéton et adapter sa vitesse c’est trop tard pour le piéton.
Le calculateur va au mieux tenter un évitement d’urgence.
Si avant de réagir l’algo commence à faire des projections de décès, invalidités, et/ou blessures potentielles avec comparatifs, analyse de statistiques et calculs de marge d’erreurs , ben le piéton est scotché au parechoc et l’autre bousin toujours en train d’analyser les trajectoires de projectiles potentiels pour minimiser les frais d’assurance sur les vitrines adjacentes.
Pareil pour le tramway ca n’est qu’un jeu d’esprit. il y a mille et une autres solutions que le choix manichéens proposé.
je ne crois pas une seconde à l’algo de victimes potentielles.
Le 28/06/2016 à 20h53
Le 28/06/2016 à 21h07
Le 28/06/2016 à 22h06
Le 28/06/2016 à 22h40
Pareil je serai pas contre avoir plus d’info, parce que j’en ai vu pas mal (j’adore ce genre d’émission ^^; ) et ça me dit rien en particulier … Ca n’est pas l’épisode où l’altimètre du pilote donnait un résultat faux (et différent de celui du copilote), et comme le pilote automatique était “lié” à l’altimètre du pilote, l’avion s’est rapidement crashé ? ou celui là WikipediaMaintenant il y aura toujours des accidents, et dans certains cas, ils pourront paraître “aléatoire” (capteur en rade, du coup tu te prend un arbre sans raison), et il y a de grandes chances que dans certains environements les capteurs soient “inutilisables” (neige sur la route, verglas … ), ce qui fera que le conducteur devra toujours avoir les mains sur le volant, mais déjà si on peux faire en sorte que dans 95% des utilisations on puisse l’activer … ça me changerai la vie " />
tout comme le pilote automatique a changé la vie des pilotes " />
Le 28/06/2016 à 23h04
Nilav a écrit :
Et la voiture autonome est aussi une promesse de fluidité de circulation sur les axes engorgés. Franchement, quand je vois tous ces benêts griller les feux rouges pour se retrouver au milieu d’un carrefour et bloquer totalement la circulation. Les autres qui doublent par la droite puis foncent sur la troisième voie avant de repartir à droite comme si c’était une course de slalom (je roule à Paris) je me dis franchement que l’automatisation aura du bon.
Pour ça je pense que plus simple et tout aussi efficace serait (vu que de toute façon on est en train de nous foutre de la vidéo-“protection” partout) de mettre en place des sanctions d’importance croissante quand tu répètes l’infraction dans un court délai. Première fois que tu fous le bordel, amende salée, deuxième fois, retrait de points, troisième fois, les flics viennent te retirer ta bagnole pour l’emmener à la fourrière avec immobilisation d’une semaine. Avec une semaine pour le délai de cumul (à savoir si t’es sage pendant une semaine le compteur se remet à zéro).
Ça ne pénaliserait pas outre mesure les erreurs d’inattention (il peut arriver à tous de se planter une fois de temps en temps) tout en nettoyant rapidement les villes des vrais gros cons.
Le 29/06/2016 à 06h36
Ce qui est génial avec la technologie c’est que ça permet aux gens d’avoir une éthique à géométrie variable…
D’une part il faut rappeler que le nombre annuel des victimes de la route est très inférieur à ceux des accidents domestiques et des suicides entre autres. C’est bien sûr dramatique pour les personnes concernées et leur famille mais ça l’est tout autant pour n’importe quelle victime d’accident qu’il soit de la route ou autre.
Et voila que plein de monde se déclare favorable à la peine de mort pour des gens dont le seul tort aura été d’être au mauvais endroit au mauvais moment, car oui il s’agit bien de PEINE DE MORT et de rien d’autre…
Là où certains vont hurler “aux droits de l’homme”, à “l’état de droit” et autres belles choses quand ça concerne de vrais criminels, ils vont curieusement trouver quasi normal qu’un algorithme à la con décide de sacrifier une ou plusieurs personnes innocentes en se basant uniquement sur un critère de quantité de vies en jeu…
Mais allons plus loin, un blessé grave coûte bien plus cher qu’un mort, alors pourquoi ne pas achever directement ceux que “l’algorithme magique” aura jugé trop sérieusement atteints ?
Sans compter les magouilles qui permettront à certains de payer pour avoir un véhicule qui les protégera quoi qu’il arrive, un algorithme modulé en fonction du compte en banque du propriétaire et/ou de son degré de célébrité. Sérieux, on va quand même pas sacrifier un “Zidane” quelconque pour épargner la vie de 2 ou 3 “obscurs sans grade”, faut pas déconner… " />
Je sais que beaucoup vont penser que je mélange tout et que j’exagère mais je trouve dérangeant que personne (ou pas grand monde) n’y fasse allusion…
Du coup ça permet de comprendre pourquoi des dictatures existent, quand on voit ce que les gens sont prêts à accepter, les dictateurs auraient bien tort de se priver… " />
Le 29/06/2016 à 06h52
C’est fantastique. Les IA décident déjà de qui se reproduit avec qui (sélection par affinités sur les sites de rencontre), ayant donc un le droit de “vie” sur la naissance de futurs humains. Bientôt, elles pourront également choisir qui devra mourir !
Je note qu’à aucun moment de cet étude n’est entré la considération de savoir également si le piéton était en tord. Je ne sacrifierai pas deux occupants de la voiture pour trois crétins adultes qui regardent sans traverser.
Le 29/06/2016 à 06h58
Le 29/06/2016 à 07h20
C’est pas des humains. Pas de pproblèmes on peut les buter " />
Le 29/06/2016 à 07h23
Il y a une composante essentielle : la vitesse de la voiture et la sécurité de son habitacle. Si la voiture va a moins de 50km/h normalement tout va bien. Donc il suffit de rouler lentement :P
Le 29/06/2016 à 08h35
Le 29/06/2016 à 08h39
Navré d’être brutal mais…
Le 29/06/2016 à 08h39
Le 29/06/2016 à 13h05
le souci, le plus souvent c’est que les gens se pressent dans le 1er bus, et le second est presque vide … parce que tu ne vois pas qu’il y a le suivant juste après …
Le 29/06/2016 à 13h23
Le 29/06/2016 à 14h07
Le 29/06/2016 à 14h16
En IDF aussi, mais ça n’est pas systématique … et puis tu as souvent des souci avec les temps “estimés” (j’avais un bus indiqué à 1min que j’avais vu bloqué dans un gros bouchon, j’ai donc entrepris de marcher …. apres qq 2Km de marche, une fois arrivé à ma destination, je l’ai vu me “dépasser” " />
Ca ne pousse pas à avoir “super” confiance en cet affichage …
Le 29/06/2016 à 17h14
Merci @NXI pour cet article très intéressant. C’est bien pour ce genre de titre que l’abonnement prends tout son sens.
Le 30/06/2016 à 06h40
Dans l’absolu, je suis d’accord avec toi dans les grandes lignes. Mais c’est pour un monde bisounours malheureusement.
Il suffit de voir quand quel état sont certains sièges dans les RERs, l’état des quelques voitures autolib du côté où je bosse… L’état de crasse dans lequel des connards laissent les places: déchets, chewing gum, reliquats de McDo ou autre bouffe, quand ce ne sont pas des crachats, de la pisse, de la merde (si si, j’ai déjà vu une fois dans un RER), siège dépouillé au cutter ou couteau…
Monter dans une voiture “partagé” dans laquelle les précédents occupants ont fumé comme des pompiers, rien que ça, m’est insupportable.
Cela suffit à mes yeux à justifier la possession de son/ses propres véhicules: je sais dans quoi je mets les pieds, sur quoi je m’assoie.
Le 30/06/2016 à 07h35
Certes, le respect du matériel par les usagers peut constituer un réel problème (surtout à Paris). Et il n’y a pas de solution miracle.
PS : Par ailleurs je n’ai quand même jamais vu des situations aussi extrêmes que celles que tu cites lorsque je vivais à Paris. Tu prendrais pas la ligne D par hasard ? XD
Le 30/06/2016 à 07h58
Le seul espoir pour moi, pour les incivilités, c’est clairement la verbalisation systématique … et quand ton déplacement est lié à ton compte en banque ça devrait pas être si difficile à associer … et pour moi le coup des autolib “sales/vendalisés” justement, je pensais que le fait que ça soit “associé à mon compte utilisateur”, personne n’oserait laisser des déchets & co …
Apres il y a certaines personnes pour qui “un chewing gun c’est pas grave” " />" />" />" />" />
Et il y a aussi le souci des retours de soirée trop arrosés … et là … il a des chances que les voitures automatiques “aggravent” la situation " /> " />" />" />
oooh c’est bon je peux boire comme je veux, la voiture auto me ramènera devant chez moi sans souci ! " />
Le 30/06/2016 à 11h31
Pour la défécation, c’était dans le RER A je crois. Ça fait longtemps maintenant c’est vrai. Je l’ai vu qu’une seule fois, et pourtant, je ne prends que rarement le RER (je vais très rarement dans Paris, quel que soit le mode de transport, je déteste les villes et celle-là en particulier).
L’accroissement du nettoyage, je n’y crois pas: il faudrait que chaque véhicule passe au nettoyage après chaque utilisation, au cas où. Ce n’est pas réaliste.
Changer la mentalité des gens (gros cons, comme la masse de j’menfoutistes)? Si c’était possible, je pense que ça serait déjà en place pour ces mêmes raisons et pour tout un tas d’autres.
J’essaie de faire de mon mieux, mon fils me demande souvent dans la rue “mais pourquoi le monsieur il jette son papier/chewing gum/… par terre? C’est sale!”, il a donc compris. Mais que deviendra-t-il en grandissant avec les influences externes et en voyant qu’il fait partie d’une minorité qui se casse le cul alors que d’autres pourrissent tout?…
Ouais, j’ai plutôt une vision négative des français. Et je n’ai pas l’espoir que ça s’améliore dans le futur.
Le 30/06/2016 à 13h57
Pour le nettoyage je pensais aux transports en commun de masse en fait. C’est sûr qu’une flotte de véhicules “individuels” ce serait la misère à gérer… À moins de mettre en place un traitement robotisé, mais là, paye ton investissement initial… " />
Le 30/06/2016 à 14h22
Le 30/06/2016 à 14h48
Même sur les véhicules “de masse”, c’est ingérable dans l’idéal car c’est à chaque “station” qu’il faudrait le faire afin que ceux qui montent ne subissent pas les incivilités de ceux descendants… Un peu comme dans les salles de ciné entre 2 séances… (encore un endroit où les gens se comportent comme des porcs…)
Le 01/07/2016 à 07h40
Premier accident mortel (sur une Tesla en mode auto-pilote)
A voir les causes exactes, mais on va commencer à aborder sérieusement le sujet.
Le 01/07/2016 à 08h13
Le 28/06/2016 à 10h41
Le dernier commit strip qui est bien en rapport avec le sujet " /> :
http://www.commitstrip.com/fr/2016/06/27/god-mode-on/
Le 28/06/2016 à 10h45
c’est intéressant comme débat.
Par contre je me demande combien de personnes se posent réellement la question dans une situation d’urgence. c’est plutôt une réaction instinctive qui ne suit pas un algorithme précis.
De mon point de vue je pense qu’il vaut à peu près toujours protéger le piéton. même en cas d’accident les protections dont disposent les passagers de la voiture leur laissent bien plus de chance de s’en sortir en vie.
Le 28/06/2016 à 10h54
Article très intéressant, le genre qui justifie l’abonnement " />
Le 28/06/2016 à 10h56
Très intéressant en effet.
Pour reprendre l’exemple donné ci-dessus dans l’article, il y a un facteur qui n’est pas pris en compte : la réaction du piéton.
Dans le cas où la voiture saute dans le fossé : blessés ou morts assurés;
Dans le cas où la voiture fonce dans un groupe de piéton : blessés ou morts assurés (partant du principe qu’il est plus difficile d’éviter un groupe plutôt qu’un individuel).
Par contre, dans le cas où la voiture freine au max et fait usage de ses avertisseurs, cela laisse une chance au piéton de dévier de la trajectoire de la voiture. Sans compter qu’il a de la chance ce piéton, la voiture va réagir en quelques ms quand un conducteur humain aura besoin d’au moins 1 voire 2 secondes pour réagir.
Enfin, c’est une réflexion comme ça sans aucune base scientifique.
Et quid des questions d’assurance ? Si mon véhicule fonce dans le mur ou dans le vide et que je me retrouve blessé (au mieux), tout ça pour éviter un animal sauvage ou un autre obstacle créant un faux positif au radar ?
C’est clair que ce débat est loin d’être fini " />
Le 28/06/2016 à 10h57
Le 28/06/2016 à 10h59
La “zone grise” de l’IA (si on considère le bien impossible comme étant blanc pur et le mal absolu étant noir pur et n’existant de ce fait pas), débat qui a commencé dans les années 40 et qui est encore à ce jour d’actualité (et qui l’est encore plus aujourd’hui en fait).
Il y a deux débats au minimum derrière ce sujet. Quel est notre zone grise, notre zone grise vis à vis des autres et quel est la zone grise qu’on tolère pour les autres. (premier débat)
Et le débat sur peux t’on faire confiance à une IA sur des sujets “moraux”, et l’IA sera t’elle plus morale que l’humain.
Sujet au choix vous avez deux heures " />
(sachant qu’il y a une hypothèse de base à définir sur qu’est ce que la moralité)
Le 28/06/2016 à 11h03
10 personne contre une. Sauf que le une c’est le futur prix Nobel, jeune et avec de grandes chances de survie et les 10 c’est que des vieux de plus de 85 ans en sortie sans grande chance de survie non plus. (penchez un peu sur les regles d’indemnisation des victimes d’un avion…. vous allez être dans le cynisme le plus total)
C’est des questions tellement inextricables que le plus simple va être le mieux. Je ne peux pas éviter le piéton, je le percute. Fin de l’histoire. De toute facon à 30Km/h en ville il aura juste une clavicule cassé,
Concernant le régulateur il a laissé trainé des bagnoles avec des pare-buffles qui détruisent plus bien les personnes accidentées qu’un pare-coc simple etudié pour peter les tibias, fémur et ne pas réduit en bouillie l’articulation du genoux complexe à réparer.
Le 28/06/2016 à 11h03
La bagnole sera programmée pour tuer ceux qui ont un véhicule chez un concurrent " />
Le 28/06/2016 à 11h06
On a posé la question aux gens en fonction de la couleur de peau et du sexe des piétons ou pas ?
Et si le choix c’est de se crasher ou d’écraser un chaton tout mignon en ville ou un bambi en campagne, ça compte ?
==> loin
Le 28/06/2016 à 11h07
Au final on se pose jamais la question de la réelle utilité de la voiture autonome, et si il s’agit bien d’un “progrès” pour l’Homme.
Qui ici serait prêt à confier sa vie à un ordinateur et une bardée de capteurs confrontés à toutes les conditions climatiques ?
Le 28/06/2016 à 11h09
Trolley problem
Une bonne petite lecture pour se faire mal au crane et se dire que le problème est vraiment “notre” zone grise.
Le 28/06/2016 à 11h29
Qui va entrer dans une voiture qui aurait le pouvoir de décider si la vie de ta femme ou des tes gamins est moins importantes que celles d’autres personnes ?
On pourra poser autant de questions que l’on veut, on pourra faire autant d’études, cela ne va pas plus loin que cela.
Le 28/06/2016 à 11h31
Le 28/06/2016 à 11h31
Protéger les occupants de la voiture en priorité.
Une décision est impossible à prendre, il y a trop de variables.
Le 28/06/2016 à 11h33
Sauf que la tu mélanges tout…
On ne parle pas de la sureté de la conduite, mais du droit de vie ou de mort d’un algorithme sur des personnes en fonction de critères que tu ne maitrises pas…
Le 28/06/2016 à 11h34
Le 28/06/2016 à 11h38
Autre exemple bête: un gamin caché à la vue des capteurs derrière un objet (voiture, arbre, haie, etc.) et qui déboule sur la route à 1 m de ta voiture autonome car il n’a pas fait attention… Tu crois que ta voiture magique omnipotente va savoir éviter l’accident ?
Le 28/06/2016 à 11h38
La morale machine est un peu foireuse.
J’ai fait le test en suivant une règle simple: le véhicule continue tout droit quoi qu’il arrive. Une seule exception: il peut changer de file s’il ne tue pas d’être humain (adieu chien et chat)
A la fin le test m’a dit que :
…
Tout çà pour dire que la base de test devrait être beaucoup large. Sinon on tombe dans des cas aberrant comme ci-dessus)
Le 28/06/2016 à 11h40
Dans le code de la route, on t’apprend que si un animal passe devant ton véhicule, tu freines mais tu t’amuses pas à donner un coup de volant. S’il faut le percuter, il faut le percuter. D’une, pour sauver ta vie en évitant d’aller foncer dans un platane, de deux, pour éviter d’aller sur la voie d’en face et percuter une voiture provoquant potentiellement davantage de victimes humaines.
Quand il s’agit d’un piéton, c’est plus délicat et justement, comment fait une voiture autonome pour identifier clairement qu’elle fait face à un piéton où la pertinence de prendre un risque en effectuant une embardée est plus importante que pour la petite biche aussi mignonne soit-elle. Et puis si les piétons sont un groupe de vieux clairement au crépuscule de la vie, faudra-t-il les sauver au détriment des 3 enfants sur la banquette arrière ?
Après, je me dis, une voiture autonome qui suit à la lettre le code de la route va quand même considérablement réduire les risques d’accidents. Juste pour rigoler, voici les principales causes d’accident :
une conduite sous l’emprise de l’alcool ;un excès de vitesse ;l’usage du téléphone au volant ;un obstacle fixe ;la fatigue et la somnolence ;une conduite sous l’influence de stupéfiants ;une conduite sans permis ;un non-respect des distances de sécurité.
Une voiture autonome ne picole pas, elle respecte les limites de vitesse autorisée, ne tient pas son portable dans la main, ne se fatigue pas et ne s’endort pas, ne prend pas de drogues, conduit avec le permis et respecte les distances de sécurité. Il ne reste plus que le cas de l’obstacle fixe.
Pour le cas du piéton, il faut bien se dire qu’un conducteur qui respecte les limites de vitesse autorisée et les distance de sécurité, il a déjà fait un grand pas vers le sauvetage de piétons. Je bosse près d’une école, rue limitée à 30 avec un beau panneau qui montre la vitesse aux véhicules, ils sont constamment à 50km/h. Alors que cette vitesse de 30km/h n’est pas anodine, 9 piétons sur 10 survivent contre 1 sur 2 à 50. Bref, il n’y a pas encore vraiment le sujet, quand les voitures autonomes auront envahi le marché et que 90% des accidents de la route auront déjà été évacués, le pas aura été tellement énorme que tout le monde sera content.
Note : je précise que je suis conducteur moi-même et oui, je suis d’accord, les piétons doivent aussi ne pas faire n’importe quoi.
Le 28/06/2016 à 11h43
moi je suis près à confier ma vie à un robot, tout comme je le fais déjà à chaque fois que je monte dans un avion, que j’utilise un métro automatique (Lille, Paris ligne 14)…
Et j’aurai d’autant plus plaisir à utiliser ce genre de machine lorsque je serais fatigué, ivre, malade…
Le 28/06/2016 à 11h46
La voiture détermine qui enfreint le code de la route.
La voiture étant parfaite, c’est l’autre.
Et du coup faut accélérer pour pas le louper.
Les robots et automates vaincront.
Le 28/06/2016 à 11h46
Il y a le cas du piéton suicidaire aussi. J’en parle parce que c’est arrivé récemment par chez moi : un mec s’est arrêté sur la bande d’arrêt d’urgence, est sorti et à sauté sous les roues d’un camion….
Le 28/06/2016 à 11h47
En toute honnêteté je ne peux pas nier le fait que beaucoup de gens roulent comme des pieds.
Mais là où je voulais en venir, c’est surtout sur la fiabilité de ces véhicules. Roulant beaucoup (60’000 km par an), j’ai déjà eu à changer une très grande partie des éléments électroniques de ma défunte Golf 4 (débitmètre, potentiomètre de la pédale d’accélérateur, moteur de boitier papillon, capteurs de cognement, sonde température etc…).
En cas de problème, même mineur, sur un capteur. Comment réagit la voiture? Est-ce que l’algorithme arrivera à prendre en compte absolument tous les cas de figures possibles et imaginables?
Quand on sait que Tesla a pas mal de soucis de fiabilité, on peut se poser la question.
Le 28/06/2016 à 11h48
La question du dilemme du tramway est intéressante mais assez peu appropriée au cas de la voiture autonome à mon avis.
Il ne faut pas oublier qu’un piéton n’apparait pas de nulle part. Et que dans les situations à risque on doit ralentir (enfant/mauvaise visibilité/etc). Donc d’un coté on a une voiture capable de stopper en moins de 10 m et dont les occupants ne risquent quasiment rien et de l’autre un piéton qui est grosso modo tout nu en terme de protection. Le choix de protection du piéton est donc évident en pratique.
Bref j’ai du mal à croire qu’une voiture autonome (sans latence de réaction) respectant le code de la route puisse se retrouver dans ce dilemme.
Le 28/06/2016 à 11h49
C’est presque se creuser la tête pour pas grand chose au final. Les système anti-collision (véhicule ou piéton) sont déjà très efficaces jusqu’à 45km/h. Les zones à risques (résidentielles, …) devraient simplement être limité à une vitesse adéquate (déjà le cas pour les zones résidentielles normalement).
De plus, dans la situation cité, je pense que l’écrasante majorité des conducteur finirait dans le piéton. Pourquoi vouloir changer cet état de fait? La voiture autonome pourrait déjà réduire drastiquement le nombre d’accident dû à l’alcool, la fatigue, l’inattention, le réglage de qqchose sur le tableau de bord, etc…
Pourquoi se braquer parce qu’1% des situations mortelles aujourd’hui ne pourraient être évité alors que les 99% restantes le seraient?
Le 28/06/2016 à 11h49
Très intéressantes question, et très bon article :)
Le 28/06/2016 à 11h52
Le sujet est vraiment super pour alimenter les discussions à table ou au café avec des collègues…
Mais, personne n’a même essayé d’analyser de vrais cas d’accidents où le conducteur aurait pu se mettre en danger pour sauver des personnes qui n’étaient pas dans la voiture.
Pour moi, dans de nombreux cas, il n’y a même pas de raison que ça arrive, prenons un bout de phrase dans la conclusion :
- les piétons qui respectent la signalisationJe ne vois même pas comment une voiture autonome peut arriver à une telle situation (d’ailleurs, dans ma conduite non plus), si un piéton respecte la signalisation et que le véhicule la respecte aussi, comment pourrait-il se passer quelque chose ?
Ensuite, l’exemple du piéton qui déboule sous tes roues…
Si le piéton est en train de courir et que tu n’as pas la distance pour freiner, il y peu de chance que tu l’évites en faisant un écart qui te jette dans un précipice. Avec la largeur standard des routes, on a la voie d’en face ou un peu de place, et l’évitement n’est pas plus performant que le freinage, on peut éventuellement tuer le piéton et finir dans le précipice.
Si je me souviens bien, le code de la route (ou du moins les manuels de formation quand j’ai passé le permis) indique (oui, on ne force pas) que la meilleure méthode pour réagir est souvent de freiner, parce qu’en faisant un écart, on peut causer plus de dégâts que l’accident réduit par un freinage.
Et enfin, face à une logique algorithmique qui prend des décisions de manière connue :
Je me place sur une route sur le bord d’un précipice, je sais que les voitures emportant une personne (ou zéro après tout) vont m’éviter si je me jette sous leur roues en se jetant dans le précipice, combien de voitures puis-je envoyer dans le dit précipice avant de mourir (le cas de la voiture qui se jette dans le vide et me percute quand même) ou que la police m’arrête ? Je peux aussi le faire en ne me mettant pas en danger avec une famille gonflable façon airbag, non ? Si l’on prend ce que l’on a pu vivre comme exploitation de mécanismes dans les jeux vidéos, je pense qu’il faut vraiment faire attention à ce que l’on implémente dans la vraie vie.
Et d’ailleurs, il y a quoi dans ce précipice ? Si je suis dans une route en lacets en ville, est-ce qu’en dessous ce n’est pas une habitation, des bureaux, une école primaire ? On prendrait la décision d’aller dans le vide sans savoir ce qu’il y a en dessous ?
Et si ceux qui se suicident sous les métros (à entendre les annonces ratp et sncf, il y en a un certain nombre par an) voulaient le faire sous des voitures autonomes, combien d’occupants de voiture tueraient-ils avant de réussir ?
Quand le calcul au final est que passer à des voitures autonomes fiables qui choisiraient de préserver les passagers à tout prix, ce qui ne limiteraient pas leurs ventes, sauverait plus de gens que de mettre des règles de calcul assez imparfaites (tu es sûr d’éviter le piéton? il n’y a personne dans le précipice?), eh bah on pourrait juste arrêter de faire des suppositions où l’on a pas fait de statistiques pour évaluer le nombre de situations par an où ça pourrait arriver.
Le 28/06/2016 à 11h53
C’est ce que j’ai appris lors de mes heures de conduite. Adapter son allure selon la situation. Et exemple concret, lorsque des voitures sont garées en créneaux et qu’on ne peut pas facilement distinguer les personnes pas assez grandes (typiquement les mômes) entre lesdites voitures.
Les voitures devront gérer ces situations, c’est un pré-requis.
Reste le cas des gens qui se jettent sous les roues.
Si dans les situations à risque la voiture prend son temps, et bien pas de problème. De toute façon, en étant décharger de la conduite du véhicule, pas de raison de se presser. Pas besoin de prendre le moindre risque.
Le 28/06/2016 à 11h54
Le 28/06/2016 à 11h57
Même conclusion sur cet outil: j’ai fait le test avec 2-3 règles simples (pas d’intervention si résultats similaires, favoriser les humains et ceux qui sont dans leur droit) et il apparaît que je favorise les vieux, les gros et les truands. Leur analyse est vraiment biaisée avec si peux de cas…
Le 28/06/2016 à 12h01
Ce qui m’étonne avec ce débat et ce sondage, c’est que les questions sont vraiment des cas désespérés, or, au quotidien, la voiture aura des réactions tout a fait gérable qui entraînera au pire quelques blessures. J’ai peur que les gens confondent les cas désespérés avec des cas quotidiens et jugent les voitures en remplaçant les seconds par les premiers.
Le 28/06/2016 à 12h02
je vois plusieurs problèmes.
Le premier déjà c’est que ce sera très probablement des voitures électriques.
Déjà pour le coup et pour le moment, c’est très loin d’être un cadeau (même pour des urbains).
Deuxième point, si on part du principe que toutes les voitures autonomes auront le même comportement, pourquoi pas.
Mais je doute que les constructeurs qui se sont ou vont se lancer dans la bataille vont partager leurs codes.
A partir de la, on va retomber dans le problème actuel CAD : la plupart du temps en voiture, c’est de savoir comment les autres vont réagirs plutôt que sois même et avec quel degré de réactivité (priorités dans le code).
Bref, AMHA on vend du rêve pour un buiseness qui tend le bout de son nez. Mais au final le client reste un CONsomateur, rien de plus… Et puis bon, je n’ai pas spécialement envie d’être déplacé comme un petit vieux et ne plus être à même d’aller ou je veux comme je veux… Si je veux rouler a travers champs (exemple extrême).
Le 28/06/2016 à 12h04
Encore faudrait-il que la voiture détecte le piéton.. " />
Le 28/06/2016 à 12h06
Le 28/06/2016 à 12h07
Le 28/06/2016 à 12h09
Mais que se passe-t-il lorsque la voiture est soumise à un « dilemme social » et qu’il faut choisir entre des options qui ont toutes des conséquences funestes pour une ou plusieurs personnes ?
bah, facile.
/random
Le 28/06/2016 à 12h14
Lorsqu’on leur demande de noter sur une échelle allant de 0 (protéger le conducteur à tout prix) à 100 (minimiser le nombre de victimes), le résultat est du même acabit avec une médiane à 85 %. En théorie, le bien du groupe l’emporte donc sur l’individu, du moins pour une large majorité des personnes.
j’aurais voté 0 (ou 5 disons)
en partant du principe que ces connards de pietons ont surement traversé au rouge pour eux, donc méritent de crever (oui je vis à Paris pourquoi? " /> )
Le 28/06/2016 à 12h16
Le 28/06/2016 à 12h17
Le 28/06/2016 à 12h17
Le 28/06/2016 à 12h18
Toi au volant tu le défoncera à 50km/h sans pouvoir bouger de ta voie.
La voiture elle, peut anticiper qu’il y a un risque vu qu’il y a un obstacle qui masque ses capteurs, detectera l’enfant très largement plus rapidement que toi, a une connaissance parfaite des autre véhicules à 360° et pourra freiner/esquiver/ proteger le piéton, de manière à limiter le risque.
un humain, voyant le piéton, pourrait piler, faire un coup de volant … pouvant tuer non seulement le piéton, mais en plus entraîner un sur-accident (autre véhicules, tonneaux …).
Perso, que ça soit en tant que “conducteur”, passager, piéton, cycliste … j’attend avec une grande impatience l’arrivée des véhicules automatiques …
Quand à l’idée que la voiture automatique ira “compter”, estimer l’age, aller voir le profil facebook ou le dossier médical des piétons pour détecter si elle doit tuer le conducteur ou juste “accélérer”, parce que le conducteur vaut plus que les piétons ….
C’est une idée d’étude “fun”, mais très sérieusement, un véhicule automatique confronté à un “échec” d’esquivement, va : freiner mieux qu’un conducteur, de manière plus sécurisée (il maintiendra sa voie), et préparera piéton/passagers au choc du mieux qu’il pourra … et il y aura un accident …
juste qu’il y aura 1000 fois moins d’accidents " />
Perso, si il y a une chose qui me ferait “douter” d’acheter une voiture auto, ça serait une détection médiocre (un peu comme la version actuelle chez Telsla) et les craintes sur les pannes de capteurs …
L’idée qu’une fois par an sur le monde, on aura un cas où la voiture pourrait ne pas avoir d’autre choix que d’avoir un accident ? Ca ne me fait ni chaud ni froid " />
Le 28/06/2016 à 12h18
Le 28/06/2016 à 12h20
Question relativement absurde dans la mesure où la mort du pilote n’est qu’une possibilité avec très peu de chance d’arriver.
Pour éviter un piéton ou une foule, la voiture va peut-être envisager un changement de trajectoire, mais d’une part ce sera en freinant au maximum, et d’autre part cette trajectoire occasionnera au pire une collision.
Après collision, c’est à la ceinture de sécurité et à l’airbag de faire leur boulot. On pourrait même imaginer des actions d’anticipation (pré-bloquer la ceinture par ex) si la voiture a prévu un choc.
Le 28/06/2016 à 13h29
Le 28/06/2016 à 13h30
Le 28/06/2016 à 13h32
Merci pour le lien " />
il n’est pas non plus impossible que les voitures automatiques ne prenant en général pas l’autoroute, les critères “accident par mile” soit un critères peu représentatif …
Comme le dit l’article, il faudrait avoir plus de kilomètre pour que les chiffres soient plus représentatifs …
Le 28/06/2016 à 13h36
A voir la video, une voiture dépasse la voiture Google, elle a son indic, elle avance de qq cm, voir que le bus ne la laissera pas passer et s’arrête (on voit d’ailleurs que l’accrochage était à faible vitesse).
Apres elle a été agressive pour se caler de manière plus fluide dans le trafic, et a du coup pris un risque, ce qui d’un certain sens est ce qu’on est en droit d’attendre d’une voiture automatique.
Le 28/06/2016 à 13h38
J’avais vu passé l’info sans avoir le détail des résultats. Merci Next Inpact.
Sinon, il y a aussi la possibilité de respecter le code de la route. C’est à dire : freiner aussi fort que possible sans faire de changement de trajectoire. Statistiquement, c’est ce qui provoquera le moins de dégâts d’un point de vue générale. (Parce que l’IA, elle ne sait pas, par exemple, qu’il y avait une crèche avec 50 enfants en bas du précipice).
Le 28/06/2016 à 13h40
Je mélange rien du tout, je ne répondais pas à l’article mais au post de Melcerin qui, lui, parlais de la sûreté de la conduite (à moins que j’ai mal compris son post).
Mais au final, qu’est-ce que ça change que ce soit un algo qui décide ou un humain qui prenne une décision au pif. Dans le cas décrit dans l’article, une voiture autonome prendra la décision que lui dicte l’algo en prenant en compte tous les paramètres (nombre de piéton, nombre d’occupant dans le véhicule, chance de survie des occupant à la chute dans le précipice, etc) là ou un conducteur humain prendra une décision “au pif” dicté par ses réflexes, sans réfléchir une seconde car il n’en aura pas le temps.
Prenons le même exemple que dans l’article mais avec un car bourré de gosse. Un conducteur humain réagira dans l’urgence et dans certain cas se foutra en l’air dans le ravin ou se mangera un véhicule arrivant en face et tuera je ne sais combien de gosse pour éviter deux piétions. L’algo écrasera les deux piétons pour éviter un carnage au occupant du bus. Personnellement ça me convient très bien que la logique prime dans ce genre de cas. T’es seul dans la voiture et un groupe de 10 piétons s’engage subitement sur la route (cas pas crédible mais juste pour l’exemple), la logique te dicte de te manger un mur plutôt que renverser 10 piétons. Idem si t’es 4 ou 5 dans la voiture. Si on reprend mon exemple du bus, il y a certain cas au contraire où la logique te dicte d’écraser les piétons plutôt que de te manger un mur avec le bus et risquer la mort de la moitié des occupants du bus.
Le 28/06/2016 à 13h43
Le 28/06/2016 à 13h44
Tout à fait. La qualité et la fiabilité pourraient être améliorés, mais à quel prix aussi…
Le 28/06/2016 à 13h45
Le 28/06/2016 à 13h49
Le 28/06/2016 à 13h54
C’est précisément à cause de ces dilemnes sociaux que je refuse catégoriquement l’arrivée des voitures autonomes. Parce que aucun de ces pseudo-algorithmes ne saura jamais réellement prendre en compte l’intégralité des facteurs.
Le 28/06/2016 à 13h59
Le 28/06/2016 à 14h01
Le 28/06/2016 à 14h07
Le 28/06/2016 à 14h07
(Désolé je réagis après coup, je rattrape moi-même les commentaires).
Bah tu vois, tu as trouvé toi-même la solution. Tu sélectionnes un bon conducteur, ou tu le deviens toi-même.
Quant à être 100% concentré durant un trajet, c’est parfaitement possible. Simplement, comme c’est effectivement épuisant, la plupart des conducteurs ont tendance à “baisser le régime” plus ou moins fort en fonction de la prévisibilité de la situation (il sera plus naturel de se relâcher sur autoroute, en pleine journée par beau temps, avec peu de voitures, que de nuit ou par temps de pluie par exemple).
Mais l’apprentissage de la conduite fait que précisément, le bon conducteur peut réduire les risques de situation ingérable à un pourcentage réellement infime. Après, restent effectivement les autres conducteurs, mais honnêtement, les vrais fous dangereux sont assez rares pour pouvoir être gérés. ;)
Le 28/06/2016 à 14h12
Le 28/06/2016 à 14h15
random() ?
Le 28/06/2016 à 14h18
Je vois pas trop pourquoi on se prend la tête sur un choix qui n’est pas possible humainement, vous croyez que la machine va le faire?
Alors oui ok la question c’est “comment la developper” : on la développe pas.
(et la ca fait un blue screen “exception failed” " /> )
Blague à part je suis pour le respect de la vie du passager avant le reste. C’est pas moral, c’est logique (ma logique en tout cas). A voté.
Je pars du principe que le choix humain n’en sera pas un (de toutes facon y a des dommages) donc pourquoi on reprocherait à la machine et aux humains l’ayant programmée ce que de base le conducteur n’aurait pas fait
y aura jamais 0 accidents, c’est pas trop le soucis; le débat porte sur des choix moraux qui n’ont pas lieu d’être (ou alors bon sang, réglez avant les centaines de mort à cause des facteurs humains, je m’intéresserais aux problèmes potentiellement causés par des facteurs IA après ca)
Le 28/06/2016 à 14h19
Si l’étude en question est celle que j’ai trouvé : ici, ils ont l’air de dire le contraire, en prenant en compte le nombre d’accidents non reportés et d’autres facteurs… c’est assez intéressant en tout cas ;)
Le 28/06/2016 à 14h20
Le 28/06/2016 à 14h24
Le 28/06/2016 à 14h30
Le 28/06/2016 à 14h36
Moi je dirais improbable.
Je n’ai pas vraiment pense aux cas possibles mais je ne vois pas pourquoi il ne serait pas realiste qu’un vehicule autonome se retrouve dans une telle situation.
SI tu as des infos qui rendent cette question irrealiste je suis preneur. " />
Le 28/06/2016 à 14h59
Le 28/06/2016 à 15h06
La première raison serait qu’on considère de base que le véhicule “découvre” cette situation trop tard pour pouvoir freiner, et que seuls les 2 cas sont possible …
De base si tu as une voiture qui va trop vite pour pouvoir réagir à une situation, c’est qu’il faut revoir la limitation de vitesse de la zone " />
Le 28/06/2016 à 15h07
Le 28/06/2016 à 15h08
Oui, en voiture autonome
je suis pour le principe de la voiture autonome, car c’est le facteur humain qui pose problème dans la quasi totalité des accidents
Après je serais pas ravi de confier ma vie à ma voiture mais sachant que j’ai eu deux (mini) accidents en 2 ans, genre un peu de tole froissé et un phare éclaté, de ma faute en plus (manque d’attention/ fatigue dans les deux cas), n’ayant pas l’habitude de conduire et surtout pas dans la jungle IDF ca serait une bénédiction pour moi en fait " />
Le 28/06/2016 à 15h12
Ça soulève pas mal de questions ce truc et c’est un peu simpliste.
Si t’as un mec qui veut se suicider et qui se jette sur ta voiture paf, tu fonces dans le mur ou dans le fossé alors que toi t’avais pas forcément envie de mourir… " />
Le 28/06/2016 à 15h15
Mieux : tu dis à ta bagnole de se satelliser à 1km/h autour de l’adresse où tu es. Vu qu’elle sera électrique, ça ne coûtera pas un rond.
Le 28/06/2016 à 15h21
Le 28/06/2016 à 15h29
{HS} 610€/an ? C’est donné crois-moi. Je paie 4x plus ici (au Québec), dont 50% pour le chauffage.
Prix moyen du KWh 11.5¢ CAD TTC ~8¢€
{/HS}
Je pense qu’il faudra une loi qui interdit la circulation sans passager de véhicules privés vides (sauf destinés au transport de personnes). Ça aurait l’avantage d’interdire les véhicules de livraison et donc de conserver des emplois…
Le 28/06/2016 à 15h35
Le 28/06/2016 à 15h41
Tu peux aussi lire ce que dis la loi Badinter sur la responsabilité des conducteurs vis-à-vis des piétons. C’est de la simple logique qu’en cas d’accident entre deux tonnes de métal et un être biologique d’environs 75 kilos, la faut incombe toujours au propriétaire du véhicule (dans 99% des cas).
Le 28/06/2016 à 15h53
Le 28/06/2016 à 15h59
Quand il n’y a plus de place pour se garer, honnêtement, je ne sais pas ce qu’il y a de pire entre tourner en rond comme un con pour trouver une place ou laisser tranquillement ta voiture rentrer chez elle pour la rappeler. Et ça ouvre des opportunités, tu pourrais imaginer des parkings géants à une relative proximité où ta voiture pourrait aller sans que toi, tu ais à te taper le trajet à pied dans les deux sens (elle te dépose, elle te reprend quand tu lui demandes). Même pas besoin de trouver à quelle place elle est. D’ailleurs, aux abords de Paris, je tombe bien souvent sur des parkings avec de très nombreuses places vides mais les gens n’ont pas envie de se faire chier à marcher, prendre un velib ou aller à leur destination en métro. La voiture autonome réglerai ce problème.
Et la voiture autonome est aussi une promesse de fluidité de circulation sur les axes engorgés. Franchement, quand je vois tous ces benêts griller les feux rouges pour se retrouver au milieu d’un carrefour et bloquer totalement la circulation. Les autres qui doublent par la droite puis foncent sur la troisième voie avant de repartir à droite comme si c’était une course de slalom (je roule à Paris) je me dis franchement que l’automatisation aura du bon.
Sans parler du fait qu’elle serait aussi intelligente sur un point, c’est la gestion du trafic. Elle pourrait facilement opter pour la voie la plus rapide (donc la moins embouteillée) et ainsi niveler la fluidité générale du trafic. Nos GPS sur smartphone le font déjà très bien.
Après, je ne dis pas que la voiture est le remède à tous les maux et il y a encore pas mal de chemin à faire pour concrétiser tout ça. Mais je trouve les opportunités offertes intéressantes.
Le 28/06/2016 à 16h01
Non, pas celle-ci, puisque conduite par l’université du Michigan. Celle que tu cites est conduite par un institut de Virginie, et financée par Google (et ne s’intéresse qu’à la google car). Elle donne des chiffres corrigés à partir d’un taux très important d’accidents non déclarés (ce qui est possible, je ne connais pas les pratiques aux USA à ce niveau). J’avoue que je n’ai pas le temps de creuser plus, mais je ne comprends pas ce qu’est le « age-adjusted ». Je ne sais pas non plus si les interventions humaines qui ont permis d’éviter des accidents (càd quand le conducteur a repris le volant car la machine déconnait) ont été prises en compte dans l’évaluation.
À noter, à l’inverse, que les auteurs de l’étude que j’ai citée (Brandon Shoettle et Michael Sivak) sont vraisemblablement plutôt opposés à la voiture autonome, si on regarde les différents sujet de leurs études, ce qui introduit vraisemblablement là-aussi un biais dans le traitement des données.
Le 28/06/2016 à 16h03
Le 28/06/2016 à 16h05
" /> " />
J’adore le bouton “Play Again” à la fin du test moral machine.
Le résultat montre bien à quel point ma morale diffère des autres, c’est intéressant (par exemple je suis bien plus hors-la-loi que la moyenne).
Le 28/06/2016 à 16h07
Le 28/06/2016 à 16h11
Le 28/06/2016 à 16h31
Dans le cas du choix piéton versus groupe de piétons versus falaise : je choisi le piéton.
Si la voiture ne l’a pas détecté à temps, on peut imaginer qu’un humain non plus.
1/ Pourquoi j’irai me foutre dans le ravin (mort) ou tuer d’autres piétons (morts) 2.
2/ Choisir la falaise ne signifie pas que tuer le conducteur mais aussi les potentiels passagers…
3/ …mais aussi les éventuelles personnes en train de bronzer sur la plage en contrebas, de faire une randonnée ou d’escalader la falaise…
Quant au test Moral Machine, je me suis arrêter à la première question sans même réponse : la situation est stupide : si la voiture autonome n’a pas détecté l’obstacle de loin c’est que la voiture n’est pas du tout autonome…
Le 28/06/2016 à 17h02
Le 28/06/2016 à 17h06
De toutes façons c’est complètement ridicule ce truc…
Donc t’es dans ta bagnole avec ta femme et tes deux enfants (4 personnes) et tu acceptes qu’une machine sacrifie tout ça parce que 5 ou 6 piétons traversent sous ton nez sans faire gaffe parce que ils sont en train de “liker” sur FB avec un casque audio qui leur défonce les trompes d’eustache ? (on voit ça presque tous les jours). " />
Et comme tu le dis si le véhicule n’est pas capable d’anticiper c’est qu’il est aussi autonome que moi je suis pape…
Faut pas oublier que tout ça sera programmé par des humains et donc ça ne sera pas infaillible, sans même parler de” hackers” si le véhicule est connecté…
C’est vraiment du grand n’importe quoi !!
Le 28/06/2016 à 17h31
Le 28/06/2016 à 17h37
Le 28/06/2016 à 17h41
Le 28/06/2016 à 18h25
Le 28/06/2016 à 18h44
Personnellement, si je devais acheter ce genre de voiture pour y promener ma famille, je voudrais à tout prix qu’elle privilégie ma vie et celle de mes enfants, à celle des piétons, aussi nombreux soit-ils. C’est égoïste mais c’est humain. On pense d’abord à soit et à ses proches avant de penser aux autres.