Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie
Il ne suffit pas d'un gus dans son garage
Le 22 décembre 2015 à 13h20
7 min
Sciences et espace
Sciences
Dans une interview publiée hier par Fortune, Elon Musk, PDG de Tesla, a indiqué être en mesure de pouvoir proposer un véhicule totalement autonome dans deux ans. On y apprend également que le hacker GeoHot avait tenté de postuler dans l’entreprise. Parallèlement, la Californie réfléchit à une législation pour interdire ce type de véhicule.
« Je pense que nous avons toutes les pièces, il ne manque plus qu’à les peaufiner, les mettre en place, et faire en sorte qu’elles fonctionnent à travers un nombre immense d’environnements, et alors nous aurons fini ». C’est ainsi qu’Elon Musk, patron de Tesla, a résumé la situation au sujet de la construction d’une voiture totalement autonome. Le PDG estime en effet que le véhicule sera prêt dans deux ans.
Quand GeoHot tente de vendre une meilleure idée
Elon Musk réagissait en partie à l’annonce par Georges Hotz, alias GeoHot, d’une voiture autonome. Il avait donné quelques détails à Bloomberg dans une interview datée du 16 décembre : un modèle 2016 Acura ILX, un système de repérage laser, un joystick, un écran de 21,5 pouces pour surveiller que tout se passe bien et un système de pilotage contenant… 2 000 lignes de code.
Une réalisation qui n’a clairement pas impressionné Elon Musk : « C’est un problème beaucoup plus simple que la plupart des gens s’imaginent. Mais ce n’est pas, comme l’indique Georges Hotz, un problème ne nécessitant qu’un seul gars et trois mois de travail. Il s’agit plutôt, vous savez, de milliers de personnes pendant deux ans ».
« Un monde de différences »
La différence s’explique selon lui d’une manière très simple : « Un logiciel de démonstration c’est facile, un logiciel de production c’est difficile. C’est facile de faire une démo cool, c’est difficile d’en faire quelque chose. Surtout les logiciels qui vont devoir fonctionner sur des millions de routes différentes à travers la planète dans une grande variété de circonstances – en hiver, en été, sous la pluie, dans la poussière – il y a un monde de différences entre les deux ».
Cela revient finalement à marquer l'écart entre un test dans un garage (ce qui est littéralement le cas ici) et un logiciel taillé pour la production de masse et la prise en charge d’à peu près toutes les variables, capable d’ailleurs d’apprendre en continu et donc de s’enrichir avec le temps. « Georges est un hacker extraordinaire, mais vous ne faites pas du logiciel de production en hackant. Un hack ne fonctionne pas, un hack plante ».
Georges Hotz a en fait eu un entretien d’embauche chez Tesla et a rencontré Elon Musk à cette occasion. Selon le PDG, GeoHot est arrivé en expliquant qu’il avait une solution meilleure que celle développée par l’entreprise, demandant ensuite combien pouvait valoir ce talent. Ce à quoi Musk aurait répondu que l’idée, si elle était réelle, vaudrait sans doute des millions de dollars, mais qu’il estimait qu’elle ne l’était pas.
Automatisation : une échelle de mesure en cinq niveaux
La grande majorité des constructeurs s’avancent vers l’automatisation complète à petit pas, progressant pallier par pallier dans une échelle d’autonomie comportant cinq niveaux. Le premier niveau (0) représente un véhicule standard, dans lequel le conducteur contrôle l’ensemble des fonctions primaires. Le niveau 4 indique pour sa part un véhicule totalement autonome, qu’il embarque ou non des personnes. Dans beaucoup de cas, les véhicules récents et/ou haut de gamme sont de niveau 1 ou 2, en fonction des attributs primaires pris en charge. Au niveau 2 par exemple, il faut au minimum deux contrôles gérés, comme la régulation de vitesse, la remise en place automatique du véhicule au centre d’une voie, ou encore le créneau automatisé.
Ce que prépare Tesla est donc un véhicule de niveau 4, avec une concurrence frontale avec Google, qui travaille sur ce même genre de produit. Elon Musk indique cependant que présenter le véhicule ne sera pas suffisant, car en fonction des marchés, il faudra à chaque fois entre un et cinq ans de tests et de procédures diverses pour attester de la fiabilité du véhicule. L’arrivée effective sur le marché ne commencerait donc pas avant fin 2018 au plus tôt. On reste donc assez proche finalement des objectifs de Google, qui sont de lancer un tel produit en 2020.
En attendant, une première version du service « autopilot » de Tesla est arrivée en mise à jour dans certains véhicules il y a deux mois environ. Il ne s’agit pas encore bien sûr d’une automatisation complète, mais elle permet tout de même l’aide pour se garer, le maintien et le changement de voie sur les autoroutes et un système amélioré pour éviter les collisions latérales.
La Californie veut durcir sa législation pour encadrer les véhicules autonomes
Parallèlement, la législation jouera un rôle prépondérant dans ce marché. Or, le 16 décembre, le Department of Motor Vehicles de Californie a publié la première ébauche d’un projet de loi durcissant les règles dans ce domaine. L’État interdirait ainsi tout véhicule autonome ne possédant pas au minimum un volant et une pédale de freinage. L’idée est bien entendu de permettre au conducteur d’avoir toujours la main en cas de problème. En outre, la présence d’un conducteur avec permis valide serait justement obligatoire.
Des mesures qui ont « profondément déçu » Google, qui travaille évidemment sur une flotte de véhicules totalement automatisés. Le géant de la recherche envisage tout autant des voitures classiques que des modèles sans contrôle et que l’on pourrait par exemple envoyer récupérer un colis ou une personne sans permis. Pour les autres constructeurs, il y a « le temps », dans la mesure où la plupart avancent progressivement dans l’échelle de l’autonomie. Du côté de Tesla, on indique également que le projet de loi est en cours d’examen et que l’entreprise travaillera avec les autorités pour que l’innovation puisse se poursuivre. Une manière polie d’indiquer cependant que rien n’est gagné.
Si la Californie durcit le ton, c’est que de nombreuses entreprises du domaine high-tech y sont présentes, notamment Google. L’État semble donc vouloir prendre les devants, notamment sur la chaine des responsabilités. L’un des points forts du projet de loi est ainsi de rendre responsable, en cas de violation manifeste du code de la route, le conducteur du véhicule autonome. D’où bien sûr l’obligation pour ce dernier de posséder un volant et une pédale de freinage.
Le risque de la tâche d'huile
Parmi les autres points envisagés, une certification de sûreté par un tiers, des permis pour les constructeurs limités à trois ans et à renouveler systématiquement et la remontée de statistiques précises tous les mois, y compris sur les accidents impliquant de tels véhicules (ce que Google fait déjà). Enfin, une voiture autonome devra être capable d’indiquer si elle a été la cible d’une cyberattaque. On imagine que Google, Tesla et d'autres craignent que ce projet de loi, en plus de devenir effectif, puisse faire tâche d'huile et inspirer d'autres États et pays. Ford par exemple est attendu au tournant du CES de l'année prochaine pour une annonce de partenariat avec Google. Les premiers véhicules pourraient même arriver fin 2016 ou courant 2017?
Considérant la complexité et le nombre important de données et variables à prendre en compte, il n’est donc pas étonnant de voir Elon Musk investir dans OpenAI, à la recherche de percées dans le domaine de l’intelligence artificielle. Rappelons qu'en France, les expérimentations de voitures autonomes sur les routes devraient être bientôt autorisées. À la Rochelle, des bus autonomes sont par ailleurs en test depuis la semaine dernière.
Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie
-
Quand GeoHot tente de vendre une meilleure idée
-
« Un monde de différences »
-
Automatisation : une échelle de mesure en cinq niveaux
-
La Californie veut durcir sa législation pour encadrer les véhicules autonomes
-
Le risque de la tâche d'huile
Commentaires (227)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 22/12/2015 à 13h40
“Ce à quoi Musk aurait répondu que l’idée, si elle était réelle, vaudrait sans doute des millions de dollars, mais qu’il estimait qu’elle ne l’était pas.”
En gros, je ne crois pas en toi mais je t’engage!
edit: mal lu, il a été rejeté. " />
Le 22/12/2015 à 13h48
La législation va durcir en Californie pour les véhicules autonomes, limitation de vitesse, obligation qu’a la place du conducteur on trouve une personne disposant du permis de conduire.
Toute ces limitations me font penser au début des inquiétudes dans les rams automatiques du métro, ou encore dans l’aviation ou les pilotes refusaient de décoller sans un technicien de vol sur l’appareil.
Le 22/12/2015 à 13h50
“Selon le PDG, GeoHot est arrivé en expliquant qu’il avait une solution meilleure que celle développée par l’entreprise, demandant ensuite combien pouvait valoir ce talent”
Pour moi, c’est un gosse super doué qui a pris la grosse tête et ne sait que travailler seul.
Ca me rappelle une phrase assez cliché et qui m’insupporte que je lis où je travaille: “seul, on va vite, ensemble, on va loin”.
Le 22/12/2015 à 13h54
Sait-on ce qui a provoqué ce revirement de la part de la Californie sur la législation en matière de véhicule autonome ?
Le 22/12/2015 à 13h56
Le 22/12/2015 à 13h57
Le 22/12/2015 à 13h58
Le 22/12/2015 à 13h59
Le 22/12/2015 à 14h01
Le 22/12/2015 à 14h04
je pense que c’est le problème de la responsabilité en cas d’accident
Le 22/12/2015 à 14h06
Le 22/12/2015 à 14h06
Le 22/12/2015 à 14h10
Le 22/12/2015 à 15h23
Le 22/12/2015 à 15h24
Le niveau 4 indique pour sa part un véhicule totalement autonome : C’est la fonction qui m’intéresse pour me passer du problème de chercher une place de parking pendant des plombs.
Le 22/12/2015 à 15h24
Le 22/12/2015 à 15h26
Le 22/12/2015 à 15h27
Le 22/12/2015 à 15h27
Le lobby auto-école n’approuve pas les voitures autonomes " />.
Le 22/12/2015 à 15h28
Le 22/12/2015 à 15h30
Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.
Le 22/12/2015 à 15h31
Le 22/12/2015 à 15h31
Le 22/12/2015 à 15h32
Le 22/12/2015 à 15h33
Le 22/12/2015 à 15h33
Le 22/12/2015 à 15h34
Le 22/12/2015 à 15h35
toi oui, mais l’algorisme ? " />
Le 22/12/2015 à 15h36
Le 23/12/2015 à 08h42
Le 23/12/2015 à 09h03
Le 23/12/2015 à 09h07
Le 23/12/2015 à 09h21
#boutade
Le 23/12/2015 à 09h34
Une nouvelle technologie arrive, et tout le monde a peur. Jusque là, rien de nouveau sous le soleil. Certains par contre prétendent qu’un nouvelle solution doit régler tous les problèmes. La voiture autonome n’a pas la possibilité de réduire le nombre de morts sur les route de Californie à zéro.
Par contre, si statistiquement, le nombre de tués sur la route diminue de manière significative avec des voitures autonomes (ce qui est fort vraisemblable), la mise en œuvre de cette technologie apporte un gain significatif. Par contre, l’individu ou ses proches qui ont été victime d’un accident vont vouloir demander des comptes à quelqu’un. Ils n’auront que faire de l’avantage du gain statistique.
C’est le même problème qui est posé par les vaccins. Statistiquement, c’est positif, individuellement, c’est insupportable pour celui qui aura été victime d’un accident de vaccination.
Je ne crois pas qu’il faille parler de durcissement de la réglementation, mais de la recherche d’un solution de recours en cas d’accident. Il ne sera pas possible de dire que les litiges consécutifs aux accidents de la route avec des voitures autonomes pourront se résoudre par “c’est la faut à pas de chance”.
Le 23/12/2015 à 09h53
+1
Le 23/12/2015 à 10h18
Le 23/12/2015 à 10h25
Le 23/12/2015 à 10h31
Le 23/12/2015 à 10h32
Le 23/12/2015 à 11h43
Le 23/12/2015 à 13h50
Ce genre de cas est moins fréquent (catastrophe aérienne) que le rattrapage in extrémiste de l’avion grâce au sang froid/expérience du pilote. Les catastrophes aériennes étant plus “médiatiques” que les petits incidents au quotidien, ceci expliquant cela.
Un pilote n’est pas infaillible mais essaie de faire poser un avion à Madère, par gros vent, à un pilote auto .. .qu’on rigole 5 minutes.
Véhicule autonome à 100%, quand y a un rail en dessous passe encore … maintenant avion ou voiture, faut revoir la copie. L’obligation de pouvoir reprendre la main est une bonne chose à mon sens.
Le 23/12/2015 à 13h56
Le 23/12/2015 à 14h02
Le 23/12/2015 à 14h10
Si le pilotage automatique existe, même très imparfait, et qu’il économise un bon pourcentage de tués/blessés/accidents (pourcentage acceptable qui reste à déterminer), devra-t-on s’accommoder des erreurs en ne se basant que sur les statistiques ?
Ce sera dommage pour le gars qui se verra foncer sur un platane délibérément par temps clair sans raison suite à un bogue, OK cas extrême on peut en prendre d’autres, qu’importe, mais ce sera acceptable si d’un autre côté plein de vies auront par ailleurs été épargnées…
Le 23/12/2015 à 14h13
Le 22/12/2015 à 15h47
Non. Je me place dans l’hypothèse où écraser quelqu’un est inévitable (quelque soit la raison).
Le 22/12/2015 à 15h47
Ils veulent garder le contrôle parce qu’ils craignent d’être dépassés.
Voilà tout.
“La police me dit que tu conduisais manuellement ??” (I, Robot.)
Le 22/12/2015 à 15h47
Le 22/12/2015 à 15h52
Le 22/12/2015 à 15h52
Le 22/12/2015 à 15h52
Le 22/12/2015 à 15h52
http://www.01net.com/actualites/on-a-teste-la-meilleure-voiture-autonome-francaise-920569.html ???
Le 22/12/2015 à 15h52
Prendre comme exemple un piratage d’une voiture qui n’a rien d’automatique, où le conducteur perd tout controle du véhicule (plus de volant, de frein, plus rien !), pour justifier que les voitures automatiques devront avoir un conducteur, est sans doute l’idée la plus WTF de l’histoire " />
Le 22/12/2015 à 15h53
Sinon j’espère que ceux qui sont pour le full autonome ne sont pas les mêmes qui crient à Big Brother sur les news d’interception de données. " />
Le 22/12/2015 à 15h57
C’est le pire moment où un homme doit prendre le contrôle.
Il n’est pas prêt en moins d’une seconde et va paniquer.
Le 22/12/2015 à 15h58
Les algos c’est bien des humains qui les ont développé hein ^^
Les algos nécessaires à une voiture autonome sont bien plus complexe que ceux d’une calculette, en plus on ne parle pas de maths pure mais de sciences appliquées, de capteurs, etc…
Le 22/12/2015 à 16h00
Le 22/12/2015 à 16h04
Le 22/12/2015 à 16h05
Le 22/12/2015 à 16h06
Je programme rien. Je laisse le choix au conducteur. Tu ne peux pas faire une liste de choix à cocher pour répondre à ça, l’algo ne pourra pas répondre, sauf à considérer que Untel est client de Machin qui a un partenariat avec nous du coup je shoote pas (ou ce genre de cochonneries).
Les pilotes automatiques des avions de ligne sont déjà capables d’assurer l’intégralité d’un vol pour peu que l’aéroport soit correctement équipé. Si la machine n’y arrive pas elle donne la main au pilote.
Le 22/12/2015 à 16h06
Le 22/12/2015 à 17h14
Le 22/12/2015 à 17h17
Il y a plein de gens qui ont plein de peurs, et c’est pas pour autant qu’ils ont absolument raison ni que la loi doit aller dans leur sens.
La loi doit aller dans le sens de la sécurité de tous. Si la voiture autonome est prouvée meilleure que l’humain pour éviter les accidents dans 99% des cas et qu’il reste 1% ou elle se plante, ça sera toujours une belle avancée et il faut légiférer pour que ça arrive le plus vite possible.
Parce qu’au final la vraie question est là : est-ce qu’on préfère qu’il y ait plus de morts sur les routes, mais que ces morts soient causées par des humains, ou alors très peu de morts mais pour lesquels l’humain aurait pu éventuellement éviter l’accident.
Le 22/12/2015 à 17h19
Le 22/12/2015 à 17h19
Le 22/12/2015 à 17h20
Le 22/12/2015 à 17h21
Le 22/12/2015 à 17h23
Nous sommes d’accord mais j’essaye de le convaincre de l’absurdité de ce qu’il avance en proposant des contre-exemples flagrants.
Le 22/12/2015 à 17h25
Le 22/12/2015 à 17h33
Le 22/12/2015 à 17h42
Le 22/12/2015 à 17h51
Le 22/12/2015 à 18h09
Le 22/12/2015 à 18h51
Le 22/12/2015 à 19h08
Mon n om est Bond. James Bond.
Le 22/12/2015 à 19h09
J’espère que ces mauvais ingénieurs qui conçoivent les systèmes automatisés de contrôles de voitures vont lire ce fil.
Il est évident qu’ils n’ont jamais réfléchi une seule seconde aux problématiques soulevées ici ces incompétents.
Le 22/12/2015 à 19h11
Le 22/12/2015 à 14h42
Le 22/12/2015 à 14h42
Le 22/12/2015 à 14h45
Ca me fait pensé a Appleseed ou Ghost In The Shell ou les voitures sont automatiques et donnent juste l’impression au conducteur de maitriser la situation alors que c’est l’ordi de la caisse qui fait tout…
Et bientôt on réfléchira à notre place… à merde c’est déjà le cas… " />
Le 22/12/2015 à 14h46
Le 22/12/2015 à 14h47
Le 22/12/2015 à 14h48
Le 22/12/2015 à 14h49
Le 22/12/2015 à 14h52
Demolition man aussi " />
Le 22/12/2015 à 14h53
Le 22/12/2015 à 14h54
Le 22/12/2015 à 14h56
Le 22/12/2015 à 14h57
Le 22/12/2015 à 14h57
Le 22/12/2015 à 14h59
Le 22/12/2015 à 15h00
Le 22/12/2015 à 15h02
Le 22/12/2015 à 15h36
Le 22/12/2015 à 15h36
Le 22/12/2015 à 15h36
Le 22/12/2015 à 15h37
Approuvé par Macron et Gattaz " /> " />
Le 22/12/2015 à 15h37
Le 22/12/2015 à 15h39
Le 22/12/2015 à 15h40
Le 22/12/2015 à 15h40
Le 22/12/2015 à 15h41
Même en respectant les limitations de vitesse, tu ne sais pas ce qui peut surgir.
Ce n’est d’ailleurs pas pour rien que les aides à la conduite type régulateur de vitesse sont désactivable aussi facilement " />
Pis bon, si le machin se tape un kernel panic, il faut pouvoir le couper
Le 22/12/2015 à 15h42
Encore une news ou les commentaires montrent à quel point la tendance est au pessimisme, et à la paranoia. Chapeau a celui qui nous a replacé les risques de terrorisme dans les commentaires.
On parle ici de technologie futures, en cours de developpement, avec leurs avantages, leurs inconvénients.
Et des inconvénients, heureusement qu’il y en a, ca créera du boulo pour tous les ingés qui ne restent pas vautrés dans leurs fauteuils à ronchonner que c’est trop dangereux ca ne marchera jamais….
Je prefere 1000 fois que les poids lours passent en conduite autonome, plutot que de les voirs conduits par des pauvres gens des pays de l’est, payés une misère pour rouler pendant des horaires incroyables, et qui risquent à tout moment de faire un massacre sur la route.
D’ailleurs des massacres sur la route il y en a, et c’est clairement pas à cause des voitures autonomes…
Donc oui, des ratés il y en aura, tout comme parfois des avions se plantent, mais au moins on aura enfin d’autres pistes à explorer pour limiter les morts sur les routes plutot que constamment nous retirer 10km/h de vitesse maxi.
Le 22/12/2015 à 15h44
Le 22/12/2015 à 15h45
Je ne sais pas mais le fait que je puisse le faire me défini en tant qu’humain. Comme je le disais, si la machine peut faire se choix, ce n’est plus une machine mais une vraie IA, qu’il faudra bien considérer comme un être humain avec ce que ça implique derrière (elle aurait quelques droits à faire valoir)
Le 22/12/2015 à 15h45
Il y a une réalité que certaines personnes ne veulent pas voir : les voitures autonomes font peur. Je fais partie des personnes qui considèrent qu’un conducteur reste plus fiable que tout une panoplie d’informatique et d’électronique qui régit en autonomie le pilotage du véhicule.
Que des règles strictes soient mises en place par l’Etat de Californie me semble une bonne chose. Oui, dans ces voitures autonomes, il faut un conducteur derrière un volant physique. Un être humain est imparfait, par nature, mais je considère qu’un conducteur est capable de réagir à n’importe quel type de situation. J’en doute fortement pour le pilotage autonome. Une voiture autonome est bête et disciplinée, et c’est bien tout ce qui me dérange…. Bête et disciplinée, oui.
Egalement, la Californie veut imposer un permis de conduire spécial “voiture autonome” pour se retrouver sous l’habitacle d’un tel véhicule. Et c’est bien normal : il faut que les personnes sachent quoi faire si l’informatique et l’électronique partent en sucette. Une voiture autonome n’est pas un véhicule classique. Il faut savoir prendre les devants si la voiture autonome ne répond plus au commande. Les personnes se trouvant dans un véhicule autonome doivent savoir maîtriser le véhicule dans n’importe quelle situation.
J’espère que l’Union Européenne, à défaut la France, mettra en place de telles règles. Faire une confiance aveugle aux voitures autonomes est une lourde erreur. Tant pis si de telles règles freinent le développement des véhicules autonomes. Je n’ai rien à foutre….
Le 22/12/2015 à 15h46
Le 22/12/2015 à 15h46
A mon avis le problème est que personne ne sait aujourd’hui quelle assurance est responsable en cas d’incident :
L’assurance du passager ? (Quid s’il a le permis ? Quid s’il n’a pas le permis ? Quid si plusieurs passagers ? Quid si aucun n’est propriétaire de la voiture ?)
L’assurance du constructeur ?
L’assurance du développeur de l’IA ?
Or, en l’absence de statut-quo, ils sont obligés d’imposer un pilote avec permis, car on est sur que celui-ci aura une assurance couvrant les éventuels accidents
Le 22/12/2015 à 15h46
Le prototype de la voiture de Google a bien réussi à ne pas écraser un canard poursuivi par une personne en chaise roulante ..
The Verge
video :
http://i.imgur.com/Y6R6gmw.gifv
maintenant j’aimerai voir comment tu réagirais à 3h du matin avec un chat qui traverse la route, toi ? parce que les voitures automatiques, 17h ou 3h du matin, ça ne change rien " />
Le 22/12/2015 à 16h55
La bonne vieille carte Michelin a encore de beau jours devant elle " />
Le 22/12/2015 à 16h57
Le 22/12/2015 à 16h59
Le 22/12/2015 à 17h02
Le 22/12/2015 à 17h03
Le 22/12/2015 à 17h05
Respecter les limitations c’est une chose. Etre sûr de pouvoir s’arrêter au moins jusque là ou s’arrête le champ de vision en est une autre. Genre un virage un peu en épingle sans visibilté, c’est pas parce qu’il est limité a 70 et que “ça passe” à cette vitesse, qu’il ne faut pas ralentir hein ? Après il y aura toujours des situations difficiles qu’on ne pourra jamais éviter mais bon, être raisonnable c’est un plus quand même.
Le 22/12/2015 à 17h06
Le 22/12/2015 à 17h06
Le 22/12/2015 à 17h09
Et m…, l’Edit a tout cassé => j’efface
Le 22/12/2015 à 17h09
Le 22/12/2015 à 17h10
Et donc les avions avant le GPS avaient des capteurs et des actionneurs qui travaillaient sans être synchronisés ?
Le 22/12/2015 à 17h11
Le 22/12/2015 à 17h12
Ton GPS ayant une précision - d’au mieux - 5m sur ta postion, heureusement que la position satellite n’est pas utilisée pour te diriger sur ta route de campagne… (et je ne parle même pas de la variable précision de ta cartographie).
Le 22/12/2015 à 17h12
Ceux qui se pointent en entretien, tu leur décris un peu ton projet et ils te disent “va falloir changer ça”.
C’est terrible parce qu’ils s’imaginent qu’ils marquent des points en montrant qu’ils savent plein de choses, alors qu’en fait c’est l’inverse ça fait hyper prétentieux… " />
Le 22/12/2015 à 17h13
Le 22/12/2015 à 17h13
Le 22/12/2015 à 14h10
beaucoup plus faible que sur les non automatiques…
Le 22/12/2015 à 14h20
Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie
Scoop : aucun constructeur français ou européen ne prévoit de voiture autonome.
Pas grave, ça nous fera une industrie de moins, on n’est plus à ça près.
Le 22/12/2015 à 14h22
En même temps qu’est-ce qui lui a pris ? C’est quoi le rapport entre Gérard Holtz et les voitures autonomes de Tesla ?
Le 22/12/2015 à 14h23
Le 22/12/2015 à 14h26
Le 22/12/2015 à 14h27
Le 22/12/2015 à 14h28
Le 22/12/2015 à 14h28
Le 22/12/2015 à 14h29
Le 22/12/2015 à 14h29
Le 22/12/2015 à 14h31
L’obligation de maintenir des commandes manuelles me paraît fondée en raison de la prolifération des brouilleurs (jammers) et embrouilleurs (spoofers) GPS (et Galileo dans un futur proche).
Deux cas relevés en France au printemps dernier par l’agence nationale des fréquences (ANFR) :
ANFR
ANFR
Deux articles sur le sujet :
Le Monde
https://www.newscientist.com/article/dn20202-gps-chaos-how-a-30-box-can-jam-your…
Sans une station de navigation inertielle de qualité aéronautique militaire, hors de portée - à plusieurs points de vue - des fabricants de voitures autonomes, le moindre brouilleur à 50 € (ou un embrouilleur à plus cher) feront perdre sa position au véhicule, malgré tous les radars et autres lidars qu’il peut embarquer.
Edit : c’est quoi le blème avec les balises de liens ?
Le 22/12/2015 à 14h32
Le 22/12/2015 à 14h32
Le 22/12/2015 à 14h37
Le 22/12/2015 à 14h39
On confie déjà des véhicules de 2t à des personnes et on voit le résultats que ça fait….
Mais il est clair que c’est plus compliqué je dis pas le contraire mais m’est avis qu’un système automatisé fera diminuer les accidents et embouteillage quand on sait que ceux-ci sont principalement dû au non respect des limitations de vitesse et des distances de sécurité.
Le 22/12/2015 à 14h40
Le 22/12/2015 à 16h09
Un ordinateur n’a pas de conscience. Il va planter à faire ce genre de choix.
Dans le cas contraire, c’est un être conscient. (Re)lis le cycle de la Culture de Banks " />
Le 22/12/2015 à 16h11
Le 22/12/2015 à 16h11
Oui, mais ton algo ne peut pas répondre. Sinon comme je l’ai dit, c’est un être conscient.
Le 22/12/2015 à 16h12
Le 22/12/2015 à 16h12
C’est pas lâche, c’est humain " />
Remplace la p’tite vieille par le conducteur lui même. C’est pareil
Le 22/12/2015 à 16h13
Le 22/12/2015 à 16h14
C’est pas lâche, c’est humain " />
Remplace la p’tite vieille par le conducteur lui même. C’est pareil
Le 22/12/2015 à 16h14
Clairement ma prochaine caisse, juste à changer de job !
Le 22/12/2015 à 16h14
Le 22/12/2015 à 16h17
Non, la voiture n’ira pas chercher le compte facebook de la personne “à écraser” pour déterminer qui sera la personne qui mérite le moins de vivre avec un algo complexe.
Par contre elle verra la personne apparaître dans le champ de vision mieux que toi (un exemple, le cycliste dans cette video :https://youtu.be/tiwVMrTLUWg?t=12m31s il n’y a que la voiture automatique qui l’a vu, et a prévue son déplacement), pourra anticiper leur action plus rapidement que toi, agir de manière sure plus vite que toi (impossible de faire un coup de volant car il y a une voiture trop proche par exemple), et si il n’y a aucune solution d’évitement, potentiellement freiner du mieux possible pour limiter au mieux l’impact.
il n’ira pas tuer un autre passant parce que “yolo” " />
Apres si tu veux obliger les véhicules automatique à avoir un airbag à piétons, c’est possible, et la voiture sera même, à même de le déployer au meilleur moment
Le 22/12/2015 à 16h18
Le 22/12/2015 à 16h21
Le 22/12/2015 à 16h21
Tout dépend de ce que tu appelles une “erreur humaine” " />
Si tu met dans erreur humaine :
….
Au final il ne peut y avoir “que” des erreurs humaines " />
Le 22/12/2015 à 16h22
Tout ce que je dis depuis tout à l’heure c’est qu’une machine ne fait pas d’éthique et n’en fera jamais. Ou alors c’est Skynet.
Le 22/12/2015 à 16h22
Tes poids lourds conduits par IA, ils font comment à Calais pour s’assurer qu’aucun migrant ne monte dedans au péril de sa vie ?
Et si un migrant meurt, qui en est responsable ?
Le 22/12/2015 à 16h23
Le 24/12/2015 à 14h19
Le 24/12/2015 à 14h28
Le 27/12/2015 à 14h07
C’est une question de responsabilité.
Actuellement, s’il y a un mort dans un accident de voiture, il y a forcément un responsable : le conducteur, le fabricant, un piéton… Dans l’immense majorité des cas, l’enquête permet de savoir qui doit indemniser qui.
Avec les véhicules autonomes, se pose la question de la responsabilité de l’ordinateur de bord : si l’ordinateur prend la décision d’écraser une poussette sur le trottoir au lieu de foncer dans un groupe de piétons en face, qui sera le responsable de cette décision ? Le propriétaire de la voiture, le conducteur, le développeur, le fabricant… ? La loi ne permet pas aujourd’hui de répondre à cette question.
Le 27/12/2015 à 22h49
Le 28/12/2015 à 09h17
Le 28/12/2015 à 10h17
Le 22/12/2015 à 15h04
Genre un gps qui perd la boule, c’est pas nouveau " />
Le 22/12/2015 à 15h05
Yep, j’y ai pensé mais dans un autre registre (surtout avec leur version de “l’airbag” !). " /> Une référence ce film. (Idiocracy est a voir dans le même genre).
Le 22/12/2015 à 15h06
Le 22/12/2015 à 15h06
Le 22/12/2015 à 15h11
2000 c’est beaucoup trop. suffit de charger un dijkstra ou un A* :)
Le 22/12/2015 à 15h12
Le 22/12/2015 à 15h14
Le 22/12/2015 à 15h14
Le 22/12/2015 à 15h15
Le 22/12/2015 à 15h16
On ne conduit pas une voiture au GPS, que tu sois humain ou conducteur autonome. C’est juste débile comme principe.
" />
Le 22/12/2015 à 15h19
Le 22/12/2015 à 15h19
Le 22/12/2015 à 15h20
Le 22/12/2015 à 15h21
Le 22/12/2015 à 15h21
Le 22/12/2015 à 15h23
Le 22/12/2015 à 16h27
Le 22/12/2015 à 16h28
Le 22/12/2015 à 16h28
Mais même un humain ne fais pas ce choix…
Si tu vois la grand mère en premier, tu vas l’éviter, écraser le gosse, et provoquer une collision avec un autre véhicule qui va tuer son chauffeur.
Si tu vois le gosse en premier, tu vas l’éviter, écraser la rand mère, et rentrer dans une bagnole stationnée et te tuer.
Si tu vois les deux en même temps, tu panique et tu tues les deux.
Quand tu vois que tu va savoir un accident inévitable, tu freine a fond, et tu panique et voila. Tu ne fais pas de choix de conscience, tu ne fais même pas de choix du tout. L’ordi lui peut au moins en faire quelques-un comme le dis PtaH.
Si la question de ce que ferait l’ordi se pose, je ne comprends pas comment on peut dire que l’humain pourrait faire quelque chose de mieux, pourrait réfléchir (“oh bah je vais écraser des gens , réfléchissons deux minutes…” ). Il panique et pile et c’est tout.
Le 22/12/2015 à 16h28
Le 22/12/2015 à 16h29
Le 22/12/2015 à 16h29
Le 22/12/2015 à 16h30
Le 22/12/2015 à 16h33
Le 22/12/2015 à 16h37
Le 22/12/2015 à 16h38
Le 22/12/2015 à 16h39
Tu quoque psychote fili, il n’ y a pas de lien.
C’est un véhicule qui va d’un point A à un point B. Pas de connexion nécessaire , pas plus que ton GPS n’en a.
Le 22/12/2015 à 16h41
Scoop raté, les plus avancé actuellement sur la routes pour les véhicules commercialisés sont les dernières BMW serie 7 et Mercedes classe S.
La BMW pourrait être autonome sur autoroute mais la loi ne l’autorise pas encore.
Audi prévoit la commercialisation pour 2017 et à déjà présenté une A7 Autonome au CES, qui a parcouru de nombreux KM dont en ville à Shangai:
http://www.turbo.fr/videos-voiture/465090-exclu-turbo-au-volant-d-une-audi-a7-en…
Capable d’être meilleur qu’un pilote sur Circuit:
http://www.autonews.fr/dossiers/industrie/196193-audi-rs7-prototype-autonome-rob…
Les constructeurs Français ne sont pas en reste puisque depuis que le gouvernement à autorisé les tests sur route ouverte, et le groupe PSA mène des tests, avec plusieurs milliers de KM parcouru:
Le Figaro
http://www.metronews.fr/high-tech/voiture-autonome-une-citroen-relie-paris-a-bor…!zfuTmiSTpwuV6/
Et je ne parle même pas des différents équipementier qui ont présenté leurs solutions.
Bref, il y a des chances que la première voiture autonome soit une voiture Européenne, Allemande et Haut de gamme évidemment, Google à juste communiqué plus tôt, notamment dés le début des tests, mais les constructeurs sont aussi sur le pont.
En bonus, un bus autonome qui circule en France:
http://www.actu-environnement.com/ae/news/La-rochelle-experimentation-vehicule-s…
Le 22/12/2015 à 16h44
J’écrase la vielle parce qu’elle est fringué comme une pouilleuse et que 10 contre un qu’elle n’a pas de papiers.
Ca te va comme réponse ?
Le 22/12/2015 à 16h47
Le 22/12/2015 à 16h50
Le 22/12/2015 à 16h51
Le 22/12/2015 à 19h12
Autonome ou pas en 2015 il devrait etre interdit de circuler seul dans une voiture en centre ville.
Le 22/12/2015 à 19h23
Le 22/12/2015 à 19h32
Georges est un hacker extraordinaire, mais vous ne faites pas du logiciel de production en hackant. Un hack ne fonctionne pas, un hack plante
Sauf qu’en l’occurrence, ce n’est pas un hack.
Et quand un concept fonctionne bien, il est toujours possible de le fiabiliser.
Le 22/12/2015 à 19h46
C’est quoi le niveau 5 si le 4 c’est déjà le niveau totalement autonome sans passager ?
Le 22/12/2015 à 20h25
Le 22/12/2015 à 20h33
Je pense que tu n’as pas saisi l’objet de mon message " />
Juste qu’en lisant ce fil on a l’impression que les concepteurs de ces engins ne réfléchissent à aucune problématique.
Alors que ces engins ne datent pas d’hier et qu’ils ont déjà plusieurs milliers de kilomètres dans les processeurs… Et ne parlons pas des véhicules drones 100% autonomes qui existent déjà dans l’armée US.
Le 22/12/2015 à 20h34
Oops merci " />
Le 22/12/2015 à 20h59
Le 22/12/2015 à 21h24
Le 22/12/2015 à 21h59
Je pense qu’on peut énumérer tous les boulots qui vont disparaître dans les années à venir.
Les taxistes… et leurs petits “copains” uberisés. (Oui, un jour ils seront tous d’accord… " />)
Les ambulanciers…
Les chauffeurs de bus…
Les routiers…
Les livreurs…
Et encore, ça n’est que ceux qui perdront leur emploi a cause des systèmes de conduite automatique.
Rappelez moi, nos politiques, ils en sont ou dans le débat ? Ah oui, ils fustigent l’assistanat et les chomeurs " />
Le 22/12/2015 à 23h05
Le 23/12/2015 à 06h10
Le 23/12/2015 à 07h20
Le 23/12/2015 à 08h10
C’est tout l’art de la formulation.
Passer de “Il va falloir changer ça” à “On pourrait passer à tel outil pour obtenir tel résultat” fait toute la différence entre le candidat qui donne l’impression de se sentir supérieur au candidat qui peut réellement apporter quelque chose au projet.
Le 23/12/2015 à 08h14
Et pourtant tout porte à penser qu’une voiture automatique sera plus prudente, plus vigilante, plus respectueuse qu’un vrai conducteur.
balancer des “oui mais si il a pas le choix d’écraser quelqu’un” - alors qu’un pilote réel ferai pire qu’une voiture automatique - pour “justifier ses peurs” n’a pas de sens.
Alors oui, il ne faut pas imaginer que les voitures seront totalement automatique avant 5-10 ans je suis d’accord. que pendant toute une période d’avoir un conducteur “capable” au volant, pas de souci.
Mais refuser parce que “forcement ca sera moins bien qu’un humain”, c’est se fourrer un GROS doigt dans le nez.
Le 23/12/2015 à 08h33
Volrio-paris: dans un orage, les pilotes sont stressés, pendant 50 secondes, ils perdent les indications de vitesse ( les fameuses pitot). Pendant 50 secondes le calculateur de bord ne peut plus aider, puis l’avion redevient totalement opérationnel.
Pendant les 8 minutes qui ont suivit, le copilote - contre toute logique, contre la formation de tout les pilotes - a tiré le manche, et fait cabrer l’avion, jusqu’à ce que la vitesse de l’avion ne permette plus de le faire voler. Alors que le commandant demandait d’être le seul a contrôler l’avion, le copilote n’avait qu’une trouille, c’était de toucher l’eau, et donc a tiré le manche pour “monter”.
Alors oui, l’origine de l’accident a été un problème de capteur, mais pendant 8 minutes, avec un avion totalement opérationnel, son stress a causé le crash de l’avion. Pendant le décrochage, il aurait LACHE le manche, il serait sorti prendre un café, l’avion serait sorti du décrochage, et ne se serait pas crashé. Si pendant que le pitot était en rade, il avait gardé le cape/vitesse sans rien toucher, il n’y aurait eut aucun problème.
Le 23/12/2015 à 14h24
Le 23/12/2015 à 14h31
Le 23/12/2015 à 14h43
Le 23/12/2015 à 14h45
Le 23/12/2015 à 14h49
Le 23/12/2015 à 14h50
Le 23/12/2015 à 15h38
Le 23/12/2015 à 16h55
Un autre exemple : de l’autre côté de l’autoroute je vois un accident se produire avec un poids lourd : je peux anticiper sur le fait que ce dernier pourrait traverser le terre-plein central, la machine ne le verra pas forcément avec les glissières au milieu.
Pardon, mais j’insiste : la voiture ronronne en avançant toute seule depuis deux heures sur l’autoroute, il est 23 heures, comment garder toute sa vigilance quand on ne tient même plus le volant, qu’on la laisse dépasser toute seule les autres véhicules, qu’on n’a rien à faire ??
Je ne suis pas du tout contre le principe des véhicules autonomes, je me pose simplement des questions.
Le 23/12/2015 à 17h01
Quand j’ai lu Tesla et autonome, j’avoue que j’ai plus pensé à un véhicule fonctionnant à l’énergie libre…
Le 23/12/2015 à 17h43
Le 23/12/2015 à 18h32
Le 23/12/2015 à 18h37
Le 23/12/2015 à 19h16
Le 24/12/2015 à 00h10
J’ai personnellement bien plus confiance dans une machine que dans un humain…
Le 24/12/2015 à 11h21
Il n’y a pas que l’aspect juridique … les ordinateurs d’un avion sont incapables d’atterire dans de telles conditions. C’est pas moi qui le dit, ce sont tous les experts qui viennent s’exprimer après chaque catastrophe aérienne. Si les avions étaient capables de tout faire seuls, pour des histoire de coût (plus de gréves des pilotes, par exemple) les compagnies l’auraient déjà mis en place. L’histoire de l’assurance ne tient pas, à mon sens, suffit de définir un nouveau cadre juridique sur la responsabilité en cas de crash. Si cela n’est pas encore fait c’est que les pilotes, aux yeux de beaucoup et surtout à ceux qui sont en charge de l’aviation commerciale, sont encore et de loin les plus qualifiés.
Effectivement aujourd’hui sur les avions de ligne, les calculateurs imposent des limites d’amplitude des commandes mais cela n’empêche pas tout : exemple malheureux et récent du co pilote qui s’est suicidé.
Et cela reste un mode “manuel” tout de même, il n’y a pas de machine qui prend la décision d’aller à droite ou à gauche … le décisionnaire reste le pilote.
Mais au delà des aspects techniques, du pour ou contre les machines conduisant à notre place … cela pose un problème plus général sur la place de l’homme avec de tels “robots”. Par envie (dérive ?) de tendre vers une société du zéro risque, doit-on abandonner certaines de nos capacités ?
Toujours est-il qu’au regard des softs qui nous sont servis par les boîtes qui développent aujourd’hui des voitures autonomes, ça me donne franchement pas envie de monter dans un truc roulant buggué !
Le 24/12/2015 à 12h20
La machine s’astreint de l’alcool et de la somnolence au volant, c’est déjà pas mal.