Il y a confusion ici, ce n’est pas une IA forte qui est utilisée dans les voitures autonomes. l’AI Tay (IA forte) de microsoft n’est pas utilisé pour les voitures autonomes et n’a pas la prétention de le faire.
Fort heureusement, cependant il est probable, vue la multiplicité des situations d’urgences qu’un véhicule peut rencontrer, que ces véhicules autonomes finissent très rapidement par être connectés en permanence avec une pseudo IA qui apprendra et analysera au fur et à mesure les situations afin de mettre “à jour” les réactions à effectuer.
Le
29/07/2016 à
10h
03
Ramaloke a écrit :
Les gars de la RATP ou des rames de métro ne font que gérer une fois l’alerte reçu, ils ne check pas en permanence les rames avec les yeux sur l’écran. C’est juste des outils de supervision avec de jolis lignes vertes, rouges et bleue et des petits écrans d’indicateurs.
Je ne connais pas suffisamment leur métier pour savoir comment ça se passe (c’est peut-être mieux comme ça)
Ramaloke a écrit :
Le VRAI risque est plutôt selon moi au niveau du hack des voitures, prise de contrôle à distance etc. Par exemple un hacker qui enverrait 200 voitures autonomes à un point de chute au lieu d’une seule, un beau bordel en perspective.
Nous sommes entièrement d’accord.
Le
29/07/2016 à
09h
59
Ramaloke a écrit :
Oui enfin là on est plus dans de l’abstrait psychologique :
Faut-il surveiller son four pour s’assurer qu’il chauffe bien ?
La machine à laver ?
L’ordinateur pour s’assurer qu’il calcule bien ?
La plupart du temps ça se travail en remontée de bug et on considère qu’à un certain niveau de fiabilité le contrôle permanent n’est plus utile (Fait en phase d’Alpha/Beta) et qu’une remontée d’incident à postériori suffit.
Les gars de la RATP ou des rames de métro ne font que gérer une fois l’alerte reçu, ils ne check pas en permanence les rames avec les yeux sur l’écran. C’est juste des outils de supervision avec de jolis lignes vertes, rouges et bleue et des petits écrans d’indicateurs.
Le VRAI risque est plutôt selon moi au niveau du hack des voitures, prise de contrôle à distance etc. Par exemple un hacker qui enverrait 200 voitures autonomes à un point de chute au lieu d’une seule, un beau bordel en perspective.
Il ne faut pas oublier de mettre en face le risque, oublier son électro ménager présente à priori moins de risques pour la vie du propriétaire qu’une défaillance dans un système à 130 sur l’autoroute.
Ramaloke a écrit :
Qui a parlé d’IA ? C’est de l’IA faible à la limite mais certainement pas de la forte. L’IA est un software qui apprend tout seul et comprend des principes/mécanique dont il va pouvoir se resservir. Donc une faculté d’apprentissage non limité.
Ici c’est analyser toutes les situations et prévoir des réponses adaptées à chaque fois. Donc oui la voiture va peut-être être désemparée dans une situation loufoque…comme un être humain le sera, après effectivement l’être humain devrait s’en sortir, l’ordinateur resté en mode bug. Mais c’est inévitable, et plus il y aura de kilomètre parcouru/de voiture sur le marché, moins ces situations se rencontrerons.
Visiblement, Microsoft lui-même a eu la prétention (?) de la qualifier d’IA :
Tu devrais regarder les conférences de Google sur leur voiture, ils abordent beaucoup de ces sujets et problématiques, disponible sur Youtube.
Merci pour l’info, je vais fouiner un peu sur Youtube.
Le
29/07/2016 à
09h
16
Altair31 a écrit :
Dans certaines rames de métro, t’as pas de chauffeur !
Lignes 1 et 14 à Paris, métros de Toulouse, Rennes et Lille et une ligne à Lyon.
Y monterais-tu ?
En maintenance informatique, on appelle cela de la “télémaintenance”, en effet, il n’y a pas de chauffeur physiquement présent, mais il y a encore un être humain payé pour surveiller en permanence son bon fonctionnement. C’est un peu différent, nous avons toujours cette possibilité “d’enfreindre” les règles pré-programmées dans la machine.
Ça n’est pas le cas pour la voiture totalement autonome (enfin telle que veulent nous la vendre les constructeurs).
Aura t’elle un intérêt quelconque si demain le chauffeur, au lieu de conduire, doit passer tout son trajet à contrôler que l’ordinateur conduit bien ?
Le
29/07/2016 à
08h
57
Altair31 a écrit :
T’arrive-t-il de prendre un bus, un métro, un taxi, un VTC et/ou un vélib ?
Car là dessus c’est du pareil au même !
Oui, mais je fais confiance au conducteur qui risque sa vie autant que la mienne et qui aura toujours la possibilité d’arrêter son véhicule voir de ne pas le prendre du tout, si il considère qu’il y a un risque réel pour la sécurité des passagers.
L’être humain à encore la capacité de désobéir si la circonstance l’exige, à ma connaissance ça n’est pas le cas de l’ordinateur.
Le
29/07/2016 à
08h
48
Ramaloke a écrit :
C’est un peu comme dire que les machines ne battront jamais un humain à tel jeu. On sait déjà que la question n’est pas de savoir si c’est possible, juste de savoir quand.
Un humain ne sera jamais capable d’avoir autant de capteur et d’analyser autant d’information qu’une machine, qui en plus le fait plus rapidement.
Là aussi je suis un peu perplexe, question analyse, j’entends parler de l’IA depuis environ 20 ans, Microsoft à testé sa première solution en contact avec l’être humain ….. 24H00 pour la retirer ensuite, les ordinateurs existent depuis 30 ans et malgré tout les problèmes de fiabilité sont toujours les même. Alors pourquoi l’ordinateur d’un véhicule serait-il meilleur que ce même ordinateur utilisé ailleurs ?
L’être humain à une capacité d’adaptation que l’ordinateur ne possède pas (encore ?), les constructeurs obéissent à une logique économique parfois aux dépends de la logique technique, l’ordinateur obéit à des situations pré-programmées par des gens qui sont sensés penser à toutes ces situations.
Ca fait beaucoup de sources possibles de défaillances avant même la mise en route.
J’ai donc beaucoup de mal (même si je souhaite ardemment y croire) à faire confiance à un système me laissant de moins en moins la possibilité de réagir par moi-même, mais peut-être que je vieillis, tout simplement…
Ramaloke a écrit :
-> L’ojectif des voitures autonomes est plutôt quelque chose à la UBER ou location de voiture/taxi. C’est avoir des flottes gérées par une entreprise et entretenu comme telle, aucune raison de laisser une voiture autonome à l’arrêt puisqu’elle roule toute seule.
Je te rejoins sur ce point, mais est-ce plus rassurant de mettre sa sécurité entre les mains de salariés ou prestataires entretenant un parc de véhicules totalement autonomes d’une entreprise à but lucratif ?
Les entreprises entretiennent elles mieux les véhicules que les particuliers ?
Le
29/07/2016 à
07h
51
Je suis perplexe sur le fait que “statistiquement, les voitures autonomes sont plus sécurisé/fiable que les humains au volant”, cette technologie, adaptée au monde de l’automobile est très récente, quel retours peuvent avoir les contructeurs sur cette fiabilité ?
Quelle faibilité dans le temps peuvent-ils garantir sur des véhicules qui peuvent avoir été mal entretenus ou pas entretenus du tout, avoir vieillis dans de mauvaises conditions ou dans un mauvais environnement voir carrément utilisé dans des conditions non prévus par le constructeur ?
Pourquoi ces capteurs supplémentaires mettant la sécurité/vie des passagers en jeu seraient-ils plus fiables que les systèmes embarqués actuels qui ont prouvés à tous que la fiabilité dans le temps n’était pas leur atout majeur ?
7 commentaires
Accident mortel : la Tesla Model S roulait trop vite, l’enquête se poursuit
28/07/2016
Le 29/07/2016 à 10h 30
Le 29/07/2016 à 10h 03
Le 29/07/2016 à 09h 59
Le 29/07/2016 à 09h 16
Le 29/07/2016 à 08h 57
Le 29/07/2016 à 08h 48
Le 29/07/2016 à 07h 51
Je suis perplexe sur le fait que “statistiquement, les voitures autonomes sont plus sécurisé/fiable que les humains au volant”, cette technologie, adaptée au monde de l’automobile est très récente, quel retours peuvent avoir les contructeurs sur cette fiabilité ?
Quelle faibilité dans le temps peuvent-ils garantir sur des véhicules qui peuvent avoir été mal entretenus ou pas entretenus du tout, avoir vieillis dans de mauvaises conditions ou dans un mauvais environnement voir carrément utilisé dans des conditions non prévus par le constructeur ?
Pourquoi ces capteurs supplémentaires mettant la sécurité/vie des passagers en jeu seraient-ils plus fiables que les systèmes embarqués actuels qui ont prouvés à tous que la fiabilité dans le temps n’était pas leur atout majeur ?