[ Dernière édition du message le 25/03/2016 à 17:04:19 ]
Djardin
19834
Drogué·e à l’AFéine
Membre depuis 19 ans
47795Posté le 25/03/2016 à 17:26:45
C'est le même principe que la voiture sans pilote de Google : elle a des accidents parce qu'elle respecte le code de la route, chose que ne font pas les autres usagers.
Donc bon, pour une voiture autonome, faut il des règles définies par la loi, ou faut il un apprentissage en copiant les humains (avec les risques et les défauts que ça comporte)
Ah oui c'est vrai ça. Pour qu'il y ait moins d'accidents il ne faut pas respecter les feux, les stop, les limitations de vitesses, réduire toutes les distances de sécurité, faire un doigt d'honneur à chaque piéton qui attend comme un con devant le passage et s'enquiller à fond dans les sens interdits.
Pour s'arrêter il faut choisir un panneau de signalisation et se mettre devant.
Non. la voiture respecte parfaitement le code de la route et enguirlande copieusement quiconque y contrevient, prenant ainsi parfaitement en compte l'écart canyonesque entre théorie et réalité.
Me semble que le principal problème était de savoir si la voiture privilegierai la vie du conducteur ou celle du pieton dans un cas où seul une embardée vers un mur protegerai la vie d'un piéton qui t raverserai au mauvais moment. M'enfin je crois.