IPB

Bienvenue invité ( Connexion | Inscription )

 
Reply to this topicStart new topic
> Tesla : l'accident mortel provoque une enquête de la SEC
Options
ewok
posté 12 Jul 2016, 07:41
Message #1


grand pet pas d'chef
*****

Groupe : Admin
Messages : 2 919
Inscrit : 14 Jan 2001
Lieu : Paris
Membre no 2



Après le NTSB, c'est au tour de la SEC, le gendarme des marchés financiers américains, d'ouvrir une enquête suite à l'accident mortel d'une Tesla en mode Autopilot.

La SEC reprocherait à Tesla de n'avoir pas communiqué assez rapidement sur cet accident, cachant ainsi une information importante aux investisseurs. Un manquement d'autant plus grave qu'entre l'accident, qui a eu lieu en mai, et sa révélation publique, fin juin, l'entreprise a procédé à une nouvelle levée de fonds en bourse, en introduisant des actions nouvelles pour un montant total de 1.4 milliards de dollars.

Au delà du drame humain qu'il représente, cet accident est loin d'être anodin pour la société, puisqu'en plus d'écorner légèrement l'image de l'Autopilot il pourrait avoir un impact financier important si l'enquête du NTSB conclu à une responsabilité du constructeur, celui-ci ne disposant d'aucune assurance pour couvrir d'éventuels dédommagements, comme il l'a rappelé récemment dans une note aux investisseurs.

Lien vers le billet original


--------------------
Go to the top of the page
 
+Quote Post
iAPX
posté 12 Jul 2016, 12:25
Message #2


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 15 384
Inscrit : 4 Jan 2006
Lieu : dtq
Membre no 52 877



On avance bien sur cette histoire, puisque maintenant on sait que la voiture a une très mauvaise perception de son environnement.

J'ai du mal à comprendre qu'un système de sécurité qui perçoit mal son environnement peu choisir de conserver sa vitesse, au lieu de se désengager pour repasser en commandes manuelles. À moins que ça soit très souvent que ça arrive, et qu'il a été choisi de faire avec, ce qui est criminel.


--------------------
Utilisateur de Mac depuis 1985 et possesseur de Mac depuis 2005. Utilisateur d'un PC Lenovo au travail, sous Windows, qui renforce ma passion pour les Mac!
Go to the top of the page
 
+Quote Post
No6
posté 12 Jul 2016, 13:10
Message #3


Oui ?
*****

Groupe : Membres
Messages : 3 889
Inscrit : 24 Jun 2003
Lieu : BZH
Membre no 8 224



« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.


--------------------
"Je sais que vous croyez comprendre ce que vous pensez que j'ai dit, mais je ne suis pas sûr que vous réalisiez que ce que vous avez entendu n'est pas ce que je pense."
(Alan Greenspan)
Go to the top of the page
 
+Quote Post
xav_mtx
posté 12 Jul 2016, 13:27
Message #4


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 428
Inscrit : 22 Mar 2008
Membre no 110 651



Citation (No6 @ 12 Jul 2016, 13:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.


Comme le dit SartMatt a longueur de post, les capteurs de la tesla etaient a l'origine pas du tout prevus pour faire du pilotage auto.
Il les considerent plutot comme irreponsables de bricoler une telle feature avec des capteurs pas au niveau.

Cette histoire risque de faire du mal a la reputation de tous les vehicules autonomes, alors que les voitures de google, sont a la base prevues pour ca.
Go to the top of the page
 
+Quote Post
SartMatt
posté 12 Jul 2016, 13:31
Message #5


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (No6 @ 12 Jul 2016, 14:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.
En l’occurrence, on sait (c'est Tesla qui l'a dit...) que les capteurs des Tesla voient mal les obstacles suspendus.

Donc dès qu'il y a un obstacle suffisamment haut et en porte à faux ou posé sur deux supports qui ne sont pas dans le champ de vision de la voiture, ce qui est le cas de l'arrière d'une remorque de camion ou de la partie entre les deux essieux, il y a un risque élevé qu'elle ne le voit pas. Manque de bol, ce suffisamment haut pour ne pas être vu est aussi suffisamment haut pour que le capot de la voiture passe dessous, mais pas suffisamment haut pour que la voiture entière passe dessous : c'est le pare-brise qui prend, donc l'un des endroits les plus vulnérables de la voiture, avec en prime la tête du conducteur juste derrière... Voilà une image illustrant bien ce problème, et qui circulait déjà avant le fameux accident mortel : http://roa.h-cdn.co/assets/16/19/980x490/l...438345559-o.jpg

Les capteurs des Tesla ont été conçus pour des fonctionnalités basiques, comme le régulateur de vitesse adaptif ou l'assistance au parking, pas pour du pilotage automatique. C'est pas pour rien que tous les projets sérieux de voitures autonome utilisent des lidars à 360°, pas juste des caméras et radars à ultrasons placés dans les pare-chocs (sur les Tesla, c'est deux caméras, un radar frontal longue portée mais avec un champ assez réduit et une grosse dizaine de radars à ultrason à faible portée tout autour de la voiture)...


Sinon, on a encore eu une bonne blague de l'Autopilot ce WE, avec une voiture sortie de la route, heureusement sans gravité, parce qu'il n'y avait pas de bande pour la délimiter... Le discours officiel de Tesla (déjà bien avant ce crash), c'est que l'Autopilot ne doit pas être utilisé sur une route non délimitée. Mais alors bordel, pourquoi laisser les gens utiliser ce mode dans ce cas ? Dès lors que la voiture ne détecte pas de délimitation de la route, elle devrait refuser l'activation de l'Autopilot !

Confier à des gens un système aussi limité en leur demandant de bien faire attention à ne l'utiliser que dans certaines conditions tout en ne faisant strictement rien pour s'assurer du bon respect de ces conditions, c'est tout aussi criminel que de changer de voie à l'arrache.


--------------------

Go to the top of the page
 
+Quote Post
bzzzt
posté 12 Jul 2016, 14:14
Message #6


Adepte de Macbidouille
*

Groupe : Membres
Messages : 210
Inscrit : 31 Jan 2012
Membre no 174 248



Citation (iAPX @ 12 Jul 2016, 13:25) *
On avance bien sur cette histoire, puisque maintenant on sait que la voiture a une très mauvaise perception de son environnement.

J'ai du mal à comprendre qu'un système de sécurité qui perçoit mal son environnement peu choisir de conserver sa vitesse, au lieu de se désengager pour repasser en commandes manuelles. À moins que ça soit très souvent que ça arrive, et qu'il a été choisi de faire avec, ce qui est criminel.

repasser en commandes manuels n'aurait certainement pas évité l'accident vu qu'il fallait un freinage d'urgence.
sinon sur ce coup il semblerait quand même que l'utilisateur ai abusé de la fonction autopilot, qui contrairement à ce que son nom indique, est une aide à la conduite pas une conduite automatique, le pilote devant rester vigilant à tout moment. Par ailleurs il me semblait que c'était sensé marcher en securité uniquement sur un reseau rapide, où le type de circonstance dans lesquels ont eu lieu l'accident est impossible (un camion qui croise la route de la voiture). Si c'est bien le cas alors le chauffeur a utilisé le système dans des conditions qui pouvaient mettre sa vie en danger.
C'est pas specialement pour défendre Tesla mais j'ai l'impression qu'on a juste affaire à un mec qui a fait n'importe quoi et qui s'est mangé, ce qui n'as rien de très inhabituel sur une route.
Le jour où une vraie voiture autonome (qui disposent de systèmes de détections beaucoup plus performants qu'une tesla, entre autres) aura un accident (et ça arrivera, c'est sur), on pourra en reparler.

Citation (xav_mtx @ 12 Jul 2016, 14:27) *
Citation (No6 @ 12 Jul 2016, 13:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.


Comme le dit SartMatt a longueur de post, les capteurs de la tesla etaient a l'origine pas du tout prevus pour faire du pilotage auto.
Il les considerent plutot comme irreponsables de bricoler une telle feature avec des capteurs pas au niveau.

Cette histoire risque de faire du mal a la reputation de tous les vehicules autonomes, alors que les voitures de google, sont a la base prevues pour ca.


Je n'ai pas le détail mais je suis à peu près certains qu'il ya un paquet d'avertissements (sous forme de textes, sonores, images, etc;..) quand on active l'autopilot qui expliquent dans quelles conditions il faut utiliser cette fonctionnalité quand on l'active, et dans quel cas c'est dangereux ça me parait assez evident. Avertissement que l'utilisateur ignore superbement, comme c'est malheureusement souvent dans sa nature. En gros des mecs qui font n'importe quoi sur la route ça date pas d'hier, ils ont juste trouvé une nouvelle manière de le faire. Quand une voiture classique a un accident on accuse rarement le fabriquant de la voiture, je vois pas pourquoi ce serait différent.
Go to the top of the page
 
+Quote Post
No6
posté 12 Jul 2016, 14:20
Message #7


Oui ?
*****

Groupe : Membres
Messages : 3 889
Inscrit : 24 Jun 2003
Lieu : BZH
Membre no 8 224



Citation (xav_mtx @ 12 Jul 2016, 14:27) *
Citation (No6 @ 12 Jul 2016, 13:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.


Comme le dit SartMatt a longueur de post, les capteurs de la tesla étaient a l'origine pas du tout prevus pour faire du pilotage auto.
Il les considèrent plutôt comme irresponsables de bricoler une telle feature avec des capteurs pas au niveau.

Cette histoire risque de faire du mal a la réputation de tous les véhicules autonomes, alors que les voitures de google, sont a la base prévues pour ça.


? Oui ???
et en quoi cela remet-il l'idée que toute perception est subjective, aussi bien pour robot que pour un être humain ??


--------------------
"Je sais que vous croyez comprendre ce que vous pensez que j'ai dit, mais je ne suis pas sûr que vous réalisiez que ce que vous avez entendu n'est pas ce que je pense."
(Alan Greenspan)
Go to the top of the page
 
+Quote Post
SartMatt
posté 12 Jul 2016, 14:47
Message #8


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (bzzzt @ 12 Jul 2016, 15:14) *
sinon sur ce coup il semblerait quand même que l'utilisateur ai abusé de la fonction autopilot, qui contrairement à ce que son nom indique, est une aide à la conduite pas une conduite automatique, le pilote devant rester vigilant à tout moment.
Oui. Mais c'est la faute de Tesla si le nom a été aussi mal choisi.
Et vu le nombre de vidéos qui ont été postés sur YouTube & co de gens qui ont voulu montrer l'efficacité de l'Autopilot en faisant plein d'autre choses au volant que rester vigilant (batailles de sabre laser, karaoké, jeux de carte...), Tesla aurait dû faire un rappel à l'ordre et bien insister sur le fait que ce truc ne dispense en aucun cas de se conduire en conducteur responsable. Mais forcément, chez Tesla ça les arrangeait bien de voir ces vidéos montrant l'efficacité de leur système.

Citation (bzzzt @ 12 Jul 2016, 15:14) *
Quand une voiture classique a un accident on accuse rarement le fabriquant de la voiture, je vois pas pourquoi ce serait différent.
Parce que Tesla profite énormément de la pub gratuite que lui font ceux qui utilisent le système dans des conditions pas prévues pour. Donc à ce stade là, on peut largement considérer que l'absence totale de réaction de Tesla face à ces détournement relève d'une volonté de laisser faire.

Accessoirement, dans les cas d'accidents avec une voiture classique, même si l'utilisateur fait n'importe quoi, les réactions de la voiture restent la conséquence directe de ses actions. Dans le cas de l'Autopilot, même s'il est activé dans des conditions où il ne devrait pas l'être, les réactions de la voiture sont bien la conséquence des actions décidées par l'Autopilot... Autopilot qui devrait détecter qu'il n'est pas dans une situation normale d'utilisation et devrait agir en conséquence.


--------------------

Go to the top of the page
 
+Quote Post
DDT
posté 12 Jul 2016, 17:45
Message #9


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 285
Inscrit : 17 Aug 2005
Membre no 44 050



Citation (No6 @ 12 Jul 2016, 15:20) *
? Oui ???
et en quoi cela remet-il l'idée que toute perception est subjective, aussi bien pour robot que pour un être humain ??

https://www.youtube.com/watch?v=qQkx-4pFjus

Tout est subjectif si tu veux. Mais de la même manière qu'un humain qui se plante dans un fourgon au milieu de la route est objectivement dangereux, le système anti-collision de Tesla l'est aussi.
Go to the top of the page
 
+Quote Post
xav_mtx
posté 12 Jul 2016, 22:08
Message #10


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 428
Inscrit : 22 Mar 2008
Membre no 110 651



Citation (No6 @ 12 Jul 2016, 14:20) *
Citation (xav_mtx @ 12 Jul 2016, 14:27) *
Citation (No6 @ 12 Jul 2016, 13:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.


Comme le dit SartMatt a longueur de post, les capteurs de la tesla étaient a l'origine pas du tout prevus pour faire du pilotage auto.
Il les considèrent plutôt comme irresponsables de bricoler une telle feature avec des capteurs pas au niveau.

Cette histoire risque de faire du mal a la réputation de tous les véhicules autonomes, alors que les voitures de google, sont a la base prévues pour ça.


? Oui ???
et en quoi cela remet-il l'idée que toute perception est subjective, aussi bien pour robot que pour un être humain ??



Pas tant que ca, vu que quelqu'un qui a une trop mauvaise vue, se voit interdire de conduire sans lunettes de corrections.
Ou, un mec qui est considere comme trop dangereux sur la route, se fait retirer son permis
Comme l'a dit sartmatt, le systeme de tesla (pas prevu pour ca, a la base) a des angles morts, ne detecte pas tout le temps tous les obstacles, ne vois pas assez haut (l'histoire des remorques), etc...
Bref, l'autopilot est au mieux, un petit vieux qui ne sait plus trop ce qu'il fait, et qui se ferait retirer son permis.

La tesla percois trop mal son environnement pour pouvoir se vanter d'avoir un reel "autopilot", pas question de subjectivite ici.
Go to the top of the page
 
+Quote Post
Cochonou
posté 12 Jul 2016, 23:32
Message #11


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 3 129
Inscrit : 21 Aug 2005
Membre no 44 239



Surtout, le principe est assez pernicieux: a quoi sert un système qui contrôle automatiquement la vitesse, l'écart avec les voitures précédentes et prend tout seul les virages, s'il faut "rester vigilant à tout moment" ?
A rien. On comprend bien que s'il faut pour l'instant rester vigilant, c'est que le système n'est pas encore au point. Dès lors, est-il vraiment responsable de le proposer à l'usage, même bardé de messages d'avertissement ressemblant à ceux qui sont affichés lorsque l'on allume un récepteur GPS ?


--------------------
Powerbook G4 1.33 Ghz - Mac OS X 10.5
Go to the top of the page
 
+Quote Post
solex46
posté 12 Jul 2016, 23:34
Message #12


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 459
Inscrit : 18 Jun 2014
Membre no 190 920



Citation (xav_mtx @ 12 Jul 2016, 23:08) *
Bref, l'autopilot est au mieux, un petit vieux qui ne sait plus trop ce qu'il fait, et qui se ferait retirer son permis.

Je dirais plutôt un gamin de 2 ans derrière le volant, qui se décroche la tête pour voir par dessus le capot et qui a une buche accrochée sous la semelle de sa chaussure droite pour atteindre la pédale d'accélérateur.

Et encore, lui, il aurait vu le camion.
Sans rire. biggrin.gif


--------------------
iMac 27" late 2013 - Mavericks, iMac 27" mid 2010 - Mavericks, iPad mini 1 - iOS 8. Et diverses vieilleries.
Mon site web : ANTIOPA NATURE
Go to the top of the page
 
+Quote Post
Hebus
posté 13 Jul 2016, 00:39
Message #13


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 166
Inscrit : 24 Sep 2015
Lieu : Pays d'Aix
Membre no 196 570



C'est assez hallucinant cette histoire... grosso modo le système de mort assuré de Tesla, il lui faut des marqueurs sur tous le parcours... grosse blague meurtrière ...

Cette histoire va leur faire beaucoup de mal...


--------------------
Bobo du Pays d'Aix et Fanboy Apple
Go to the top of the page
 
+Quote Post
captaindid
posté 13 Jul 2016, 02:00
Message #14


Adepte de Macbidouille
*

Groupe : Membres
Messages : 161
Inscrit : 6 Sep 2004
Lieu : entre la chaise et le clavier
Membre no 23 160



Citation (Cochonou @ 13 Jul 2016, 00:32) *
Surtout, le principe est assez pernicieux: a quoi sert un système qui contrôle automatiquement la vitesse, l'écart avec les voitures précédentes et prend tout seul les virages, s'il faut "rester vigilant à tout moment" ?
A rien. On comprend bien que s'il faut pour l'instant rester vigilant, c'est que le système n'est pas encore au point. Dès lors, est-il vraiment responsable de le proposer à l'usage, même bardé de messages d'avertissement ressemblant à ceux qui sont affichés lorsque l'on allume un récepteur GPS ?


depuis environ 20 ans les véhicules haut de gamme sont livrés avec un régulateur de vitesse, ou en option.
ce système, bien que basique, est très utile pour soulager le conducteur lors de longs trajets.
à coté l'autopilot de tesla est beaucoup plus aboutit, et sert à peu près à la même chose: soulager le conducteurs lors de longs trajets.
en aucun cas il conduit vraiment la voiture; le nom est effectivement mal choisit.
il est précisé que le conducteur doit garder les mains sur le volant, et il me semble que ce mécanisme ne doit être utilisé que sur des autoroutes (ou voies similaires), pas de routes avec carrefours, feux, intersections ...
maintenant si il est utilisé à mauvais escient, c'est plus la faute du conducteur , non?
et ce dernier n'a certainement pas tenu compte des messages qui doivent s'afficher à l'activation du système


--------------------
"What else?" - George Clooney
Go to the top of the page
 
+Quote Post
kwak-kwak
posté 13 Jul 2016, 03:08
Message #15


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 1 517
Inscrit : 28 Jan 2010
Membre no 149 363



Citation (Cochonou @ 13 Jul 2016, 00:32) *
Surtout, le principe est assez pernicieux: a quoi sert un système qui contrôle automatiquement la vitesse, l'écart avec les voitures précédentes et prend tout seul les virages, s'il faut "rester vigilant à tout moment" ?
A rien. On comprend bien que s'il faut pour l'instant rester vigilant, c'est que le système n'est pas encore au point. Dès lors, est-il vraiment responsable de le proposer à l'usage, même bardé de messages d'avertissement ressemblant à ceux qui sont affichés lorsque l'on allume un récepteur GPS ?
Si, le système pourrait-être utile pour qui est habituellement vigilant... il permet de rattraper une faute de conduite du conducteur (mauvaise anticipation, angle mort, perte de repères, étourderie, ... endormissement, ...). Par contre pour cela il faut que le véhicule "engueule" le conducteur quand il rattrape une faute de ce dernier.


Citation (captaindid @ 13 Jul 2016, 03:00) *
depuis environ 20 ans les véhicules haut de gamme sont livrés avec un régulateur de vitesse, ou en option.
ce système, bien que basique, est très utile pour soulager le conducteur lors de longs trajets.
à coté l'autopilot de tesla est beaucoup plus aboutit, et sert à peu près à la même chose: soulager le conducteurs lors de longs trajets.
en aucun cas il conduit vraiment la voiture; le nom est effectivement mal choisit.
il est précisé que le conducteur doit garder les mains sur le volant, et il me semble que ce mécanisme ne doit être utilisé que sur des autoroutes (ou voies similaires), pas de routes avec carrefours, feux, intersections ...
maintenant si il est utilisé à mauvais escient, c'est plus la faute du conducteur , non?
et ce dernier n'a certainement pas tenu compte des messages qui doivent s'afficher à l'activation du système


La faute est partagée...
Le conducteur doit rester maître de son véhicule en toute circonstance : cela implique d'avoir les mains sur le volant, de regarder la route (et d'être en état de conduire).

Tesla appelle sa fonction "Autopilot" mais omet de préciser dans sa communication que son "Autopilot" ne peut pas conduire sur une route sans ligne, ne sait pas quelle ligne suivre sur un chantier, ne prévient pas quand il est perdu, ne voit pas très bien les obstacles élevés, et est incapable de distinguer un véhicule à l'arrêt à distance suffisante sur une voie d'autoroute (Et il n'anticipera rien du tout car il ne voit pas les feux de stop, ni les feux de détresse). Tesla aurait appelé son truc "Pilot Assist" en définissant clairement les limites du truc dès le départ, qu'il s'agisse exclusivement d'une aide à la conduite sans jamais sous entendre que le véhicule est (semi-)autonome, il y aurait déjà moins de souci.
De même, sans réduire les fonctionnalités proposées, Tesla ne devrait pas permettre une conduite "autonome". C'est à dire qu'elle devrait "engueuler son conducteur" (émettre une alarme) quasi systématiquement quand elle intervient sans la confirmation du conducteur. (Par exemple, biper si elle tourne les roues, alors que le conducteur ne tourne pas lui-même le volant, ou encore ralentir et s'arrêter doucement si le conducteur commet trop de fautes,...).

A terme on risque d'exiger du conducteur un permis de conduire spécial pour conduire ces véhicules de type "permis B option Véhicules avec assistance de conduite" (Avec une formation supplémentaire exigée, comme pour les remorques).
Enfin, les échecs sécuritaires de Tesla risquent de jeter le discrédit sur les véhicules réellement autonomes quand ils seront commercialisés.
Go to the top of the page
 
+Quote Post
captaindid
posté 13 Jul 2016, 07:51
Message #16


Adepte de Macbidouille
*

Groupe : Membres
Messages : 161
Inscrit : 6 Sep 2004
Lieu : entre la chaise et le clavier
Membre no 23 160



entièrement d'accord.
il y a presque tromperie à cause du nom qui laisse à penser que la voiture peut réellement conduire toute seule.
et apparemment certains conducteurs se font avoir. il faudrait que Tesla change le nom de cette fonction par Pilot assist, pourquoi pas, et tout rentrerait dans l'ordre. Mais évidement ça serait moins vendeur...


--------------------
"What else?" - George Clooney
Go to the top of the page
 
+Quote Post
SartMatt
posté 13 Jul 2016, 08:32
Message #17


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (kwak-kwak @ 13 Jul 2016, 04:08) *
Citation (Cochonou @ 13 Jul 2016, 00:32) *
Surtout, le principe est assez pernicieux: a quoi sert un système qui contrôle automatiquement la vitesse, l'écart avec les voitures précédentes et prend tout seul les virages, s'il faut "rester vigilant à tout moment" ?
A rien. On comprend bien que s'il faut pour l'instant rester vigilant, c'est que le système n'est pas encore au point. Dès lors, est-il vraiment responsable de le proposer à l'usage, même bardé de messages d'avertissement ressemblant à ceux qui sont affichés lorsque l'on allume un récepteur GPS ?
Si, le système pourrait-être utile pour qui est habituellement vigilant... il permet de rattraper une faute de conduite du conducteur (mauvaise anticipation, angle mort, perte de repères, étourderie, ... endormissement, ...). Par contre pour cela il faut que le véhicule "engueule" le conducteur quand il rattrape une faute de ce dernier.
Tout a fait. Et outre le rattrapage d'une erreur ou d'un manque passager de vigilance, il peut également avoir pour intérêt des réflexes supérieurs en cas de danger soudain (du genre une voiture qui pile juste devant ou qui grille une priorité). Le tout est de ne pas se reposer totalement dessus pour l'instant, car il n'est pas fait pour et est très loin d'être infaillible : c'est un complément, pas un remplacement.


--------------------

Go to the top of the page
 
+Quote Post
DefKing
posté 13 Jul 2016, 09:29
Message #18


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 5 725
Inscrit : 5 Oct 2005
Membre no 47 298



Citation (No6 @ 12 Jul 2016, 14:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.

Bah, justement, sur cette route à quatre voies séparées uniquement par une bande de terrain, le camion a brusquement tourné sur la gauche pour prendre une autre direction, ce qui a fait qu'il a coupé la route à cette voiture qui venait en face. CQFD. En taule pour 40 ans, le conducteur.

On peut juste espérer que si le camion avait été "automatisé", il aurait marqué un arrêt sur le terre-plein central avant de continuer.

Ce message a été modifié par DefKing - 13 Jul 2016, 09:31.


--------------------
Performa 6400, G4 AGP, iMac G5 20", iMac 21,5 core i3 et iBook G4 14".
Go to the top of the page
 
+Quote Post
solex46
posté 13 Jul 2016, 16:45
Message #19


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 459
Inscrit : 18 Jun 2014
Membre no 190 920



Citation (DefKing @ 13 Jul 2016, 10:29) *
Citation (No6 @ 12 Jul 2016, 14:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.

Bah, justement, sur cette route à quatre voies séparées uniquement par une bande de terrain, le camion a brusquement tourné sur la gauche pour prendre une autre direction, ce qui a fait qu'il a coupé la route à cette voiture qui venait en face. CQFD. En taule pour 40 ans, le conducteur.

On peut juste espérer que si le camion avait été "automatisé", il aurait marqué un arrêt sur le terre-plein central avant de continuer.

Un peu court :
Ce n'est pas parce que le conducteur du camion est en tort (du strict point de vue du code de la route) que ça exonère le système d'autopilote de toute responsabilité (dans l'absolu).
Un système d'autopilote est là, justement, pour réduire le risque d'accident, qu'on s'en serve en automatisme total ou en simple assistance.
Hors, dans ce cas, le conducteur aurait eu les yeux sur la route et les mains sur le volant : pas d'accident, ou au moins aurait-il été simplement dans le décor.
Je suis certain que du point de vue juridique, le fait que le conducteur regardait un DVD en conduisant (au lieu de regarder la route) serait retenu contre lui et en faveur du camionneur.
Torts partagés, ça s'appelle.

Et sinon... 40 ans, hein ?
Je suppose qu'il faut aussi absolument lui couper les mains (ça évite de pouvoir les mettre sur un volant) et lui crever les yeux (comme ça on est sûr qu'il ne conduira plus) ?

Encore heureux que les juges qui s'occupent de ce genre d'affaire sont un tout petit peu plus mesurés que toi. rolleyes.gif


--------------------
iMac 27" late 2013 - Mavericks, iMac 27" mid 2010 - Mavericks, iPad mini 1 - iOS 8. Et diverses vieilleries.
Mon site web : ANTIOPA NATURE
Go to the top of the page
 
+Quote Post
Perplexe
posté 14 Jul 2016, 10:30
Message #20


Macbidouilleur de bronze !
**

Groupe : Membres
Messages : 287
Inscrit : 29 Dec 2005
Membre no 52 508



Citation (xav_mtx @ 12 Jul 2016, 23:08) *
Citation (No6 @ 12 Jul 2016, 14:20) *
Citation (xav_mtx @ 12 Jul 2016, 14:27) *
Citation (No6 @ 12 Jul 2016, 13:10) *
« Mal percevoir son environnement » … c'est complètement subjectif.

Même pour un être humain, savoir si ce qu'on perçois de la route en conduisant comporte des risques ou non, c'est beaucoup trop aléatoire.

En tout cas un camion à gauche qui change brutalement de file pour prendre une brettelle de sortie sur la droite, c'est quasiment un acte criminel, et je vois mal quel type de logiciel, même munis de 10 milles capteurs serait capable d'éviter cet accident.


Comme le dit SartMatt a longueur de post, les capteurs de la tesla étaient a l'origine pas du tout prevus pour faire du pilotage auto.
Il les considèrent plutôt comme irresponsables de bricoler une telle feature avec des capteurs pas au niveau.

Cette histoire risque de faire du mal a la réputation de tous les véhicules autonomes, alors que les voitures de google, sont a la base prévues pour ça.


? Oui ???
et en quoi cela remet-il l'idée que toute perception est subjective, aussi bien pour robot que pour un être humain ??



Pas tant que ca, vu que quelqu'un qui a une trop mauvaise vue, se voit interdire de conduire sans lunettes de corrections.
Ou, un mec qui est considere comme trop dangereux sur la route, se fait retirer son permis
Comme l'a dit sartmatt, le systeme de tesla (pas prevu pour ca, a la base) a des angles morts, ne detecte pas tout le temps tous les obstacles, ne vois pas assez haut (l'histoire des remorques), etc...
Bref, l'autopilot est au mieux, un petit vieux qui ne sait plus trop ce qu'il fait, et qui se ferait retirer son permis.

La tesla percois trop mal son environnement pour pouvoir se vanter d'avoir un reel "autopilot", pas question de subjectivite ici.


Le vol Rio-Paris s'est crashé avec 300 ou 400 personnes à bord parce que la sonde Pitot a gelé. Les Airbus volent toujours équipés de sondes Pitot.

Ce message a été modifié par Perplexe - 14 Jul 2016, 10:30.
Go to the top of the page
 
+Quote Post
SartMatt
posté 14 Jul 2016, 12:19
Message #21


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (Perplexe @ 14 Jul 2016, 11:30) *
Le vol Rio-Paris s'est crashé avec 300 ou 400 personnes à bord parce que la sonde Pitot a gelé. Les Airbus volent toujours équipés de sondes Pitot.
C'est très réducteur. Le givrage des sondes Pitot a provoqué une déconnexion du pilote automatique, puisqu'il a dû être jugé par les concepteurs de ce système que le pilote automatique ne peut pas être fiable sans ces sondes. Et ce sont ensuite les mauvais choix des pilotes en mode manuel qui ont provoqué le crash, ce que le BEA a notamment mis sur le compte d'un manque de formation.

Enlever les sondes Pitot serait idiot, puisque ça obligerait à déconnecter en permanence le pilote automatique. Garder un instrument qui a des problèmes de fiabilité n'est pas gênant, tant que :
* on sait détecter ces problèmes de fonctionnement (c'était le cas sur l'AF-447) et agir en conséquence quand l'instrument ne remonte plus d'informations valables (passage en pilotage manuel),
* le bon fonctionnement de ces instruments n'est pas indispensable (c'est le cas des sondes Pitot sur un avion),
* ces dysfonctionnement ne sont pas trop fréquents (c'est le cas des dysfonctionnements des sondes Pitot).

Tesla applique visiblement très mal ces principes, puisque l'Autopilot ne se désenclenche pas automatiquement lorsque les capteurs ne lui remontent pas les informations dont il a besoin (il continue par exemple lorsqu'il n'y a plus de bande de peinture au bord de la route, alors que Tesla dit bien qu'il ne faut pas l'utiliser dans ce cas...) et puisque la non détection d'obstacles suspendus ou en porte à faux est courante (là encore, c'est Tesla qui dit qu'il y a un risque élevé...), ce qui est d'autant plus grave aux USA où les remorques de camion ne sont pas obligatoirement équipées de barres latérales anti-encastrement (barres qui ont aussi pour effet de diminuer grandement le risque de non détection par les capteurs de la Tesla).


--------------------

Go to the top of the page
 
+Quote Post
captaindid
posté 14 Jul 2016, 16:35
Message #22


Adepte de Macbidouille
*

Groupe : Membres
Messages : 161
Inscrit : 6 Sep 2004
Lieu : entre la chaise et le clavier
Membre no 23 160



Citation (Perplexe @ 14 Jul 2016, 11:30) *
Le vol Rio-Paris s'est crashé avec 300 ou 400 personnes à bord parce que la sonde Pitot a gelé. Les Airbus volent toujours équipés de sondes Pitot.

non!
cet airbus s'est crashé parce que les 2 co(n)pillotes aux commandes ont été strictement incapables de comprendre ce qui se passait, de détecter un décrochage, et d'en sortir (alors qu'ils avaient largement le temps/l'altitude pour)
Dire qu'à une époque les pilotes d'air france étaient parmi les meilleurs... temps révolus rolleyes.gif

mais airbus n'est pas tout blanc non plus:
- affichages et alarmes incohérentes, et anxiogènes
- choix d'un seul modèle de Pitot, connu pour ses capacité à givrer, plutôt que panacher des modèles pour limiter les risques, pour des conditions météo précises
- corréler les infos des Pitot avec la centrale inertielle, les capteurs d'incidences, et un capteur GPS de dernier recours (absent de série!), ce qui aurait permis aux calculateurs de discréditer les infos fantaisistes et contradictoires des Pitots
- choix clair et "péremptoire" du poste aux commandes (droite ou gauche, comme ça se fait chez Boeing) et pas de celui qui est supposément en train d'actionner les commandes vu que les 2 cons aux commandes actionnaient en même temps les commandes, et ce en un sens opposé!
etc...


--------------------
"What else?" - George Clooney
Go to the top of the page
 
+Quote Post
bzzzt
posté 14 Jul 2016, 17:16
Message #23


Adepte de Macbidouille
*

Groupe : Membres
Messages : 210
Inscrit : 31 Jan 2012
Membre no 174 248



Citation (SartMatt @ 12 Jul 2016, 15:47) *
Citation (bzzzt @ 12 Jul 2016, 15:14) *
sinon sur ce coup il semblerait quand même que l'utilisateur ai abusé de la fonction autopilot, qui contrairement à ce que son nom indique, est une aide à la conduite pas une conduite automatique, le pilote devant rester vigilant à tout moment.
Oui. Mais c'est la faute de Tesla si le nom a été aussi mal choisi.
Et vu le nombre de vidéos qui ont été postés sur YouTube & co de gens qui ont voulu montrer l'efficacité de l'Autopilot en faisant plein d'autre choses au volant que rester vigilant (batailles de sabre laser, karaoké, jeux de carte...), Tesla aurait dû faire un rappel à l'ordre et bien insister sur le fait que ce truc ne dispense en aucun cas de se conduire en conducteur responsable. Mais forcément, chez Tesla ça les arrangeait bien de voir ces vidéos montrant l'efficacité de leur système.

Citation (bzzzt @ 12 Jul 2016, 15:14) *
Quand une voiture classique a un accident on accuse rarement le fabriquant de la voiture, je vois pas pourquoi ce serait différent.
Parce que Tesla profite énormément de la pub gratuite que lui font ceux qui utilisent le système dans des conditions pas prévues pour. Donc à ce stade là, on peut largement considérer que l'absence totale de réaction de Tesla face à ces détournement relève d'une volonté de laisser faire.

Accessoirement, dans les cas d'accidents avec une voiture classique, même si l'utilisateur fait n'importe quoi, les réactions de la voiture restent la conséquence directe de ses actions. Dans le cas de l'Autopilot, même s'il est activé dans des conditions où il ne devrait pas l'être, les réactions de la voiture sont bien la conséquence des actions décidées par l'Autopilot... Autopilot qui devrait détecter qu'il n'est pas dans une situation normale d'utilisation et devrait agir en conséquence.

l'utilisateur choisit d'activer l'"autopilot" (oui le nom est mal choisi) dans des conditions pas prévu pour, dans ce cas ça revient à prendre un risque inconsidéré et risquer sa vie. Detecter une "situation normale" d'utilisation est à priori impossible ou très complexe (faire la différence entre une voie rapide avec des bretelles d'acces ou une route normale à plusieurs voix dans certains cas c'est impossible), c'est au conducteur de prendre ses responsabilités. D'après cet article
http://www.numerama.com/tech/182648-tesla-...er-reports.html
l'aspect "pédagogie" passe par bien plus qu'un simple avertissement, avant d'utiliser le système on passe par un tutorial d'une heure en situation. Si le conducteur n'est pas au courant des conditions d'utilisation à ce moment c'est quand même bel et bien de sa faute.
Go to the top of the page
 
+Quote Post
SartMatt
posté 14 Jul 2016, 17:41
Message #24


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (bzzzt @ 14 Jul 2016, 18:16) *
Detecter une "situation normale" d'utilisation est à priori impossible ou très complexe (faire la différence entre une voie rapide avec des bretelles d'acces ou une route normale à plusieurs voix dans certains cas c'est impossible), c'est au conducteur de prendre ses responsabilités.
Dans l'écrasante majorité des pays développés, faire la différence entre une voie rapide à brettelles et une route classiques à plusieurs voies est simple dans la plupart des cas : la limitation de vitesse n'est pas la même. En France par exemple, si la limite est à plus de 90 km/h, c'est forcément qu'on est sur une voie rapide avec des bretelles.
La signalisation est également différente, en entrée de ces routes, mais aussi le long des routes (panneaux différents).

Donc si le système n'est pas capable de faire la différence, c'est que le système n'est vraiment pas au point. Surtout qu'il a en plus la possibilité de se baser sur le GPS pour ça... À peu près toutes les bases cartographiques font à quelques erreurs près la distinction entre les différents types de routes.

Ensuite, comme déjà évoqué plusieurs fois plus haut, il y a le cas des lignes au bord de la route. Là tu ne peux pas sérieusement prétendre que le système n'est pas capable de détecter l'absence de ces lignes... C'est vraiment pas compliqué à gérer, dès que le système ne détecte pas les lignes, hop, alarme et si au bout de 30s le conducteur n'a pas débrayé le pilotage automatique allumage des warnings et arrêt de la voiture.

Désolé, mais dans des cas comme ça, laisser les voitures se crasher et dire ensuite "c'est pas notre faute, c'est l'utilisateur qui a pas respecté les consignes", c'est ridicule. Bien entendu, c'est ridicule aussi de dire que le conducteur n'a aucune responsabilité, mais il me semble quand même normal de faire porter la responsabilité aux deux.

Même dans un avion, piloté par un professionnel entrainé, le pilotage automatique se débraye automatiquement lors que les conditions ne sont pas adaptées à son utilisation !


--------------------

Go to the top of the page
 
+Quote Post
castor74
posté 14 Jul 2016, 17:46
Message #25


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 380
Inscrit : 1 Apr 2004
Lieu : 74
Membre no 17 041



Au sujet des sondes Pitot, il faut apporter une précision. Il y a deux types principaux de sondes Pitot, celles fabriquées par Thales, qui équipaient (ou équipent toujours) une bonne partie de la flotte d'Air France par exemple, et qui ont mauvaise réputation. Et puis les sondes Goodrich, de fabrication américaine, bien meilleures selon les pilotes... mais qui peinent à trouver grâce chez certains constructeurs. Certains avions sont par ailleurs équipés de sondes rétractables (donc non gelées, par exemple), ce qui permet d'y faire appel en cas de panne des autres sondes.


--------------------
Apprentissage typo plomb en 1973 ;-) - PAO pro pendant 27 ans (début sur CRTronic 200) - Sur Mac depuis 1989 (Mac IIx jusqu'à PPC G5 2 x 2.3 Ghz) • Matériel perso: iMac Intel Core 2 Duo 20" - OS X 10.6.8 et El Capitan - CS2.3 - LiveBox Sagem • iMac DV 400 - OS 9.1 • iBook G3 Graphite - OS 9.2/10.2.8 • MacBook 13" OS 10.6.8 | Photo: Nikon D90 - 18-200 VR II - VR 105 Macro f:2.8 - Micro Nikkor 60 mm f:2.8 - Mon site mycologique
Go to the top of the page
 
+Quote Post
bzzzt
posté 14 Jul 2016, 18:19
Message #26


Adepte de Macbidouille
*

Groupe : Membres
Messages : 210
Inscrit : 31 Jan 2012
Membre no 174 248



Citation (SartMatt @ 14 Jul 2016, 18:41) *
Citation (bzzzt @ 14 Jul 2016, 18:16) *
Detecter une "situation normale" d'utilisation est à priori impossible ou très complexe (faire la différence entre une voie rapide avec des bretelles d'acces ou une route normale à plusieurs voix dans certains cas c'est impossible), c'est au conducteur de prendre ses responsabilités.
Dans l'écrasante majorité des pays développés, faire la différence entre une voie rapide à brettelles et une route classiques à plusieurs voies est simple dans la plupart des cas : la limitation de vitesse n'est pas la même. En France par exemple, si la limite est à plus de 90 km/h, c'est forcément qu'on est sur une voie rapide avec des bretelles.
La signalisation est également différente, en entrée de ces routes, mais aussi le long des routes (panneaux différents).

Donc si le système n'est pas capable de faire la différence, c'est que le système n'est vraiment pas au point. Surtout qu'il a en plus la possibilité de se baser sur le GPS pour ça... À peu près toutes les bases cartographiques font à quelques erreurs près la distinction entre les différents types de routes.

Ensuite, comme déjà évoqué plusieurs fois plus haut, il y a le cas des lignes au bord de la route. Là tu ne peux pas sérieusement prétendre que le système n'est pas capable de détecter l'absence de ces lignes... C'est vraiment pas compliqué à gérer, dès que le système ne détecte pas les lignes, hop, alarme et si au bout de 30s le conducteur n'a pas débrayé le pilotage automatique allumage des warnings et arrêt de la voiture.

Désolé, mais dans des cas comme ça, laisser les voitures se crasher et dire ensuite "c'est pas notre faute, c'est l'utilisateur qui a pas respecté les consignes", c'est ridicule. Bien entendu, c'est ridicule aussi de dire que le conducteur n'a aucune responsabilité, mais il me semble quand même normal de faire porter la responsabilité aux deux.

Même dans un avion, piloté par un professionnel entrainé, le pilotage automatique se débraye automatiquement lors que les conditions ne sont pas adaptées à son utilisation !

D'après ce que j'ai compris l'autopilote refuse déjà de s'enclencher en l'absence de lignes blanches des deux cotés de la voix. Pour ce qui est de faire la différence entre plusieurs types de voix, on déduit de plusieurs indices le type de route sur laquelle on est, la limite de vitesse n'est donnée que ponctuellement, et ne suffit pas (une voix rapide peut être limitée à 90 par exemple). Il y a plein de situation ou c'est à peu près impossible à dire. LE gps peut aider c'est vrai. Un truc que je savais pas par contre, c'est que le conducteur qui a eu l'accident (et qui y est passé quand même), était bien sur une voix rapide, ce qui pose la question de savoir pourquoi un camion s'est mis à traverser l'autoroute, une situation de toute façon extrêmement dangereuse. La où je veux en venir c'est que Tesla ou d'autres auront beau prendre toutes les précautions du monde, il y aura toujours des accidents et des morts, comme il y en a toujours eu sur les routes. c'est par contre tout à fait probable que ça puisse sauver des vies dans d'autres situations. Si par contre le conducteur avait été vigilant comme il aurait du il aurait peut être évité cette fin tragique. Sans parler du fait que des aides à la conduite, on en a plein depuis quelques années (abs, afu, stabilisateur de vitesse...), et on aurait jamais eu l'idée d'accuser le constructeur en cas d'accident (un stabilisateur de vitesse c'est déja confier la moitié de l'autonomie à la voiture, c'est à peine different de ce dont on parle).
Go to the top of the page
 
+Quote Post
castor74
posté 14 Jul 2016, 18:31
Message #27


Macbidouilleur d'Or !
*****

Groupe : Membres
Messages : 7 380
Inscrit : 1 Apr 2004
Lieu : 74
Membre no 17 041



Voie et pas voix. Merci de corriger pour une meilleure compréhension du texte... rolleyes.gif


--------------------
Apprentissage typo plomb en 1973 ;-) - PAO pro pendant 27 ans (début sur CRTronic 200) - Sur Mac depuis 1989 (Mac IIx jusqu'à PPC G5 2 x 2.3 Ghz) • Matériel perso: iMac Intel Core 2 Duo 20" - OS X 10.6.8 et El Capitan - CS2.3 - LiveBox Sagem • iMac DV 400 - OS 9.1 • iBook G3 Graphite - OS 9.2/10.2.8 • MacBook 13" OS 10.6.8 | Photo: Nikon D90 - 18-200 VR II - VR 105 Macro f:2.8 - Micro Nikkor 60 mm f:2.8 - Mon site mycologique
Go to the top of the page
 
+Quote Post
SartMatt
posté 14 Jul 2016, 18:40
Message #28


Macbidouilleur d'Or !
*****

Groupe : Rédacteurs
Messages : 32 187
Inscrit : 15 Nov 2005
Membre no 49 996



Citation (bzzzt @ 14 Jul 2016, 19:19) *
la limite de vitesse n'est donnée que ponctuellement, et ne suffit pas (une voix rapide peut être limitée à 90 par exemple)
Elle suffit dans l'autre sens : si la vitesse limitée est supérieure à 90, alors on est sur une voie sur laquelle l'autopilote peut être utilisée.

Et si la limite est inférieure, dans le doute, on n'active pas : c'est que soit on n'est pas sur une voie rapide, soit on est sur une voie rapide qui a été jugée inadaptée aux hautes vitesses par les autorités (en général pour des questions de densité du trafic), donc mieux vaut ne pas y utiliser un système de pilotage automatique encore en beta test...

Bref, le fonctionnement raisonnable serait bien de n'activer que quand le système est sûr que les conditions sont réunies, quitte à empêcher parfois de l'activer alors qu'elles sont réunies, plutôt que de laisser l'activer n'importe quand, au risque que l'utilisateur l'active souvent dans des cas pour lesquels il n'est absolument pas prévu...

Citation (bzzzt @ 14 Jul 2016, 19:19) *
Si par contre le conducteur avait été vigilant comme il aurait du il aurait peut être évité cette fin tragique.
Yep. Mais le fond du problème, c'est justement que l'autopilote, malgré les avertissements du constructeur, incite fortement à manquer de vigilance, et les systèmes de contrôles vérifiant la vigilance du conducteur quand ce mode est activé sont insuffisants.

Ça fait des années qu'on sait que des aides aussi basique que le régulateur de vitesse ont tendance à diminuer la vigilance, alors mettre sur le marché un truc comme l'autopilote en comptant sur le fait que les conducteurs resteront vigilants, c'est de l'inconscience.

Citation (bzzzt @ 14 Jul 2016, 19:19) *
Sans parler du fait que des aides à la conduite, on en a plein depuis quelques années (abs, afu, stabilisateur de vitesse...), et on aurait jamais eu l'idée d'accuser le constructeur en cas d'accident
Et pourtant, c'est bien le cas. Si une défaillance technique de ces assistance a joué un rôle dans l'accident, la responsabilité du constructeur est bel et bien engagée (exemple : http://www.caradisiac.com/Accident-Volvo-c...0-EUR-22330.htm). Et elle le sera forcément encore plus avec les pilotage automatique : contrairement à la plupart des aides actuelles qui ne font qu'un intermédiaire entre les ordres du conducteur et la mécanique, le pilotage autonome prend lui même des décisions.

Volvo qui a d'ailleurs d'ores et déjà annoncé qu'il engagera sa responsabilité en cas d'accident avec ses futures voitures autonomes.


--------------------

Go to the top of the page
 
+Quote Post
bzzzt
posté 14 Jul 2016, 23:20
Message #29


Adepte de Macbidouille
*

Groupe : Membres
Messages : 210
Inscrit : 31 Jan 2012
Membre no 174 248



un truc que je viens de comprendre, c'est que l'accident a eu lieu sur une "highway" américaine, où les gens peuvent traverser la route à la perpendiculaire comme à un carrefour (ce qui me semble hyper dangereux d'ailleurs), ce type de voie n'as pas d’équivalent ici, d'où ma confusion (les autoroutes de chez nous seraient des "freeway" là bas). Du coup dans ces conditions ça me parait logique que la fonction autopilot devrait être interdite sauf sur les routes où l'accès se fait par des entrées/sorties. Après tout le mode "autopilot" ne gère que des routes en lignes droites sans croisements, et les dépassements de voiture qui vont dans le meme sens, toutes les autres situations ne sont pas prévues.
Go to the top of the page
 
+Quote Post

Reply to this topicStart new topic
1 utilisateur(s) sur ce sujet (1 invité(s) et 0 utilisateur(s) anonyme(s))
0 membre(s) :

 



Nous sommes le : 26th April 2024 - 10:54