Un banal (et évidemment dramatique) accident mortel de la circulation qui prend une tout autre proportion quand un système, toujours en phase bêta, est pointé comme éventuel coupable… Voici les derniers développements autour de l’accident qui a coûté la vie à un conducteur d’une Model S.
Après qu’une commission du sénat américain avait exhorté Tesla à fournir des explications sur son système AutoPilot, le rapport préliminaire livré par le NTSB permettait de prendre connaissance de premières données factuelles. Dont celle confirmant que l’homme décédé suite à l’accident de sa berline zéro émission roulait à une vitesse supérieure à celle autorisée sur la portion de route concernée.
Une commission du sénat US (transport, science et commerce) demandait alors à Tesla de lui fournir un premier rapport (suite aux données récoltées) tout en précisant intégralement le système AutoPilot et ses caractéristiques.
En résumé, l’AutoPilot Tesla (alors branché) était il LE coupable dans cet accident mortel de la circulation. Selon les éléments recueillis par Reuters, Tesla a (surprenant ?) confirmé l’absence concrète de cause à effet entre l’AutoPilot et l’accident (et / ou vice-versa).
La réponse de Tesla ouvrirait deux nouvelles explications, deux hypothèses, que les enquêtes en cours infirmeront ou confirmeront. Elles pointent avant tout, surtout, un défaut du système de freinage automatique en cas d’urgence.
Ce système de freinage automatique en cas d’urgence (via caméra et ou radar) n’aurait pas (ou mal interprété : piste menant à un pont ou une à un panneau de signalisation) détecté la remorque. On évoque aussi une mauvaise interprétation et combinaison de trois facteurs : la météo, la luminosité et la couleur blanche de la remorque.
Tesla rappelle que l’AutoPilot ne fonctionne pas de concert avec ce système de freinage automatique en cas d’urgence. Défaillance des radar et caméra ou du système de freinage automatique en cas d’urgence, la berline Model S s’est encastrée sans freinage aussi bien du conducteur que de cette béquille électronique.
Il s’agit donc des conclusions apportées par Tesla suite à la requête de cette commission du sénat. Il n’est pas encore question des conclusions officielles des enquêtes en cours du côté de la NHTSA comme du NTSB ou de la police.
Source : Reuters.
Crédit illustration : Florida Highway Patrol.
Poster un Commentaire
14 Commentaires sur "Accident mortel de la Tesla Model S : les derniers développements"
qui peut croire qu’un systeme autopilot peut etre fiable à 100% ?
Lancer un logiciel en bêta, on peut le comprendre, on attend le retour du client, on voit ce qui marche, ce qui ne marche pas et ce qui plante…..etc, le seul truc qui peut crasher c’est le système, mais là utiliser des personnes (qui payent pour rouler en tesla) comme de vulgaires crash test dummies…..Y’a un truc qui cloche.
Je ne remet pas en doute l’utilité d’une voiture autonome mème si pour mon cas je serai plutôt à classer du coté des réacs mais là, le produit n’est pas finalisé et on ment sur le produit (marketing) ou on laisse croire que…
Pour ma part, cela me ferait flipper si on me demandait de voyager en airbus en bêta de niveau 2,3 ou 4…..Pas toi?
Je pense qu’un produit bien finalisé est profitable pour tous, autant pour les utilisateurs que pour l’entreprise mème si cela augmente les coûts mais au final sera gagnante sur le long terme.
On est d’accord SGL, techniquement c’est faisable puisque l’aéronautique y arrive mais c’est juste une histoire de coûts.
Au sujet du nom, là également, le terme d’autopilot est bien trompeur donc par extension je pense que Elon Musk quand il a validé ce nom le savait. Tout en sachant que chaque clients peuvent être de tempérament différend, ceux qui font les kékés, les posés ou ce qui peuvent conduire sous stupéfiants comme dit plus sur un de tes posts Thibaut.
Le métro sur les lignes 14 et 1 est entièrement automatisé, c’est à dire sans conducteur … et sans accident. Je sais, avec les rails c’est plus facile et le risque est moindre néanmoins personne ne rechigne à monter dans un train piloté … par personne.
L’explication de Tesla fait limite peur car s’il est incapable de monter un système de freinage automatique en cas d’urgence, une technologie maîtrisée par n’importe lequel de ses confrères, qui fonctionne bien, il risque d’avoir du mal à nous faire croire que la conduite semi-autonome, c’est son dada comme disait l’autre. 😉
La majorité des systèmes existants sont conçus pour la ville et se désactivent au dessus de 30km/h..
Les systèmes fonctionnant à des vitesses routières / autoroutières servent majoritairement à ralentir le véhicule le temps que le conducteur réagisse, et ne sont pas conçus pour arrêter la voiture de manière autonomie (même le Pre-Safe de Mercedes, pourtant une option chère sur une voiture HDG).
Quant aux très rares systèmes 100% autonomes, ils ne sont pas infaillibles du tout.
Cool : en gros ce n’est pas le système Autopilot qui est en cause, mais celui du freinage automatique. Une façon de rejeter la faute sur un système un peu moins important du point de vue marketing peut être..? 😉
Autopilot qui roule trop vite?
Autopilot sans freinage d’urgence?
Autopilot qui ne détecte pas les obstacles?