Des données majeures pour analyser les accidents
On savait déjà que les voitures Tesla stockaient les données des accidents, mais l’Institut médicolégal des Pays-Bas (NFI) a déclaré avoir découvert beaucoup plus de données que les enquêteurs n’en avaient auparavant.
Le NFI a ainsi indiqué que les données décryptées montraient que les véhicules Tesla stockaient des informations sur le fonctionnement de son système d’aide à la conduite, connu sous le nom d’Autopilot.
Les véhicules enregistrent la vitesse, la position de la pédale d’accélérateur, l’angle du volant et l’utilisation des freins, et selon l’utilisation du véhicule, ces données peuvent être stockées pendant plus d’un an.
« Ces données contiennent une mine d’informations pour les enquêteurs médico-légaux et les analystes des accidents de la circulation et peuvent aider à une enquête criminelle après un accident de la route mortel ou un accident avec blessures », a déclaré Francis Hoogendijk, enquêteur au NFI, dans un communiqué.
Rétro-conception pour établissement de données
Le laboratoire néerlandais a déclaré qu’au lieu de rechercher les données auprès de Tesla, il disposait de journaux de données « rétro-conçus » – un processus dans lequel le logiciel est exploité pour extraire des informations – présents dans les véhicules Tesla « afin d’enquêter dessus de manière objective ».
Le NFI a déclaré avoir obtenu des données des Tesla Model S, Y, X et 3 et a partagé les résultats lors d’une conférence de l’Association européenne pour la recherche sur les accidents afin que d’autres analystes puissent les utiliser.
Tesla ne fournit pas toutes ses données
Le NFI a constaté que Tesla s’était conformé aux demandes de données des autorités néerlandaises, mais a omis de nombreuses données qui auraient pu s’avérer utiles.
« Tesla ne fournit qu’un sous-ensemble spécifique d’informations uniquement ceux demandés, pour une période spécifique, alors que les fichiers journaux contiennent tous les signaux enregistrés », indique le rapport du NFI.
En déchiffrant le code de Tesla, le NFI en sait désormais plus sur le type de données stockées par le constructeur automobile et la durée de stockage, ouvrant la voie à des demandes de données plus détaillées.
« Vous ne pouvez pas revendiquer ce que vous ne savez pas, il est donc utile que nous sachions maintenant ce qui est stocké d’autre », a déclaré Hoogendijk. Ajoutant que sa remarque valait également pour d’autres constructeurs automobiles, car les enquêteurs ne savent tout simplement pas combien et quel type de données les constructeurs stockent et pendant combien de temps.
Enquête du NFI sur une collision impliquant un véhicule Tesla
Le NFI a enquêté sur une collision impliquant un conducteur de Tesla utilisant le pilote automatique et une voiture devant lui qui a freiné soudainement brutalement.
L’enquête a montré que le conducteur de Tesla avait réagi dans le temps de réponse prévu à un avertissement pour reprendre le contrôle de la voiture, mais que la collision s’est produite parce que la Tesla suivait de trop près l’autre véhicule dans une circulation dense.
Ce qui engendre un débat : « qui est responsable du maintien de la distance : la voiture ou le conducteur ? » s’interroge l’enquêteur du NFI Aart Spek.
Tesla crypte les données
Le NFI a par ailleurs indiqué que Tesla cryptait ses données de conduite pour protéger sa technologie des autres fabricants et protéger la vie privée des conducteurs. Les propriétaires de voitures peuvent demander leurs données, y compris les images de la caméra, en cas d’accident.
Selon le laboratoire, Tesla a un accès à distance aux données, qui sont périodiquement téléchargées à partir des voitures et utilisées par l’entreprise pour améliorer les produits ou pour corriger les dysfonctionnements.
Dans le courant de l’année, Tesla a déclaré avoir créé un site en Chine pour stocker localement les données des voitures, alors que les constructeurs automobiles étaient de plus en plus surveillés sur la façon dont ils traitaient les informations collectées par les caméras et les capteurs des véhicules.
Enquête de la NHTSA
En août, la National Highway Traffic Safety Administration (NHTSA/ États-Unis) a ouvert une enquête officielle sur le système de pilote automatique de Tesla dans 765 000 véhicules américains après une série d’accidents impliquant des modèles Tesla et des véhicules d’urgence.
À ce jour, la NHTSA a identifié 12 accidents impliquant des véhicules Tesla utilisant les systèmes avancés d’aide à la conduite et les véhicules d’urgence. La NHTSA a déclaré que la plupart des incidents avaient eu lieu après la tombée de la nuit.
Notre avis, par leblogauto.com
Cette information voit le jour alors que Tesla a annoncé mercredi avoir multiplié par plus de quatre son bénéfice net au troisième trimestre à la faveur d’une forte progression de ses ventes.
L’entreprise dirigée par le fougueux Elon Musk est parvenu à accroître sa production malgré la pénurie de puces électroniques et les difficultés d’approvisionnement en certains produits.
Le chiffre d’affaires de l’entreprise a atteint 13,76 milliards de dollars, en hausse de 57% et supérieur aux prévisions des analystes, lesquels tablaient sur 13,62 milliards.
Le bénéfice net de la société a atteint 1,6 milliard de dollars sur la période.
La hausse du bénéfice d’exploitation est « principalement liée à la croissance du volume de véhicules et à la réduction des coûts », a souligné Tesla.
Sources : Reuters, AFP
La rubrique « notre avis » n’a aucun rapport avec l’article.
Qui est responsable? Bien sûr le conducteur qui ne connaissait peut être pas forcément les subtilités et les risques de l utilisation de son autopilot.
Tellement facile ( et américain!) de blâmer autrui et trouver d autres responsables.
A la lecture de cet article on constate que :
– le labo a carrément piraté les données de la voiture. Ce n’est pas bien, mais ça reste un hack « éthique »
– les données stockées par une Tesla sont piratables. Et là c’est carrément pas bien du tout, surtout pour une entreprise qui se vante d’être top of the top au niveau informatique, et prétend de ce fait arriver rapidement à des systèmes totalement autonomes. Leur crédibilité en prend un sacré coup
Mais si vous voyez bien que ce qui est reproché au vilain Tesla c’est justement de chiffrer les données. Blague à part, l’article est complètement biaisé par le ressentiment inexpliqué que nourrit l’auteur contre Tesla depuis des années. Maintenant que la tirade sur la faillite imminente a fait long feu on passe au thème « Tesla cache des choses » alors qu’il s’agit de protections informatiques élémentaires et qui, au contraire, ne sont pas encore suffisantes puisque maintenant piratables.
En quoi c’est biaisé ?
J’ai lu l’article et découvert des faits que je ne connaissais pas. Perso, Tesla m’indiffère presque totalement (presque, parce que je trouve que la Model S a de la gueule), j’ai pas l’impression d’avoir lu un article à charge.
Ca soulève plutôt des questions :
Pourquoi la firme ne fournit que certaines données et pas toutes (je ne parle pas du code source du logiciel mais les infos de conduite) ?
Pourquoi le pilotage automatique, qui utilise des caméras et un radar frontal, fonctionne mal la nuit, d’après les observations de la NHTSA ?
En ce cas, est-ce que le pilotage auto ne devrait pas être déconnecté la nuit ?
Vu les freinages fantômes et le comportement bizarre du régulateur actif, je n’imagine même pas essayer la conduite autonome…
Je regrette le bon vieux régulateur qui maintientla vitesse tant qu’on a pas freiné ou désengagé la commande.
S’il y a bien un point nul sur ma model3 c’est bien ça !
« – les données stockées par une Tesla sont piratables. »
A partir du moment où des données sont stockées sur un support accessible par internet, ou qu’on a un accès physique à ce support, elles sont piratables. Je ne vois rien de choquant là-dedans, c’est un fait, ça l’a toujours été et ça le sera toujours.
Ce qui engendre un débat : « qui est responsable du maintien de la distance : la voiture ou le conducteur ? » s’interroge l’enquêteur du NFI Aart Spek.
Cette question démontre bien la méconnaissance totale du système d’autopilot de Tesla, car ce que j’ai vu à plusieurs reprises dans des vidéos de propriétaires de Tesla c’est bien le pilote qui règle la distance de sécurité. En conséquence si l’enquêteur estime que cette distance était trop courte, la responsabilité en incombe au conducteur qui l’a réglé ainsi.
La responsabilité du constructeur ne pourrait être engagée que si cette distance était réglée sur la plus grande distance possible.
Big Elon is watching you!
Est ce que les fdo ont accès aux données de manières simples ?
La reponse est dans l’article. Un indice? Le 3e titre de paragraphe.