Accueil Nouvelles technologies Accident Uber : paramétrage de l’autonomie mortifère

Accident Uber : paramétrage de l’autonomie mortifère

932
10
PARTAGER
uber volvo xc90

Le décès accidentel d’une personne, causé par un véhicule autonome de Uber, ne serait pas dû à un manque de visibilité de la voiture mais au paramétrage de son logiciel. Le système aurait en effet choisi de ne pas éviter la collision. C’est en tout cas ce qu’indique le site américain The Information, citant des sources proches du dossier.

Réglage des faux-positifs : tout un art

Si les capteurs du véhicule ont bien détecté la piétonne en train de traverser la route, le logiciel d’Uber aurait décidé de ne pas réagir immédiatement.

Selon The Information, cette décision est la résultante d’un paramétrage logiciel offrant au véhicule autonome une large « tolérance » pour ignorer  de « faux positifs », c’est-à-dire des obstacles potentiels – en les estimant non significatifs – tel, par exemple, un sac en plastique qui volerait sur la route. Au contraire, ces événements ne doivent pas déclencher de surréaction du véhicule qui pourrait mettre en danger des passants ou le conducteur.

Un réglage trop permissif

Les nombreux capteurs qui équipent les taxis autonomes de Uber actuellement en test sont parfaitement adaptés à une vision nocturne. La mise en œuvre conjointe de caméras, lidars et radars est en effet infiniment plus puissante que l’œil humain.

Mais l’équipe qui a mis au point le logiciel du véhicule a semble-t-il été trop permissive. Le réglage – pas assez fin – a abouti à un certain manque de réactivité du véhicule face à l’événement. Car au final, les capteurs n’ont pas identifié la piétonne comme une personne, mais comme un objet sans danger potentiel, qu’il ne convient pas d’éviter à tout prix.

Si la voiture a bien vu la piétonne poussant son vélo sur une voie rapide, le logiciel qui l’équipe n’a pas choisi d’ajuster sa trajectoire ou de freiner. L’élément visualisé a été considéré comme ne présentant pas de danger immédiat.

Suspension des tests

Rappelons que suite à cet accident mortel, Uber avait annoncé la suspension de l’expérience menée avec les véhicules autonomes en cours dans les villes de Pittsburgh, Phoenix, San Francisco et Toronto au Canada.  Plus largement, la collision avait semé le doute sur la sécurité liée aux véhicules autonomes et à leur danger potentiel.

Le site Quartz affirme quant à lui que les voitures autonomes Uber ont été impliquées dans de multiples incidents depuis leur introduction dans les rues de Pittsburgh (Pennsylvanie) fin 2016.

Sources : Quartz, The Information, Reuters

Crédit Illustration : Uber

Poster un Commentaire

10 Commentaires sur "Accident Uber : paramétrage de l’autonomie mortifère"

Notification de
avatar
Trier par:   plus récent | plus ancien | plus de votes
Thibaut Emme
Admin

Donc le démon n’est pas l’IA elle-même mais l’ingé qui, sous ordres, a décidé de ne pas prendre en compte les « faux-positifs ».
D’autres sont réglés plus drastiquement (comme la Mustang qui a tendance à freiner de très loin).

KifKif
Invité

Terminologie :
Faux Positif => Considéré dangereux à tord
Faux Négatif => Considéré inoffensif à tord

Alors cela se complique, ici, considérant un Vrai Positif comme un Faux Positif qu’ils espéraient être Vrai Négatif ils ont eu un Faux Négatif…

Bon c’est le moment de prendre les Alka-Seltzer, à pousser avec une triple dose de whisky 😉

Guillaume D.
Invité

Sans vouloir dédouaner les équipes de développement, certes, elles ont peut-être agi ainsi par fainéantise ou incompétence, mais on peut aussi penser que les ingénieurs ont dû faire des compromis parce que les capteurs présents ne sont pas assez précis!
Soit la technologie n’est pas assez mature (ce qui serait alors assez inquiétant de savoir qu’on lance des véhicules avec des conducteurs/passagers qui ne sont pas des personnes expérimentées – ce qui est le cas dans cet accident), soit la technologie existe, mais pour obtenir un niveau de précision satisfaisant, il faudrait considérer des coûts bien plus élevé!

Thibaut Emme
Admin
Toyota utilise un lidar et des capteurs suffisamment précis pour savoir de quel côté regarde un piéton. Les faux-positifs arrivent souvent avec les piétons qui ne bougent pas sur le trottoir. Un piéton qui regarde vers la route, danger (tout le monde le sait et a tendance à se tenir prêt). Piéton qui regarde à l’opposé de la route, on est déjà plus tranquille. Enfin bref, avec la batterie de capteurs qu’ils ont, il y a forcément un souci. Car à 60m (les capteurs portent normalement à plus de 100m) même un « objet » non dangereux qui semble filer tout droit… Lire la suite >>
Why
Invité

Les avions sont certifiés, suivant des protocoles de justification et de tests drastiques et standardisés , par une autorité indépendante.
Je ne comprends pas comment il n’en est pas de même pour les voitures autonomes . Ne laissons pas les inges décider du bon paramétrage.

Nico
Invité

Étant pilote moi même, il y a une variable importante à prendre en compte, même lors d un atterrissage automatique, nous sommes 2 pilotes à surveiller l autopilot, nous avons un entraînement tout les 6 mois, et savons exactement ce qu est sensé faire l autopilot aux différentes altitudes et quels modes doivent être activés. Quelle formation pour les conducteurs de véhicules autonomes?

Michel
Invité

On peut ajouter aussi que le ciel est plus vaste et qu’il y a moins d’aéronefs au kilomètre cube que de voitures au mètre carré

georges
Invité

L’excuse est facile, c’est plus un problème matériel, capteur, puissance de calcul, logiciel.
Bref pas encore mature, la course à la pub gratuite vient donc de tuer.
Pour l’heure il n’y a pas une once d’intelligence artificiel dans cette voiture.
Un vrai conducteur aurait très bien pu voir la cycliste, juste par une vision partielle de la personne qui aurai attiré son attention, puis permis de la détecter ou de ralentir par précaution (ça c’est de l’intelligence). !!!!

wpDiscuz