L’enquête de sécurité Tesla Autopilot menée par la NHTSA est en voie d’achèvement
Une enquête pluriannuelle sur la sécurité des systèmes d’aide à la conduite de Tesla menée par la National Highway Traffic Safety Administration, ou NHTSA, touche à sa fin.
David Shepardson de Reuters a rendu compte pour la première fois des derniers développements jeudi, citant l’administratrice par intérim de la NHTSA, Ann Carlson. CNBC a confirmé le rapport auprès des régulateurs fédéraux de la sécurité des véhicules.
Un porte-parole de la NHTSA a refusé de divulguer plus de détails, mais a déclaré à CNBC dans un e-mail : « Nous confirmons les commentaires à Reuters » et « les enquêtes de la NHTSA sur Tesla restent ouvertes et l’agence ne commente généralement pas les enquêtes ouvertes ».
L’agence a lancé une enquête de sécurité sur les systèmes d’aide à la conduite de Tesla – désormais commercialisés aux États-Unis sous les noms d’options de pilote automatique, de conduite entièrement autonome et de FSD bêta – en 2021 après avoir identifié une série d’accidents dans lesquels des conducteurs de Tesla, soupçonnés d’utiliser le conducteur de l’entreprise. systèmes d’assistance, s’est écrasé sur les véhicules à l’arrêt des premiers intervenants.
Malgré leurs noms, aucune des fonctionnalités d’aide à la conduite de Tesla ne rend leurs voitures autonomes. Les voitures Tesla ne peuvent pas fonctionner comme des robots-taxis comme ceux exploités par Moteurs générauxCroisière appartenant à un propriétaire ou AlphabetC’est Waymo. Au lieu de cela, les véhicules Tesla nécessitent un conducteur humain au volant, prêt à diriger ou à freiner à tout moment. Les systèmes de pilote automatique standard et de conduite entièrement autonome haut de gamme de Tesla ne contrôlent le freinage, la direction et l’accélération que dans des circonstances limitées.
Le PDG de Tesla, Elon Musk – qui possède et gère également le réseau social X (anciennement Twitter) – laisse souvent entendre que les voitures Tesla sont autonomes. Par exemple, le 23 juillet, un ancien employé de Tesla qui dirigeait l’ingénierie logicielle d’intelligence artificielle de l’entreprise a publié sur le réseau social ChatGPT et combien cet outil d’IA générative a impressionné ses parents lorsqu’il le leur a montré pour la première fois. Musk a répondu sur X: « La même chose se produit avec Tesla FSD. J’oublie que la plupart des gens sur Terre n’ont aucune idée que les voitures peuvent conduire elles-mêmes. »
Dans ses manuels d’utilisation, Tesla indique aux conducteurs qui utilisent le pilote automatique ou le FSD : « Gardez les mains sur le volant à tout moment et soyez attentif aux conditions de la route, à la circulation environnante et aux autres usagers de la route (tels que les piétons et les cyclistes). Soyez toujours prêt à prendre des mesures immédiates. suivre ces instructions pourrait provoquer des dommages, des blessures graves, voire la mort.
Les voitures de l’entreprise sont équipées d’un système de surveillance du conducteur qui utilise des caméras embarquées et des capteurs dans le volant pour détecter si un conducteur prête suffisamment attention à la route et à sa tâche de conduite. Le système « harcelera » les conducteurs avec un carillon et un message sur l’écran tactile de la voiture pour qu’ils soient attentifs et mettent les mains sur le volant. Mais il n’est pas clair qu’il s’agisse d’un système suffisamment puissant pour garantir une utilisation sûre des fonctionnalités d’aide à la conduite de Tesla.
Tesla a déjà procédé à des rappels volontaires de ses voitures en raison d’autres problèmes avec le pilote automatique et la version bêta de FSD et a promis de fournir des mises à jour logicielles en direct qui remédieraient à ces problèmes. Mais en juillet, l’agence a demandé au constructeur automobile d’Elon Musk d’envoyer des données plus détaillées sur les performances de ses systèmes d’aide à la conduite pour les évaluer dans le cadre de ses enquêtes de sécurité sur le pilote automatique.
La NHTSA publie régulièrement des données sur les accidents de voiture aux États-Unis impliquant des systèmes avancés d’aide à la conduite tels que Tesla Autopilot, Full Self Driving ou FSD Beta, surnommés « niveau 2 » selon les normes industrielles de SAE International.
Les dernières données de cela rapport d’accident affirme qu’il y a eu au moins 26 incidents impliquant des voitures Tesla équipées de systèmes de niveau 2, entraînant des décès entre le 1er août 2019 et la mi-juillet de cette année. Dans 23 de ces incidents, selon le rapport de l’agence, les fonctions d’assistance à la conduite de Tesla étaient utilisées dans les 30 secondes suivant la collision. Dans trois incidents, on ne sait pas si ces fonctionnalités ont été utilisées.
Moteur Ford est le seul autre constructeur automobile à signaler une collision mortelle impliquant l’un de ses véhicules équipés d’une assistance à la conduite de niveau 2. On ne savait pas si le système était activé avant cet accident, selon le rapport de la NHTSA.
Tesla n’a pas répondu à une demande de commentaire.