ANN ARBOR, Michigan — À une époque où l’on s’inquiète de plus en plus de la sécurité des véhicules autonomes, un éminent expert appelle le gouvernement fédéral à élaborer un examen de conduite national que ces véhicules devraient réussir avant de pouvoir circuler sur la voie publique.
Une telle réglementation fixerait des normes minimales pour garantir que les véhicules font preuve d’aptitudes et de compétences de base dans les situations de circulation où leurs constructeurs souhaitent les utiliser, a déclaré Henry Liu, qui dirige le centre d’essais de véhicules autonomes de l’Université du Michigan.
« Garantir la sécurité est important pour les consommateurs, pour les développeurs de véhicules autonomes, ainsi que pour le gouvernement fédéral », a déclaré Liu dans une interview. « Le gouvernement fédéral a la responsabilité d’aider à établir la norme minimale et de fournir des orientations en termes de tests de sécurité. »
Ces dernières années, les véhicules autonomes ont été impliqués dans un certain nombre d’accidents très médiatisés, et des enquêtes ont révélé une incertitude généralisée du public quant à leur sécurité. Des tests réussis sur la capacité des véhicules à maîtriser diverses situations de circulation, a suggéré Liu, renforceraient la confiance du public à leur égard.
Liu a déclaré que d’importantes recherches sont encore nécessaires avant que les véhicules autonomes puissent être déployés en toute sécurité à l’échelle nationale. Mais il a déclaré qu’il était d’accord avec leurs constructeurs sur le fait qu’à long terme, les véhicules autonomes pourraient potentiellement sauver des vies et améliorer l’efficacité du système de transport du pays.
À l’heure actuelle, aucune réglementation fédérale spécifique ne couvre les véhicules autonomes, et seuls quelques États ont leurs propres exigences de ce type. La National Highway Traffic Safety Administration, qui fait partie du ministère des Transports, a collecté des données sur les accidents impliquant des véhicules autonomes. Mais jusqu’à présent, il n’a publié que des lignes directrices volontaires qui n’incluent pas les examens de conduite.
Des messages ont été laissés mardi sollicitant les commentaires du ministère des Transports.
Les voitures autonomes doivent toujours répondre aux normes de sécurité fédérales qui s’appliquent à tous les véhicules de tourisme, ce qui signifie que le gouvernement n’enquête sur elles qu’après des incidents graves.
« Notre réglementation actuelle en matière de sécurité des véhicules est réactive, nous dépendons donc de l’autorégulation », a déclaré Liu.
Au centre d’essais de l’Université du Michigan, Liu dirige une ville fictive, appelée Mcity, contenant un feu de circulation et un rond-point utilisé par les entreprises et le gouvernement pour tester les véhicules autonomes.
Une réglementation, ou peut-être un test volontaire, est nécessaire car « nous ne voulons pas créer de danger public », a déclaré Liu, qui a fait ses remarques mardi et a annoncé que Mcity pouvait désormais être utilisé par les chercheurs à distance.
Liu a suggéré qu’un examen de conduite soit capable de déterminer si un véhicule autonome peut tourner à gauche à une intersection sans la protection d’un feu de circulation avec une flèche verte. Il a ajouté qu’il faudrait également garantir que le véhicule s’arrêtera à un panneau d’arrêt et détectera et cédera le passage à un petit piéton traversant une route.
Un test, a-t-il déclaré, empêcherait qu’un véhicule robot peu performant soit abandonné à la société, tout comme un test de conduite humaine empêcherait un conducteur incompétent de prendre la route. Mais il a reconnu qu’aucun test ne pourrait empêcher tous les accidents impliquant des véhicules autonomes.
Les tests de conduite, a déclaré Liu, aideraient les développeurs de véhicules robots « de sorte que lorsqu’ils s’installeront aux États-Unis, dans certaines villes, ils seront confrontés à moins de résistance de la part des villes ».
Le PDG de Tesla, Elon Musk, se plaint depuis longtemps du fait que la réglementation fédérale entrave l’innovation. Tesla développe un système de robot-taxi appelé « Full Self-Driving », mais le robot-taxi ne peut pas se conduire tout seul, et les propriétaires de Tesla qui les utilisent doivent être prêts à intervenir à tout moment.
Liu a déclaré que des normes de conduite de base contribueraient réellement à l’innovation et amélioreraient le déploiement de véhicules autonomes. Si les entreprises sont suffisamment confiantes pour déployer leurs systèmes à grande échelle, a-t-il déclaré, un test de compétence de base devrait être un « petit gâteau » à réussir.
« Alors pourquoi cela pourrait-il constituer un obstacle au déploiement ? il a demandé.
L’Europe et la Chine, a noté Liu, disposent déjà de tests de base qui soumettent les véhicules autonomes à des tests tiers. Mais les États-Unis continuent de s’appuyer sur l’autocertification des entreprises.
Liu a déclaré qu’il agissait maintenant pour proposer l’examen de conduite parce que les véhicules autonomes progressent dans l’utilisation des ordinateurs « d’apprentissage automatique » pour prendre des décisions sur la route. Il prédit qu’ils seront largement déployés sur les routes américaines d’ici cinq à dix ans.
« Un déploiement à grande échelle se profile à l’horizon, et c’est pourquoi le gouvernement fédéral devrait agir », a déclaré Liu.
Waymo, l’unité de véhicules autonomes d’Alphabet Inc., transporte déjà des passagers dans des véhicules sans conducteur de sécurité humaine à Phoenix et dans d’autres régions. L’unité de conduite autonome Cruise de General Motors exploitait des robotaxis à San Francisco jusqu’à un accident l’année dernière impliquant l’un de ses véhicules.
En outre, Aurora Innovation a annoncé qu’elle commencerait à transporter du fret dans des semi-remorques entièrement autonomes sur les autoroutes du Texas d’ici la fin de l’année. Une autre entreprise semi-autonome, Gatik, prévoit de transporter du fret de manière autonome d’ici fin 2025.
Parmi les accidents de véhicules autonomes de ces dernières années, il y en a un qui impliquait un SUV autonome Uber avec un chauffeur de secours humain qui a heurté et tué un piéton de l’Arizona en 2018 et une Chevrolet Bolt autonome Cruise qui a traîné un piéton sur le bord de la route, causant des blessures graves. Le piéton a été heurté par un véhicule conduit par un humain et a été projeté sur le chemin du Bolt.