L’Administration nationale de la sécurité routière (NHTSA) a lancé une enquête sur 2,4 millions de véhicules Tesla équipés du logiciel Full Self-Driving (FSD) de la société, suite à des rapports de quatre accidents, dont un incident mortel. L’enquête a été ouverte après que des préoccupations ont émergé concernant la capacité du système à fonctionner dans des conditions de visibilité réduite telles que l’éblouissement du soleil, le brouillard et la poussière en suspension.
Selon la NHTSA, l’incident le plus grave a impliqué un véhicule Tesla frappant mortellement un piéton alors que le logiciel FSD était activé. Un autre accident a entraîné des blessures. L’enquête couvre un large éventail de modèles Tesla, y compris le Model S 2016-2024 et le Model X, le Model 3 2017-2024, le Model Y 2020-2024, et le Cybertruck 2023-2024, tous équipés de la fonction FSD en option.
La évaluation préliminaire de la NHTSA est la première étape pour déterminer si un rappel formel sera nécessaire. L’agence examine spécifiquement les contrôles d’ingénierie du FSD, en particulier la manière dont il détecte et réagit à la visibilité réduite. De plus, l’enquête évaluera si Tesla a apporté des mises à jour au système en réponse à ces incidents, et si ces mises à jour ont amélioré la sécurité dans de telles conditions.
Le logiciel de conduite entièrement autonome de Tesla a longtemps été un sujet de controverse, l’entreprise soulignant que le système nécessite une supervision active du conducteur et n’est pas totalement autonome. Cependant, cette enquête remet en lumière les implications de sécurité du logiciel dans le monde réel, surtout alors que le PDG de Tesla, Elon Musk, pousse l’entreprise vers la conduite autonome et les services de robotaxi dans un marché de plus en plus compétitif.
Avec une légère baisse des actions de Tesla suite à cette nouvelle, l’enquête représente un défi considérable pour le constructeur automobile, qui a présenté le FSD comme un élément clé de son futur modèle commercial. La NHTSA examinera désormais si le logiciel de Tesla présente un « risque déraisonnable » et si davantage d’accidents se sont produits dans des conditions de visibilité similaires. L’issue de cette enquête pourrait avoir des implications de grande envergure tant pour la technologie FSD de Tesla que pour l’industrie plus large de la conduite autonome.