Phần mềm Full Self-Driving của Tesla đang được cơ quan quản lý an toàn liên bang điều tra #TeslaInvestigation
Cơ quan quản lý an toàn ô tô hàng đầu của Mỹ đã mở một cuộc điều tra mới về phần mềm “Full Self-Driving (Supervised)” của Tesla sau bốn vụ tai nạn được báo cáo xảy ra trong tình huống tầm nhìn thấp – bao gồm một vụ một người đi bộ bị chết.
Văn phòng Điều tra khiếm khuyết (ODI) của Cơ quan An toàn Giao thông Quốc gia (NHTSA) #NHTSAinvestigation đã công bố vào thứ Sáu rằng họ đang điều tra hệ thống hỗ trợ lái xe để tìm hiểu xem nó có thể “phát hiện và phản ứng một cách thích hợp với các điều kiện giảm tầm nhìn trên đường”, chẳng hạn như “ánh sáng mặt trời, sương mù hoặc bụi phong hóa”. Cơ quan này cũng muốn biết xem có những vụ tai nạn khác đã xảy ra trong các điều kiện này ngoài những vụ được báo cáo.
Cuộc điều tra diễn ra chỉ một tuần sau khi CEO của Tesla, Elon Musk, giới thiệu mẫu xe hai chỗ của công ty mang tên “CyberCab,” một chiếc xe dự kiến sẽ phục vụ như một dịch vụ robotaxi, sau nhiều năm không thực hiện được các cam kết. Musk cũng khẳng định tại sự kiện rằng sedan Model 3 và SUV Model Y của Tesla sẽ có khả năng hoạt động mà không cần giám sát tại California và Texas vào một thời điểm nào đó trong năm 2025, tuy nhiên anh ta không cung cấp bất kỳ chi tiết nào về cách thức thực hiện điều đó.
Trong tháng 4, NHTSA đã đóng cuộc điều tra kéo dài gần ba năm về Autopilot, phần mềm hỗ trợ lái xe ít khả năng của Tesla sau khi điều tra gần 500 vụ tai nạn mà hệ thống đã hoạt động. Cơ quan này đã phát hiện ra có 13 vụ tai nạn đó đã gây tử vong. Cùng lúc với việc đóng cuộc điều tra đó, NHTSA đã mở một cuộc điều tra mới về việc triệu hồi sửa lỗi mà Tesla đã phát hành để giải quyết các vấn đề với Autopilot.
Phần mềm của Tesla cũng đang đối diện với những mối đe dọa pháp lý khác. Bộ Tư pháp đang điều tra các yếu tố mà Tesla đã tuyên bố về tính năng hỗ trợ lái xe của mình, và Sở Giao thông California đã buộc tội Tesla về việc phóng đại khả năng của phần mềm.
The top U.S. automotive safety regulator has opened a new investigation into Tesla’s so-called “Full Self-Driving (Supervised)” software after four reported crashes in low-visibility situations — including one where a pedestrian was killed.
The National Highway Traffic Safety Administration’s (NHTSA) Office of Defects Investigation (ODI) announced Friday that it is probing the driver assistance system to find out whether it can “detect and respond appropriately to reduced roadway visibility conditions,” such as “sun glare, fog, or airborne dust.” The agency also wants to know if other crashes have occurred in these conditions beyond the ones that were reported.
The investigation comes just one week after Tesla CEO Elon Musk revealed the prototype of his company’s “CyberCab,” a two-seater car that he said is supposed to serve as a robotaxi, following years of unmet promises. Musk also claimed at the event that Tesla’s Model 3 sedan and Model Y SUV would be able to operate without supervision in California and Texas at some point in 2025, though he did not offer any details about how that will happen.
In April, NHTSA closed a nearly three-year probe into Autopilot, the less-capable driver assistance software that Tesla offers, after investigating almost 500 crashes where the system was active. The agency found 13 of those crashes were fatal. At the same time that it closed that probe, NHTSA opened a new investigation into the recall fix that Tesla had issued to address problems with Autopilot.
Tesla’s software also faces other legal threats. The Department of Justice is investigating the claims Tesla has made about its driver-assistance features, and the California Department of Motor Vehicles has accused Tesla of inflating the software’s capabilities.
[ad_2]