經測試發現,特斯拉自駕軟體無法辨識兒童行人。(美聯社)
馬斯克盛讚特斯拉自駕技術令人驚豔,但安全技術倡導團體9日聲稱,特斯拉的全自駕系統對兒童行人造成潛在致命威脅,最新公布的事故調查及數據,對世界領先的電動車大廠來說無疑是一大打擊。
英國衛報報導,根據「黎明計劃」(Dawn Project)進行的安全檢測,特斯拉(Tesla)今年6月推出的新版「全自動輔助駕駛(FSD)Beta軟體」在測試道路上,反覆撞到一靜止的兒童模擬人形,說明特斯拉自駕系統在辨識兒童上存在困難,該組織因此呼籲大眾施壓國會,禁止特拉的自駕技術上路。
Tesla absolutely destroys child dummy in stoppage test.
— MobileSyrup (@MobileSyrup) August 9, 2022
Hopefully the feature works better in the real world 😂
Credit: u/Perfect_Ability_1190 pic.twitter.com/E4c2mhwHgj
在數個測試當中,有名職業駕駛發現,特斯拉的全自駕軟體在平均每小時25英里車速下無法偵測到兒童大小模型。「黎明計劃」創辦人奧多德(Dan O'Dowd)直言,測試結果令人「深感不安」。
奧多德表示,特斯拉執行長馬斯克(Elon Musk)盛讚特斯拉的全自駕軟體「讓人驚艷」,「但其實不是,那是對所有美國人的致命威脅。」他指出,美國已有超過10萬名特斯拉駕駛在公共道路上使用全自駕模式,導致全美兒童都處在極大風險之中。
奧多德認為,安全測試結果說明,在直到特斯拉能證明車輛「不會在行人穿越道上撞倒兒童」以前,有必要禁止特斯拉的自駕上路。但奧多德也被質疑是特斯拉的競爭對手,因為他的公司自我標榜為打造用於自駕系統的特定軟體專家。奧多德堅稱,他旗下名為「綠色山丘」(Green Hills)的軟體並不是要與特斯拉較勁,並表示該公司沒有要打造自駕車,但承認,有部分車廠的特定零件使用他們公司的軟體。
2021年德州一輛特斯拉曾發生致命撞擊事故,造成2人死亡,馬斯克當時在推特推文表示,事故駕駛當時並未啟動自駕輔助功能。