︿

特斯拉自駕反覆撞飛兒童模型 安全組織呼籲禁止上路

陳又嘉 2022年08月11日 10:50:00
經測試發現,特斯拉自駕軟體無法辨識兒童行人。(美聯社)

經測試發現,特斯拉自駕軟體無法辨識兒童行人。(美聯社)

馬斯克盛讚特斯拉自駕技術令人驚豔,但安全技術倡導團體9日聲稱,特斯拉的全自駕系統對兒童行人造成潛在致命威脅,最新公布的事故調查及數據,對世界領先的電動車大廠來說無疑是一大打擊。

 

英國衛報報導,根據「黎明計劃」(Dawn Project)進行的安全檢測,特斯拉(Tesla)今年6月推出的新版「全自動輔助駕駛(FSD)Beta軟體」在測試道路上,反覆撞到一靜止的兒童模擬人形,說明特斯拉自駕系統在辨識兒童上存在困難,該組織因此呼籲大眾施壓國會,禁止特拉的自駕技術上路。

 

 

在數個測試當中,有名職業駕駛發現,特斯拉的全自駕軟體在平均每小時25英里車速下無法偵測到兒童大小模型。「黎明計劃」創辦人奧多德(Dan O'Dowd)直言,測試結果令人「深感不安」。

 

奧多德表示,特斯拉執行長馬斯克(Elon Musk)盛讚特斯拉的全自駕軟體「讓人驚艷」,「但其實不是,那是對所有美國人的致命威脅。」他指出,美國已有超過10萬名特斯拉駕駛在公共道路上使用全自駕模式,導致全美兒童都處在極大風險之中。

 

奧多德認為,安全測試結果說明,在直到特斯拉能證明車輛「不會在行人穿越道上撞倒兒童」以前,有必要禁止特斯拉的自駕上路。但奧多德也被質疑是特斯拉的競爭對手,因為他的公司自我標榜為打造用於自駕系統的特定軟體專家。奧多德堅稱,他旗下名為「綠色山丘」(Green Hills)的軟體並不是要與特斯拉較勁,並表示該公司沒有要打造自駕車,但承認,有部分車廠的特定零件使用他們公司的軟體。

 

2021年德州一輛特斯拉曾發生致命撞擊事故,造成2人死亡,馬斯克當時在推特推文表示,事故駕駛當時並未啟動自駕輔助功能。

關鍵字: 特斯拉 自駕 馬斯克





【加入上報國際圈,把繽紛世界帶到你眼前!】

提供新聞訊息人物邀訪異業合作以及意見反映煩請email至國際中心公用信箱: intnews@upmedia.mg,我們會儘速處理。

 

 

 



回頂端