自動駕駛可能超速、穿越路口,還曾撞上救護車!特斯拉大動作召回36萬輛車

特斯拉由於全自動駕駛軟體的安全問題,將在美國召回約36萬台汽車,以更新該系統的Beta軟體。而美國聯邦的監管機構也表示,這個系統可能會讓車輛在路口處採取不安全的決策並導致車禍;近期更多專家也開始呼籲,自動駕駛尚未成熟,不應被如此濫用,需要更嚴格的監管。

這些被召回的特斯拉汽車包含了2016到2023年的Model S、Model X,以及2017到2023年的Model 3,還有2020到2023年配備全自動駕駛測試版(FSD Beta)軟體或尚未安裝的Model Y車輛。根據通知,此次召回已發佈在美國國家公路交通安全管理局網站上,共有多達362,758輛車。

系統反應有超速可能,美國監管機構出手干預

美國國家公路交通安全管理局(NHTSA, National Highway Traffic Safety Administration)對此說明,特斯拉的自動駕駛軟體可能會讓車輛「以非法或不可預測的方式,超速或穿越十字路口,增加車禍的風險」。

NHTSA要求特斯拉召回這些車輛,特斯拉也同意召回,但並不同意NHTSA的說法。特斯拉表示,將免費發布空中編程的(OTA)軟體更新,不過尚不清楚可能與召回問題有關的任何傷亡事件。

特斯拉的自動駕駛系統包括許多輔助功能,但大多數仍然需要駕駛員隨時準備好接管控制權。系統功能包含包括停車功能Summon,以及主動引導系統Navigate on Autopilot,可將汽車從高速公路入口匝道導航到出口匝道。其他功能還可以處理城市街道上的轉向,識別交通燈和停車標誌並做出反應。

不過,特斯拉也承認,該自動駕駛系統的運作可能不完全適合所有地域,在「一些少數情況下……該功能可能會在駕駛時違反當地的交通法規或習俗」。

而根據監管機構的聲明,特斯拉的自駕系統可能會讓車輛在十字路口附近造成危險:例如在轉彎車道上直行通過十字路口,進入有停止標誌的十字路口而沒有完全停下來,或者在黃色閃燈的十字路口而沒有注意。此外,這個聲明當中也提及,該系統可能對張貼的速限標誌反應不足,或者沒有充分考慮駕駛員調整車輛速度以超過張貼的速度限制。

不過早在2021年,NHTSA就開始對830,000輛配備輔助系統Autopilot的特斯拉汽車進行持續調查,主因是過去幾年多起特斯拉車開啟Autopilot卻撞擊緊急公務車(警車、消防車、救護車等)等車禍。道路安全機構去年6月發布的一份報告也指出,使用特斯拉自動駕駛系統的駕駛在2021年發生了273起車禍。

砸數十萬美元,超級盃廣告公開呼籲正視自駕系統的危險性

就在本週日(2月12日),美國國家美式足球聯盟的年度冠軍賽「超級盃(Super Bowl)」一則廣告重重了打擊特斯拉。這則廣告展示了一輛據稱已開啟全自動駕駛模式的特斯拉Model 3在學校人行橫道上碾過一個兒童大小的假人,然後碾過嬰兒車中的假嬰兒,以及汽車突然轉向迎面而來的車流,快速駛過停在路邊的校車,並駛過「請勿進入」的標誌。

該廣告是技術倡導組織The Dawn Project數百萬美元廣告計劃的一部分,而在超級盃的這則廣告就花費了598,000美元。「特斯拉的全自動駕駛正在危害大眾,」廣告這樣指控,「欺騙的行銷手法和可悲無能的工程。」

The Dawn Project表示,他們希望讓電腦控制的系統對人類更安全,並拍攝了自己的影片來測試特斯拉所謂的設計缺陷。去年8月,該公司創始人Dan O'Dowd發布了一部影片,展示了一輛特斯拉汽車撞向兒童人體模型的場景。

作為反駁,一些特斯拉粉絲也拍攝了自己的影片,使用他們自己的假人、甚至他們自己的孩子作為測試(YouTube已經刪除了幾個涉及真實兒童的測試影片,由於存在安全風險)。

據《華盛頓郵報》報導,O’Dowd希望徹底禁止全自動駕駛系統,因為他認為,即便車主們願意遵循特斯拉的條款和狀況,但允許特斯拉車主使用該系統就是「公共安全的重大威脅」。

「特斯拉在公共道路上魯莽地使用全自動駕駛系統,是對公共安全的重大威脅。伊隆馬斯克發布給北美特斯拉車主的系統,可以在學校人行橫道上撞倒孩子,轉向迎面而來的車流,並撞到嬰兒車裡的嬰兒,」O'Dowd也在一份聲明中表示。

The Dawn Project的廣告將在超級杯比賽期間於華盛頓特區、加州、紐約州、德州、和佛羅里達州等地區播放,面對數百萬觀眾、政治家和監管機構。O'Dowd和The Dawn Project過去就曾投放過其他反對自動駕駛系統的廣告,其中包括去年11月出現在紐約時報上的全版廣告。

儘管其中幾部影片引發爭議,甚至具有煽動性,以至於特斯拉指責The Dawn Project誹謗。但不可否認的是,目前自動駕駛系統還不能「完完全全地取代人類駕駛」。

延伸閱讀:身為特斯拉元老,他卻反對自動駕駛!與馬斯克不歡而散,怎麼看特斯拉前景?

要信任自動駕駛技術還早?專家籲嚴格監管

而根據外媒Business Insider的報導,喬治梅森大學(George Mason University)工程和電腦科學教授Missy Cummings也指出,現在的駕駛還不該「過度信任」自動駕駛系統,因為這可能導致相當嚴重的事故。

Cummings在分析了近400起使用自動駕駛系統的汽車的車禍事故後,告訴紐約時報,駕駛在使用特斯拉的自動駕駛系統和通用汽車(General Motors,GM)的Super Cruise等時,會「放任讓汽車加速」,因此她呼籲,汽車製造商和監管機構應該防止此類系統超速運行,並要求使用它們的駕駛將手放在方向盤上,眼睛盯著路面。

Cummings曾在2021年至2023年間擔任美國國家公路交通安全管理局的資深安全顧問,在被任命為道路安全監管機構成員後,馬斯克於2021年10月發推文表示她對於特斯拉「帶有偏見」。

現年56歲的Cummings博士是美國海軍女性戰鬥機飛行員之一,她表示,她覺得有必要大聲說出來,因為自動駕駛「這項技術正在被人類濫用」。她在2021年也告訴過彭博社,儘管自動駕駛在航空業很普遍,但「對汽車界來說,還是是新的領域」。

資料來源:TechCrunchBusiness InsiderCNN

責任編輯:錢玉紘

更多報導
身為特斯拉元老,他卻反對自動駕駛!與馬斯克不歡而散,怎麼看特斯拉前景?
特斯拉前高管認了!自駕車辨識紅綠燈都是假,停車其實直接撞上牆