特斯拉 FSD 安全性再遭疑,示範中屢次無視校車警示燈、停車標直撞假人
在撞到人後車輛有時仍會繼續行駛。
自動駕駛技術的安全性問題如今已是老生常談,而作為業界代表,特斯拉的 FSD 方案一直是許多人關注的熱點。近日民間團體 The Dawn Project、Tesla Takedown 及 ResistAustin 又對其表現進行了測試,在他們放出的影片中,一輛裝有 FSD 的 Model Y 居然屢次無視明顯的校車警示燈和停車標誌,撞上了從路旁衝出的兒童尺寸假人。
更離譜的是,有時在撞到假人後,車輛只是停頓片刻接著又會繼續上路。車載系統沒有警報也不會提示駕駛者接管,就彷彿一切都沒有發生過一樣。雖然為減少事故,特斯拉已經強調過車主在使用名字極具迷惑性的 FSD 時仍須集中注意力,但自作聰明的人不在少數,更何況是這種看起來很難出錯的環境。片中顯示當日天氣狀況良好,路面上似乎也不存在難以辨認的障礙,因此視覺系統理論上不會受到影響。FSD 在這一關鍵場景下為何會表現如此糟糕?外界應該會希望官方能給出一點解釋。
Tentatively, June 22.
We are being super paranoid about safety, so the date could shift.
First Tesla that drives itself from factory end of line all the way to a customer house is June 28.— Elon Musk (@elonmusk) June 11, 2025
值得一提的是,由於特斯拉「對安全問題非常敏感」,CEO 馬斯克已經在 X 上暗示原定 6 月 22 日推出的 Cybercab 自駕計程車可能會延後。
緊貼最新科技資訊、網購優惠,追隨 Yahoo Tech 各大社交平台!
🎉📱 Tech Facebook:https://www.facebook.com/yahootechhk
🎉📱 Tech Instagram:https://www.instagram.com/yahootechhk/
🎉📱 Tech WhatsApp 社群:https://chat.whatsapp.com/Dg3fiiyYf3yG2mgts4Mii8
🎉📱 Tech WhatsApp 頻道:https://whatsapp.com/channel/0029Va91dmR545urVCpQwq2D
🎉📱 Tech Telegram 頻道:https://t.me/yahootechhk