原標題:特斯拉致命事故頻發 自動駕駛如何安全上路?

特斯拉的自動駕駛系統近期事故頻發,面臨越來越多的審查。該公司正在積極向用戶“推銷”其更新版本的自動駕駛軟件FSD。但在這一過程中,還需要克服一系列技術和工程方面的問題。

根據美國媒體報道,上週六得克薩斯州休斯頓的一輛特斯拉電動車在高速運行的情況下,撞上了一棵樹上後起火,造成兩名男子死亡。當地警方稱,事故發生時並沒有人在駕車,死亡的兩人均爲“乘客”,也就是說,當時這輛特斯拉是處於“無人駕駛”的狀態。目前事故調查仍正在進行中。

美國國家公路交通安全管理局今年3月表示,已對特斯拉汽車的事故發起了至少27起調查,其中至少有3起車禍是最近發生的。

就在得克薩斯州的致命車禍發生的幾小時前,特斯拉CEO馬斯克(Elon Musk)還在社交媒體上爲其自動駕駛系統進行宣傳。他在Twitter上稱:“特斯拉與自動駕駛結合發生事故的可能性比普通車輛低10倍。”

馬斯克在1月曾表示,他希望從全自動駕駛軟件中獲得豐厚的利潤。高級版本的FSD目前的售價爲1萬美元。馬斯克預言:“汽車將能夠以超過人類的可靠性駕駛汽車。”他還表示,全自動駕駛有望今年實現。

特斯拉一直在通過不斷改進和完善自動駕駛軟件FSD,從而收集足夠的數據來證明自動駕駛比人工駕駛更加安全可靠。今年2月,在一次播客節目中,馬斯克還表示,目前特斯拉輔助駕駛Autopilot的性能已經足夠好。“除非您真的願意,否則大部分時間您都不需要駕駛。”馬斯克表示。但是,目前特斯拉的Autopilot和FSD並不能在缺乏人類駕駛員參與的情況下獨立控制電動車。

但是,特斯拉方面律師在去年年底給加州車輛管理局(DMV)的一封信中明確表示:“Autopilot和FSD都不是自主駕駛系統。”特斯拉在其車主手冊中也警告駕駛員:“當前啓用的功能需要駕駛員的主動監督,並不能完全使車輛自動駕駛。”

儘管如此,很多特斯拉車迷和博主仍在社交媒體上分享人們長時間徒手駕駛特斯拉的視頻,這些視頻中有人在方向盤上假裝睡覺甚至是沒有人坐在駕駛員座位上。

由於涉嫌誤導消費者,德國慕尼黑法院已經禁止特斯拉在廣告中使用等同於“自動駕駛”和“全自動駕駛功能”等用詞,認爲這種語言不僅誇大了特斯拉自動駕駛的功能,會誤導消費者,而且還會導致致命事故的發生。

谷歌Waymo以及通用Cruise的自動駕駛依靠激光雷達和高清地圖進行導航不同,特斯拉的全自動駕駛通過攝像頭的視覺採集來完成。馬斯克堅持 “純視覺,無雷達” 的技術路線。他認爲,視覺具有更高的精度,特斯拉已經開始在Autopilot系統上儘可能減少傳感器的使用。

自動駕駛何時能夠安全上路也是今年上海車展上行業最爲關注的問題。針對目前自動駕駛的發展還存在哪些限制和挑戰,國內激光雷達廠商禾賽科技CEO李一帆對第一財經記者表示:“不論是在激光雷達領域,還是Robotaxi領域,或是量產車領域,都面臨同一個問題,就是大家從0到1走出來了,也就是說早期的驗證和原型都沒有問題了,但是如何完成1到10,甚至到100的產業化的路徑,現在仍然不清晰。”

李一帆表示,未來幾年從激光雷達角度來看,最需要解決的問題包括車規級的可靠性、功能安全、量產的一致性以及對成本的控制等問題。“整個行業來看,從概念到小批量的測試並不難做,但是到了大批量測試的時候,也就是數量級開始上升了,那麼面臨的體系升級的挑戰會很大,包括工程上也會有很多挑戰。”

相關文章