自從智能駕駛輔助系統被廣泛應用以後,經常會出現智駕系統沒能及時干預導致追尾事故發生的新聞。當然,從現行的交通法規角度來說,責任必然還是在駕駛員身上,目前的智駕系統哪怕再先進,也存在識別失準的情況,駕駛員應時刻關注車輛行駛狀況,隨時做好接管駕駛的準備。

智能駕駛輔助系統“不干預”,倒是可以將責任歸到駕駛員身上,但系統“亂干預”,駕駛員就很無奈了。最近在湖北襄陽,一位理想L9的車主在高速公路上行駛時開啓了輔助駕駛系統,但是車輛突然急剎導致發生追尾事故,幸好沒造成人員傷亡,車輛損傷程度也比較輕。

不過這次交通事故,交警還是認定車主負全部責任,而且他的車還未上牌,沒想到新車變成了事故車,車主也百般無奈。於是車主向廠家投訴,並要求廠家賠償2萬元。事後,經理想汽車對事故進行分析,原因是車輛將高速廣告牌上的汽車畫像誤識別爲真實的汽車,導致AEB(緊急制動功能)錯誤干預。

事實上,這種“幽靈急剎”的問題此前在理想L7上也曾經發生過,一位四川甘孜的理想L7車主在經過某路段的廣告牌時,車輛突然剎車減速,而迎面的廣告牌上面印有人物的畫像,因此導致車輛出現誤判。

另外,理想L9還曾經發生更靈異的事件,某位車主在經過無人的陵園時,屏幕上卻顯示雷達檢測到不少行人,甚至還有人騎自行車,着實讓人不寒而慄。

這次湖北襄陽理想L9“幽靈急剎”事件,涉事的車型爲理想L9Pro版,並沒有配備精度更高的激光雷達,而是採用攝像頭、毫米波雷達等多種傳感器協同工作的方案,這或許是誤識別幾率相對較大原因。但是,四川甘孜的理想L7以及理想L9陵園“靈異”事件,涉事的車型均配備激光雷達,理論上應該更精準纔對,然而卻依舊出現誤判。

對於這幾起事件,理想汽車官方給出的原因大致相同,均爲軟件算法的問題。如今,這些主打智能化的車型,對算法的依賴程度極高,一旦算法存在缺陷,其造成的後果及影響並不比機械缺陷低,然而這些缺陷隱蔽程度更高,用戶很難第一時間發現。

值得注意的是,“幽靈急剎”的問題並非理想汽車特有,特斯拉在海外也曾出現過類似的事件。一輛特斯拉ModelS在開啓FSD駕駛輔助功能後,在沒有任何障礙物的情況下突然剎停,並導致多車連環相撞,美國國家公路交通安全管理局(NHTSA)針對該事件也展開調查。

汽車網評:對於智能駕駛輔助系統的這些算法上的問題,包括理想汽車在內的各大車企都有必要重視起來,技術創新固然是好事,但用戶的安全更應該擺在首位,既然用戶已經發現問題,各大車企有必要針對相關的技術進行全面的排查,只有對產品不斷打磨和完善,讓用戶用得更放心,新技術才能逐步發展併成熟起來。

相關文章