撰文 / 朱 琳

編輯 / 溫 莎

設計 / 杜 凱

來源 / Forbes,作者:Brad Templeton

10月20日,特斯拉發佈了一個限量的測試版,面向其部分早期用戶。該測試版被埃隆•馬斯克(Elon Musk)稱爲“功能完整的完全自動駕駛”。該公司還宣佈,將目前出售給車主的“FSD in the future”套裝的價格上調2000美元(現價10000美元),以便他們在準備就緒時可以使用該軟件。

該軟件包給許多用戶留下了深刻印象。一些人在Youtube上發佈了該系統在城市街道上運行的視頻。儘管有這個名字,但“完全”自動駕駛既不是自動駕駛,也不是業內大多數人所說的完全自動駕駛。更準確的說法是,它是在城市街道上運行的特斯拉“Autopilot”。

像Autopilot一樣,它需要駕駛員不間斷的監控,也確實會發生錯誤,需要駕駛員的控制以避免事故的發生。它可以處理各種各樣的城市街道,但不能應對車道或停車場,所以人類司機在旅程的起點和終點都要開車。之前的Autopilot只操作高速公路、鄉村公路和部分城市快速路,不操作標誌、交通信號燈等基本要素。

該車輛的功能比我在那工作時的Google Chauffeur(現在的Waymo)在2010年展示的稍好,儘管重要的是它僅使用攝像頭和最小限度的地圖即可完成工作,而Chauffeur需要使用詳細的地圖和激光雷達,並儘量減少使用攝像頭。

這十年間,神經網絡計算機視覺的能力得到了突飛猛進的發展。特斯拉做出了很大的努力——僅在主要參與者中有效——避免了激光雷達,並嚴重依賴於攝像頭(還有雷達,這是每個人都在使用的)。

在線視頻顯示,這些車輛在各種街道和十字路口行駛。這包括沒有標誌的小街道,大的多車道街道,合理複雜的十字路口,包括無保護的轉彎等等。這就是特斯拉所謂的“功能完整”——它至少在所有典型的路線上做了一些事情。

雖然我們不能從一小部分視頻中得出確切的結論,但可能會有施工和一些等級的道路的問題,我們看到了白天和晚上,但還沒有看到惡劣天氣下的視頻。

這些視頻中,有一些必要的干預——人類司機必須抓住方向盤,控制局面,以避免極有可能發生的事故。雖然沒有關於需要這些的頻率的統計數據,但這種干預似乎相當頻繁。這是需要持續人工監督的系統規範,也是他們需要這種監督的原因。

所有的完全自動駕駛汽車項目都需要一個或兩個“安全司機”在方向盤後面,他們也需要做這樣的干預,一開始很頻繁,隨着時間的推移越來越少。

直到最近,Waymo和現在的Nuro才部署了沒有監管司機的車輛。Cruise最近獲得了這樣做的許可,但還沒有實施,他們聲稱可能會在今年年底實施。亞馬遜的Zoox也有這樣的許可證。

根據特斯拉的視頻和聲稱,在埃隆•馬斯克的通勤中,他通常很少干預駕駛,有時根本沒有干預,但這“似乎在大多數情況下都是有效的”。在現實中,我們要計算需要干預的頻率。

據報道,特斯拉的Beta測試只對有較高安全記錄的司機進行,但沒有透露測試是如何進行的,這給我們帶來了一些大問題:

• 這種干預有多頻繁,情況有多嚴重?

• 特斯拉在沒有經過培訓和合作夥伴的情況下,能有效地讓客戶扮演自動駕駛汽車安全司機的角色嗎?這與優步在發生致命事故時的做法有何不同?

• 特斯拉決定不使用激光雷達和詳細地圖,這對他們系統的質量有什麼影響?

• 駕駛員可以安全地使用它嗎?通過測試又能得到什麼呢?

• 這合法嗎?

干預的頻率有多高?

人們不能從這些視頻中辨別,但我們可以比較一下人類發生事故的頻率。

有時候,干預會在不需要的時候發生,所以真正需要衡量的是“必要的”干預,即沒有干預就會發生不好的事情。許多團隊使用模擬器來模擬在沒有干預的情況下會發生什麼。“壞事”可以指嚴重的事故,或者只是指明顯的駕駛失誤,比如短暫地轉向另一條車道,即使你很幸運,車道上沒有車。

人類每10萬英里就遭遇一次事故,普通駕駛大約需要8-10年的時間。保險公司每25萬英里(25年)就會遇到一次,警察每50萬英里(40-50年)就會遇到一次。

幸運的是,死亡非常罕見——人類駕駛每8000年發生一次,高速公路上每2萬年發生一次。這對任何一個司機來說都是罕見的,我們開得太多,所以我們纔會遇到那麼多。

就其本身而言,整天駕駛無需干預似乎非常令人印象深刻,尤其是對那些初入這一領域的人來說,但這距離真正實現完全自動駕駛,而不是監控駕駛員輔助的目標還有很長的路要走。

這種測試方式可以嗎?

如果沒有受過良好訓練的安全駕駛員,並且每輛車配備兩名駕駛員,大多數自動駕駛團隊是不會測試這種水平的系統的。

優步對其安全司機的培訓很差,該公司承認,發生事故時,每輛車只安排一名司機是錯誤的。這起事故的主要責任是安全司機無視所有規則,用手機看電視而不是工作,但我們知道其他特斯拉車主也會做類似的事情。

另一方面,Autopilot表明,對於遵循良好程序的駕駛員來說,安全使用Autopilot是可能的。

統計數據顯示,在高速公路上使用Autopilot的特斯拉司機不如不使用的司機安全,但安全程度只是略有下降。(特斯拉公佈了誤導性的數據,聲稱它們更安全。)這種較低的安全水平可能可以解釋爲這樣一個事實:一些司機正確地使用了它,是安全的,而另一些司機則沒有,從而降低了平均水平。

我的經驗是,使用它的一個好方法是在你的頭腦中一直保持“影子駕駛”,即腦中想着移動你的手但不施加壓力,當汽車轉動方向盤時讓你的手隨着方向盤移動。用這種方法,如果方向盤不像你想要的那樣移動,你可以快速地從輕力轉變爲實力,推動方向盤到它應該去的地方。

但並不是所有的司機都這麼做,有些人不這麼做,甚至試圖打破特斯拉的警告。許多人認爲,車內的攝像頭監控着司機的視線,以確保注意力得到了關注。其他競爭系統也這樣做。特斯拉對此進行過實驗,但迄今爲止拒絕採取此類對策。

當然,讓細心的司機測試這個軟件對特斯拉來說是非常有價值的。這就是爲什麼其他公司花費數百萬美元來支付安全駕駛員在幾個州進行試車的原因。

馬路中央也有拐角案例

所有這些測試的目的都是爲了解決部署這些汽車的難題。在沒有持續干預的情況下,在普通道路上駕駛相對“容易”(但要做到特斯拉所做的,即在沒有激光雷達和地圖的城市街道上駕駛,就比較困難)。

即使你能處理99.9%的情況,你也只是達到目標的一小部分。你需要找到所有那些不尋常和罕見的事件,人們稱之爲“拐角案例”。但這些不只是發生在角落裏,找到它們中的大多數是一個非常漫長和困難的項目。Waymo的頂尖團隊耗費了十年時間來做這件事。沒有人真正做到過。

在網絡視頻中,司機們所表達的喜悅之情,是那些外行人的心聲,他們以爲得到99.9%的答案就能解決99.9%的問題。但它解決的問題還不到1%的十分之一。

駕駛輔助工具中,通過人工監視,你可以讓人工監視人員處理剩下的問題,作爲人類一般的問題解決者,我們通常可以這樣做。

也就是說,特斯拉有一個很棒的測試工具。司機們不再花錢找人來測試車輛,而是爲這樣做的特權付費。這讓特斯拉比其他任何公司都能以更低的成本更快地積累里程,他們自然想要利用這一點。

這對特斯拉來說是個好消息,因爲當我說他們已經走了千分之一的路時,你可能認爲這意味着他們還有幾千年的工作要做。好消息是,由於團隊隨着時間的推移越來越快,他們做後期的工作比早期的工作更快。

Waymo可能花了2年時間才達到1/1000,但再過10年,他們就差不多達到目標了。這是因爲隨着時間的推移,他們都壯大了自己的團隊和測試隊伍,也接觸到了各種各樣的新技術,比如神經網絡、高級模擬等等。

特斯拉一直在這麼做,而且還製造自己的處理器,幾乎和谷歌自己定製的處理器一樣好。摩爾定律還沒有消亡,它不斷提供更多的工具來加快其餘工作的進行。但目前特斯拉還有很長的路要走。

地圖和激光雷達

到目前爲止,我們所看到的並不能告訴我們很多關於特斯拉避開激光雷達的爭議選擇和相關問題。

特斯拉希望利用攝像頭和神經網絡創建虛擬激光雷達,告訴他們攝像頭看到的視覺目標有多遠。這些視頻向我們展示了他們對汽車和其他障礙物閃爍的感知,這在這些視覺系統中很常見,但也顯示出他們還沒有完全實現。

我們進一步瞭解了他們不使用詳細地圖的決定。人們試圖在沒有地圖的情況下開車,以避免地圖成本,並能夠立即處理整條道路而無需繪製地圖。地圖可爲你提供更多數據(即使它們錯了並且道路已經改變),可以幫助你更安全。

不管你對地圖的成本有什麼看法,你很快就會想到沒有它們的情況,而不是你想在第一批上路的汽車上做的事情。我們可以在特斯拉“FSD”的視頻中清楚地看到這一點,該視頻向左轉彎並帶有分隔線。

在這個視頻中,你看到車輛左轉。在幾乎恰好一分鐘的時間內,汽車針對要駛入的道路計算出了一個錯誤的地圖,從而將道路分隔線放置在錯誤的位置。它試圖駛進迎面而來的車流中,但司機接管了它,把車開進了正確的車道。

一輛沒有地圖的汽車在駕駛時,它的地圖就會自動生成。它必須弄清楚所有的路緣、車道、標誌和交通控制系統在哪裏,以及每條車道的規則,然後從中選擇駛入哪條車道以及如何駛入。

一輛有地圖的汽車依賴於之前通過交叉路口的經驗,以及對數據理解的人類質量保證。它仍然需要了解現場情況,特別是道路發生變化的任何地區,當然還要了解道路上所有移動的東西,但首先要做的是讓路面更安全。

特斯拉自然會努力使自己的汽車更好地處理這樣的路口,而不會再次犯同樣的錯誤。而且,他們的車隊意味着他們將迅速獲得有關此方面的報告,並在進行必須進行的逐步改進方面具有優勢。

但是,尚無法從攝像頭圖像完全瞭解道路的佈局,這就是爲什麼大多數團隊都覺得擁有包含所有細節的地圖可以使它們更安全,功能更強大,即使製作和維護地圖要花錢,並且它最初限制了可提供更高安全性的駕駛區域。

這是合法的嗎?

其中一些測試人員在加州。這讓人想起了早期的一個事件,當時由安東尼·萊萬多夫斯基(Anthony Levandowski)領導的優步自動駕駛團隊試圖在加州測試優步的車輛。加州法律要求測試自動駕駛汽車必須獲得許可。

優步並不想獲得許可,儘管萊萬多夫斯基參與了起草這部法律的談判。優步聲稱,由於法律豁免了“司機輔助”系統需要許可,優步並不需要許可,因爲他們在任何測試車輛上都有一名安全司機,因此這就是司機輔助。

汽車製造商一直在推動在法律中加入駕駛員協助例外條款,因爲他們不希望他們銷售的輔助系統突然需要許可。

加州車管所說“不行”。畢竟,既然每個人都使用安全駕駛員,那麼法律就毫無意義,任何汽車都不需要許可證。

他們的觀點是,如果你真的試圖製造一輛自動駕駛汽車,你需要許可證,即使你有一個人作爲正式司機監控它。他們告訴優步,他們將吊銷所有優步車輛的牌照,除非他們排隊等候。

這使特斯拉處於一種不尋常的狀況。特斯拉的高速公路版Autopilot是駕駛員的輔助工具,不需要許可證。但是他們將這個Beta測試版本稱爲“完全自動駕駛”。

正如我在上文中所斷言的那樣,這並不是像大多數行業內部人士所說的那樣是真正的自動駕駛或完全自動駕駛,但是隻要特斯拉說這是製造自動駕駛汽車的努力,許可證法似乎可能適用於他們,並關閉該州以及可能具有類似規則的其他州的Beta版程序。

相關文章