太嗨?特斯拉無人駕駛在高速馳騁 4名乘客喝酒唱歌
本文系****網易號特色內容激勵計劃簽約賬號【量子位】原創內容,未經賬號授權,禁止隨意轉載。
楊淨 發自 凹非寺
量子位 報道 | 公衆號 QbitAI
特斯拉駕駛座上空無一人,卻時速近百公里在高速路上馳騁。
四名乘客在車裏喝着啤酒,唱着《Baby》,開着「狂歡的Party」。
據TMZ報道,最近,TikTok用戶@blurrblake分享了一段視頻,視頻上寫着「When your car is A Better Driver than you」。
他們一行四個人在美國加州高速路上馳騁,而駕駛座上並沒有人。
副駕駛上的那個人點了點平板,負責切歌的那種。
在視頻中看到,特斯拉時速甚至已經達到了96公里。
我們知道,即使設置成「自動駕駛」模式,司機也需要坐在駕駛座上,手搭在方向盤,隨時準備接管車輛。
不管是特斯拉的官網,還是馬斯克也都一直在強調這件事。
事後,這四個小夥子都違法了,光在車內喝酒就是違法行爲。
按照當地法律規定,乘客擁有敞開的酒容器是非法的,任何人不得在任何車輛中喝任何量的酒。
目前,馬斯克沒有任何回應,還在宣傳他的9月22日特斯拉電池日。
網友:Idiots
對此,網友評論,白癡行爲。
無論在哪裏分享視頻,Idiots就是Idiots。
甚至有人覺得,以後喝完酒都省代駕了。
還有網友甩鍋給了TikTok:
TikTok應該被禁止,一羣無用的人在做無用的事情。
此外,還有網友發出靈魂拷問,引發了對「自動駕駛」與酒駕的思考。
這樣的行爲,你說誰是酒駕?12分應該扣誰?這樣操作的自動駕駛違法嗎?
關於「自動駕駛」的誤導
但是,這算自動駕駛嗎?
正如這位網友所說:這根本就不是自動駕駛,這是輔助駕駛。
特斯拉「Autopilot」名稱一直就存在「誤導」爭議,但馬斯克從一開始就辯解稱“Autopilot”一詞完全是繼承自航空航天。
於是,由此導致車主對「自動駕駛」的誤解,就從來都沒有停止過。
在上週,美國汽車協會(AAA)發佈的一項新研究發現,特斯拉的「自動駕駛」之類名稱容易引起誤導。
不少人因爲這個名字,會誤以爲可以在車輛上做更多的事情,而汽車會自動幫助他們做一事情。
而且比例不小。
他們邀請了90名志願者,在駕駛一輛假稱含有「AutonoDrive」程序的凱迪拉克的人中,有40%的人會認爲汽車會自行採取措施避免撞到障礙物。
而關於「自動駕駛」的誤導,也曾被法院正式判決過。
就在兩個月前,量子位就曾報道過世界首例針對特斯拉自動駕駛判罰。
那是在德國的一家地方法院——慕尼黑法院,他們針對特斯拉自動駕駛宣傳正式作出裁定:
特斯拉在其自動駕駛Autopilot的廣告中,存在誇大宣傳自動駕駛、誤導車主的行爲。
由此,將正式禁止特斯拉使用這樣的廣告。
這是全球範圍內,第一例針對特斯拉自動駕駛宣傳的判例。
因爲誤導存在的「安全隱患」
且不說這件事涉及到違法問題,其中涉及到的安全隱患就足以值得我們重視。
因爲特斯拉「自動駕駛」的誤導,造成車輛事故不勝枚舉。
還記得美國第一起自動駕駛致命車禍,一名男子開着一輛Tesla Model S電動車上路,正因爲駕駛員過於相信AutoPilot,在車內看電影,也沒理會車輛對他的警告從而導致悲劇的發生。
甚至,報告還披露,37分鐘的總計行程中僅有25秒是手握方向盤的。
同樣的事情,在今年8月也發生了。
在美國北卡羅萊納州,一輛開啓Autopilot自動駕駛模式的特斯拉與一輛警車相撞,特斯拉車主承認,自己當時在用手機看電影。
「自動駕駛」的悖論
其實在自動駕駛的等級劃分中,始終存在一個悖論,即按照「有人接管與否」爲核心來劃分。
最先開啓自動駕駛商業化推進的谷歌,直接完全放棄了L3路線(人機共駕),專注於L4以上的自動駕駛推進,即完全由機器來實現自動駕駛。
並把駕駛應該擔負的安全責任,落在自動駕駛系統一方。
目前,很多國際車企在自動駕駛研發上,也都紛紛放棄L3級自動駕駛。
但馬斯克和特斯拉並不這麼認爲。
特斯拉堅定認爲自動駕駛可以從L2、L3不斷迭代至L4、L5,從人機共駕到完全無人駕駛,並且還人機共駕階段積累的實際路測場景和數據,還能幫助實現AI模型迭代。
在今年的世界人工智能大會雲端峯會(WAIC)上,馬斯克公開表示,2020年底將完成L5級自動駕駛基本功能開發。
那麼對於這件事,你怎麼看?你覺得自動駕駛會造成誤導嗎?馬斯克的L5能實現嗎?
參考鏈接:
https://www.tmz.com/2020/09/11/idiots-in-tesla-autopilot-singing-highway-alcohol/
https://mashable.com/article/aaa-autopilot-name-study/
https://mp.weixin.qq.com/s/XC-TwbFqIuxQRXKQBeMhfQ
http://www.cankaoxiaoxi.com/world/20160701/1214757.shtml