新浪科技訊 6月20日下午消息,近期,一場針對特斯拉的調查,在社交媒體上掀起了軒然大波,這份調查來自美國高速公路安全管理局(NHTSA)。NHTSA展開調查的直接原因,是有不止一輛特斯拉在開啓自動駕駛系統Autopilot的情況下,闖入已有事故現場,撞上明明早已停在路邊的急救車、警車或者出事車輛。在16起這樣的事故中,Autopilot都是在汽車發生實際撞擊前不到一秒才中止了控制。而這,完全沒有給夠人類司機接手的時間。“車禍前1秒特斯拉自駕系統自動退出”登上微博熱搜,引發網友熱議。

對此,有網友表示,“信自動,永遠不如相信自己。”

也有網友指出:“很多自動駕駛可能都是這樣的。因爲算法解決不了碰撞,只能退出。現在的算法沒有那麼智能,這些涉及到道德法規層次的,只能最簡單化處理。”對此,你怎麼看?

相關文章