斯坦福大學計算機科學助理教授Percy Liang解釋說,人類在日常的互動中依賴於一定程度的可預測性——包括與其他人類和自動化系統(包括但不限於他們的汽車)。創造這種可預測性的一種方法是利用機器學習。

機器學習處理算法,允許人工智能根據從先前經驗收集的數據“學習”。開發人員不需要編寫代碼來指示人工智能的每一個動作或意圖。相反,系統從它的經驗中識別模式,並根據這些數據採取適當的行動。它類似於試驗和錯誤的過程。

在研究和測試環境中,機器學習系統經常被問到的一個關鍵問題是:“爲什麼系統會做出這樣的預測?”關於這一意 圖的探索,梁教授解釋道:“如果你正在過馬路,一輛車向你駛來,你就有了另一個人類司機將要做的模型。”但如果汽車是由人工智能控制的,人類該如何知道如何行動呢?

智能機器人是如何自主學習的

重要的是要看到一個系統運行良好,但也許更重要的是它能夠用容易理解的術語解釋它爲什麼會這麼做。即使系統不準確,它也必須是可解釋的和可預測的。爲了安全部署人工智能,系統必須依賴於充分理解、現實和可測試的假設。

目前的理論探索了可靠的人工智能的思想,集中於在訓練數據中擬合可觀察的輸出。然而,正如梁教授所解釋的,這可能會導致“自動駕駛系統在驗證測試中表現良好,但不理解所期望輸出的人爲值。”

當然,運行多個測試是很重要的。梁教授解釋說,這些類型的模擬“有利於調試技術——它們允許我們更容易地執行受控的實驗,而且它們允許更快的迭代。”然而,要真正瞭解一種技術是否有效,“沒有什麼可以替代將它應用到現實生活中,”教授說,“這適用於語言、視覺和機器人。”“自動駕駛汽車在所有測試條件下都可能表現良好,但無法準確預測它在不可預知的自然災害中的表現。”

在機器學習中,圖像檢測器給他們提供訓練數據,例如照片,電腦生成的圖像。並給它們貼上標籤來學習識別物體。

研究的另一個方面是確保人工智能理解,並能夠交流,它對人類的限制。他解釋說,傳統的成功標準是平均精確度,“這不是人工智能安全的良好接口。”他提出,“一個80%可靠的系統該怎麼做?”

他不希望系統有一個準確的答案。相反,他希望系統能夠在不知道答案的情況下承認。如果一個用戶問一個系統“我應該服用多少止痛藥?”這個系統更適合說“我不知道”,而不是做一個代價高昂或危險的錯誤預測。

他們的團隊正在研究這個挑戰,通過學習算法跟蹤模型的預測——所有的方法都回到了模型參數產生的訓練數據。團隊希望這種方法——通過訓練數據的透鏡來觀察模型——將成爲開發、理解和診斷機器學習的工具箱的標準組成部分。研究人員可以將其與許多應用程序聯繫起來:醫學、計算機、自然語言理解系統和各種商業分析應用程序。

微信搜索“靈聲機器人”,關注我們瞭解更多。

智能機器人是如何自主學習的

相關文章