轉自 專知

【導讀】本文是人工智能專家George Seif撰寫的博文,介紹了在當前深度學習比較火熱的情景下需要避免的三個坑。

作者 | George Seif

編譯 | 專知

整理 | Mandy, Sanglei

Tweaking Neural Net Parameters

Three reasons that you should NOT use deep learning

深度學習在過去幾年一直是人工智能領域最熱門的話題。事實上,正是它激發了科學家、政府、大公司以及其他所有人對人工智能的極大新興趣!這是一門很酷的科學,具有潛在的巨大的實用性和積極的應用。它正被用於金融、工程、娛樂、消費產品和服務等領域。

但是,所有應用都需要使用到深度學習嗎?當我們開展一個新的項目時,我們需要不自覺地一開始就使用深度學習嗎?

在有些情況下,使用深度學習是不合適的,我們需要選擇一些別的方案。讓我們來探討一下這些情況吧。

(1)深度學習不適用於小數據集

爲了獲得高性能,深度網絡需要非常大的數據集。標註的數據越多,模型的性能就越好。獲得標註良好的數據既昂貴又耗時。僱傭人工手動收集圖片並標記它們根本沒有效率可言。在深度學習時代,數據無疑是最有價值的資源。

最新的研究表明,實現高性能的網絡通常需要經過數十萬甚至數百萬樣本的訓練。對於許多應用來說,這樣大的數據集並不容易獲得,並且獲取成本高且耗時。對於較小的數據集,傳統的ML算法(如迴歸、隨機森林和支持向量機)通常優於深度網絡。

(2)深度學習運用於實踐是困難且昂貴的

深度學習仍然是一項非常尖端的技術。您可以像許多人一樣獲得快速簡便的解決方案,特別是使用廣泛使用的API,例如Clarifai和Google的AutoML。但如果你想做一些定製化的事情,這樣的一些服務是不夠的。除非你願意把錢花在研究上,否則你就會侷限於做一些和其他人稍微相似的事情。

這也是很昂貴,不僅是因爲需要獲取數據和計算能力所需的資源,還因爲需要僱傭研究人員。深度學習研究現在非常熱門,所以這三項費用都非常昂貴。當你做一些定製化的事情時,你會花費大量的時間去嘗試和打破常規。

(3)深層網絡不易解釋

深層網絡就像是一個“黑盒子”,即使到現在,研究人員也不能完全理解深層網絡的“內部”。深層網絡具有很高的預測能力,但可解釋性較低。由於缺乏理論基礎,超參數和網絡設計也是一個很大的挑戰。

雖然最近有許多工具,如顯著性映射(saliencymaps)和激活差異(activation differences),它們在某些領域非常有效,但它們並不能完全適用於所有應用程序。這些工具的設計主要用於確保您的網絡不會過度擬合數據,或者將重點放在虛假的特定特性上。仍然很難將每個特徵的重要性解釋爲深層網絡的整體決策。

另一方面,經典的ML算法,如迴歸或隨機森林,由於涉及到直接的特徵工程,就很容易解釋和理解。此外,調優超參數和修改模型設計的過程也更加簡單,因爲我們對數據和底層算法有了更深入的瞭解。當必須將網絡的結果翻譯並交付給公衆或非技術受衆時,這些內容尤其重要。我們不能僅僅說“我們賣了那隻股票”或“我們在那個病人身上用了這藥”是因爲我們的深層網絡是這麼說的,我們需要知道爲什麼。不幸的是,到目前爲止,我們所掌握的關於深度學習的所有證據或者解釋都是經驗主義的。

原文鏈接:

https://towardsdatascience.com/three-reasons-that-you-should-not-use-deep-learning-15bec517b622

-END-

專 · 知

人工智能領域主題知識資料查看與加入專知人工智能服務羣

與人工智能領域26個主題知識資料全集獲取。歡迎微信掃一掃加入專知人工智能知識星球羣,獲取專業知識教程視頻資料和與專家交流諮詢

請PC登錄www.zhuanzhi.ai或者點擊閱讀原文,註冊登錄專知,獲取更多AI知識資料

請加專知小助手微信(掃一掃如下二維碼添加),加入專知主題羣(請備註主題類型:AI、NLP、CV、 KG等)交流~

AI 項目技術 & 商務合作:[email protected], 或掃描上面二維碼聯繫!

關注專知公衆號,獲取人工智能的專業知識!

相關文章