安妮 發自 凹非寺

量子位 出品 | 公衆號 QbitAI

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

陳天奇

昨天,TVM、XGBoost、cxxnet等機器學習工具的作者陳天奇宣佈,自己所在的華盛頓大學新成立了一個實驗室,組織代號“SAML”。

陳天奇本人在微博上介紹說,實驗室將有整合系統、體系結構、機器學習和程序語言4個方向的團隊推進深度學習算法、系統的硬件和協同設計研究和TVM等開源項目。

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

陳天奇微博截圖

四個方向

華盛頓大學爲什麼想建立這個實驗室?在SAML項目首頁上,我們找到了答案。

我們想解決調度、網絡、存儲和編程抽象方面的新挑戰,構建可從新興硬件體系中受益的可擴展系統,處理不斷增長的可用數據。重要的是,未來的模型和算法需要與硬件共同設計,系統級的要素需要告知硬件軟件棧的設計。

我們需要建立通用、可複用的基礎設施,並製造更智能的系統。目前,這些挑戰和研究問題涉及計算機科學的多個領域。

因此,SAML問世。

簡單說來,這是一個跨學科的機器學習研究小組,探索跨系統堆棧的多層次問題,包括深度學習框架、訓練和推理的專用硬件、新的中間表示、可微編程和各種應用程序。

目前,實驗室有四個研究方向。

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

一個方向是序列模型的專門化(Sequential Model Specialization),能通過自適應級聯的深度模型爲視頻快速分類。

研究人員提出了一種級聯的廉價分類器架構,並證明了當種類分佈高度傾向於小型類集合時,這種專門化的模型準確率相對較高。

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

專門化模型的架構

PHub項目是第二個方向,研究內容包括用於高效分佈式深度神經網絡訓練的參數服務器。

這項研究以華盛頓大學和微軟研究院的論文Parameter Hub: High Performance Parameter Servers for Efficient Distributed Deep Neural Network Training爲基礎,探索參數服務器的平衡設計。

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

論文地址:

http://www.sysml.cc/doc/16.pdf

第三個方向以陳天奇團隊的TVM堆棧爲基礎,研究適用於深度學習的端對端優化堆棧。

去年8月,當陳天奇發佈TVM時曾引起業內討論的高潮,通俗點來說,這是一種把深度學習模型分發到各種各樣硬件設備上的、端對端的解決方案,包含以下組件:

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

相關論文地址:

https://arxiv.org/abs/1802.04799

最後一個項目也與陳天奇有關,XGBoost項目是一個高效靈活的可擴展的樹狀增強系統,在梯度增強的框架下實現了機器學習算法。

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

相關論文地址:

https://arxiv.org/abs/1603.02754

參與團隊

目前,項目的參與者均來自華盛頓大學,並由Sampa、Syslab、MODE和PLSE實驗室的教師、研究生和本科生組成。

華盛頓大學成立SAML實驗室:陳天奇參與,探索跨系統堆棧多層問題

最後,附項目主頁地址~

http://saml.cs.washington.edu/

誠摯招聘

量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公衆號(QbitAI)對話界面,回覆“招聘”兩個字。

量子位 QbitAI · 頭條號簽約作者

վ'ᴗ' ի 追蹤AI技術和產品新動態

相關文章