摘要:IBM其實已經圍繞未來的AI計算,重新想象硬件、軟件和應用程序。2019年2月成立的IBM研究院AI硬件中心(IBM Research AI Hardware Center),就是爲了應對未來十年的智能計算需求而投資的研究機構。

編者按:本文作者@IBM副總裁,大中華區首席技術官 謝東博士,36氪經授權轉載。

頭圖&圖片來源 | EmTech China

在36氪看來,科技和資本是當前新商業時代的兩大驅動力,也是我們內容上努力的兩大方向。“未來科技會如何發展”一直是衆人關注的焦點。因此,36氪的「潮科技 · 暢想未來」系列活動希望爲36氪讀者和熱愛科技的人羣,提供和分享關於未來科技發展方向的各種看法,與36氪讀者一起想象未來,期待科技的下一個新十年。

EmTech China是由《麻省理工科技評論(MIT Technology Review)》主辦的全球新興科技峯會,2017年首次落地中國。2019年12月13日,EmTech China再次在北京舉辦,中外頂級專家與學者們就未來重構、AI+算力等話題展開了討論。有趣的是,此前不久,MIT電子工程和計算機科學系(EECS)剛剛拆分,形立了電子工程(EE)、計算機科學(CS)和人工智能與決策(AI+D)等三學院,AI首次在學界獲得了與CS和EE同等的地位 [1]。

圖片:謝東博士在EmTech China

此時距離美國普渡大學設立世界上第一個計算機科學系已經過去57年了[2]。要知道,世界上第一次人工智能會議在1956年美國達特茅斯學院召開,歷經63年才終於有了屬於自己的獨立院系,此前一直是計算科學的一個研究方向。IBM發展史告訴我們,大規模生產和應用的計算機器與相關科學之間,一直保持着產業與基礎學科之間的良性互動關係。MIT成立獨立的人工智能與決策系,這就意味着AI終於成爲某個規模化商業或產業領域的基礎學科。

圖片:謝東博士在EmTech China

值得一提的是IBM與MIT在2017年2月合作成立了AI實驗室,IBM將在未來十年期間投入2.4億美元,這是IBM發展歷程中最大的一次學術合作投資,也從一個側面驗證了AI對於學界和產業的重要性。無疑,AI計算將成爲下一個IT計算,AI產業將堪比IT產業,AI所帶來的商業變化將不亞於IT已經帶來的商業變革。未來的AI計算到底是什麼樣?這是未來計算要研究的課題。

重新想象AI計算

2019年對於計算機科學和人工智能科學來說是關鍵的一年,在這一年IBM「Watson」研究中心的研究員、被喻爲內存之父的羅伯特·登納德(Robert H. Dennard)博士被美國半導體行業協會(SIA)授予2019年半導體行業最高榮譽獎——Robert N. Noyce Award。登納德所構思的縮放定律(Dennard Scaling),奠定了摩爾定律的數學與物理基礎,正在此基礎上發展出了今天繁榮的電子計算機產業。

然而,正如計算機科學與人工智能科學的理念實際上是同時起源同時發展,但適應AI算法的硬件與軟件在人類信息文明的第一個60年裏遠未成熟,而由傳統計算機所支撐的ERP、CRM、BI等商業軟件卻建立了一個龐大的商業世界,並由此反向推動了基於數字集成電路的計算機科學。其原因可以簡單理解,即傳統的計算機科學與我們正在走向的AI計算之間的差距:一個是用於精確計算,一個是更是用於非精確計算的邏輯推理(即決策)。

以IBM Project Debater來打一個形象的比喻,這臺可以與人類進行辯論的智能機器在2018年公開亮相中就吸引了全球產學研界的廣泛關注。Project Debater歷時逾六年研發,是IBM繼1997年打敗人類國際象棋大師的“Deep Blue”(深藍)和2011年在益智遊戲節目《危險邊緣》國戰勝人類冠軍的“IBM Watson”之後的又一里程碑。然而不同的是,與前兩者的任務(下棋和開放式Q&A)相比,Project Debater面臨並不是有非黑即白答案的任務,事實上即便是人類與人類的辯論也往往難以分出勝負或者高下。

IBM其實已經圍繞未來的AI計算,重新想象硬件、軟件和應用程序。

例如,當前電子計算所普遍採用的數字電路其實並不適合AI計算。數字電路的基礎是比特,也就是“0”與“1”所組成的世界,在一個非“0”即“1”的比特世界裏,完成的計算任務也只能是精確和精準計算。而AI計算卻正好相反,未來的AI機器可能就像Project Debater一樣會與人類爭辯某個議題,並在符合倫理道德的前提下提供可能的決策範圍。IBM首先就在嘗試用被認爲是過時的模擬電路來解決AI這類模糊問題,因爲模擬電路的輸出是一個連續變化的數字範圍,這就在“0”與“1”之間打開了多種可能。IBM研究院AI硬件中心就成功用模擬電路實現了DNN神經網絡,在達到了GPU同等水平的同時顯著降低了成本和功耗[4]。IBM還在投資原子存儲和量子計算,這些有可能是未來真正適合AI計算的硬件。

簡而言之,未來的AI計算不等於或將取代今天的IT計算,因爲未來的AI計算將要解決的是完全不同的問題和執行完全不同的任務。MIT成立獨立於計算機科學系之外的人工智能與決策系,就是這一歷史進程的分水嶺:人類文明終將迎來AI計算時代。

走向未來計算之路

圖片:謝東博士在EmTech China

今天正處於計算機科學走向成熟以及AI科學啓動的交疊時期,基於經典馮·諾伊曼架構和摩爾定律的信息文明、基於Matcalfe定律的網絡文明與基於新型人工智能架構和人工智能定律的數字智能文明處於相互推進的波浪式前進階段。

讓我們看一下AI計算前進的技術領域。

首先,在由材料科學和物理科學進步所帶來的真正AI硬件到來之前(也就是原子存儲與量子計算機),我們仍然可以對今天已有的硬件架構改良和優化AI算法及軟件,從而達到模擬AI計算效果和發展AI企業級應用程序的目的。換句話說,在真正的AI計算以及基於AI計算的通用人工智能到來之前,我們仍然可以在現有的計算架構基礎之上發展狹義人工智能,讓人類可以率先享受人工智能技術所帶來的商業收益。

2019年2月成立的IBM研究院AI硬件中心(IBM Research AI Hardware Center),就是爲了應對未來十年的智能計算需求而投資的研究機構。該機構爲開放式研究方式,將與其它研究機構和產業公司一起對話及合作,共同加速面向AI優化的硬件創新。例如該AI硬件中心開發的一個技術路線圖顯示,基於模擬AI內核技術的深度學習結合了優化的材料後能在2030年左右達到今天AI計算能力的千倍[5]。

其次是推進高度並行計算。IBM研究員最近完成了這樣一個項目,在當前全球排名第一、由IBM設計的超級計算機系統Summit上訓練一個超大規模的視覺識別模型:如果訓練任務只部署在Summit的一個節點上,完成整個訓練任務需要2天時間;如果利用256個節點,則可以把同樣任務的訓練時間算短到14分鐘,與理論值非常接近。這就說明隨着節點數的增加,系統的有效處理能力幾乎是線性增長的。

IBM在擴展AI規模方面一直在大力投入,例如:考慮到深度學習算法並不需要太高的精準度,因此可以在降低精準度和提升計算速度方面進行重新平衡選擇,讓從邊緣到數據中心再到雲端的計算架構可以在更短時間內更高效完成學習和推理;其它還包括消耗了大量計算時間和計算資源的深度神經網絡參數搬移,可以考慮重新設計網絡拓撲和服務器結構等。

例如IBM POWER9芯片爲下一代工作負載提供了增強的內核和芯片架構,特別是專門爲數據密集型工作負載而設計,POWER9是當今唯一具備最領先的I/O系統技術的芯片,包括下一代NVIDIA NVLink、PCIe Gen4和OpenCAPI。其中NVLink協議增強了CPU與GPU之間的超高帶寬,OpenCAPI接口提供與NIC、FPGA加速器以及存儲控制器之間的高帶寬,這些都降低了AI模型參數數據搬遷所需時間和計算資源,從而大幅提升了AI應用計算速度[6]。而新一代IBM大型主機z爲企業交付最強的數據安全,不僅加密速度是x86服務器的18.4倍、成倍只有其1/20,而且最新的z15可以在數據離開系統後仍能對數據進行保護[7]。

第三是就自動AI和雲化AI。在未來,AI就是軟件代碼(AI is Code)。這有兩層意思,一方面是當前可以用自動AI平臺來提升開發者的效率、降低對開發者的要求,甚至讓AI自動開發軟件;另一方面是未來的軟件是由AI模型構成,例如用AI模型結構取代今天軟件中常見的If-Not結構,從而達到模糊輸出的結果。而在雲化AI方面,通過IBM Cloud對外大規模輸出AI能力,讓更多的企業和商業用戶可以在雲中快速開發和獲得AI應用。

站在2019年未,展望2020年,我們處於比特、神經元和量子比特三種信息單元組合的世界,以比特代表的經典計算機和計算架構、以神經網絡爲代表的AI計算和計算架構以及未來的量子計算,將定義我們當前的視野中必然交相輝映着短中長期趨勢,這給了我們一個全新觀察計算世界的視角。

數學與信息結合、生物學與信息結合、物理學與信息的結合,推動着信息技術的發展和應用。在通往未來之路上,算力還將繼續提升,從理論到技術到應用,還有很多領域亟待突破。無論如何,今天是到了重新想象未來AI計算的時候了。

相關文章