【嘉德點評】英特爾發明的混合處理架構的人工智能芯片,通過將CPU與模擬內存AI處理器相耦合,從而達到加速神經網絡運算的目的。

集微網消息,英特爾在2019年發佈了兩款Nervana NNP系列新的處理器,目的在於加速人工智能模型的訓練。據悉,英特爾的這兩款芯片是以2016年收購的Nervana Systems命名,在人工智能訓練以及數據分析等方面有着極大的價值。

而英特爾與英偉達作爲AI芯片競爭的主要成員,均在AI領域奮起發力,其中,英特爾主導AI推理市場,而英偉達主導AI訓練芯片。

但是用於神經網絡處理的加速器系統,仍然存在着許多問題,例如由於與從存儲器到數字處理單元的數據傳輸的帶寬限制而導致的問題,這些加速器通常需要在片外存儲器和數字處理單元之間傳輸大量數據,而這種數據傳輸會導致延遲和功耗的不良增加。

爲此,英特爾在2020年7月30日申請了一項名爲“混合CPU和模擬內存人工智能處理器”的發明專利(公開號:US 2020/0242458 A1),申請人爲英特爾公司,該專利旨在提供用於實現通用處理器的混合處理架構的技術。

根據該專利目前公開的資料,讓我們一起來看看這項混合處理架構的人工智能芯片吧。

如上圖,爲這種混合處理器的頂級框圖,可以看到,CPU與模擬內存AI處理器相耦合,CPU是通用處理器,例如我們熟知的x86架構處理器。模擬存儲器中AI處理器可以通過數字訪問電路從CPU接收加權因子和輸入數據130,並基於加權因子和數據執行模擬神經網絡處理。

模擬內存中AI處理器包括多個MN層,可以將它們配置爲卷積神經網絡層和全連接層,並且可以任意的組合使用,卷積神經網絡層的處理結果也可以通過數字訪問電路提供給CPU作爲輸出150。

如上圖,展示了全連接層的網絡層和該層的矩陣乘法實現,網絡層接受來自於上一層的輸入230,並將權重w(220)應用於輸入x(230)和輸出x(250)之間的每個連接,由此將網絡實現爲矩陣乘法運算,如260所示,將輸出的每個元素計算爲權重220行與輸入230列之間的點積。

如上圖,爲該專利中的模擬內存人工智能處理器的框圖,AI處理器用來實現完全連接的單個神經網絡層,其中包括數字訪問電路310、第一存儲器電路320、第二存儲器電路350、位線處理器電路330、交叉位線處理器電路340以及閾值整流線性單元(ReLU)電路360。

這些電路的作用就是實現各種點乘運算以及模擬乘法運算,這些運算是深度神經網絡中常用的操作,而人工智能芯片就是在硬件的層面上對於這些運算進行實現,而直接從硬件層面進行運算的好處就在於會更加的快捷以及有較高的效率。

具體而言,交叉位線處理器電路通過定時電容器上的電流積分來執行點積運算的模擬乘法部分,該電路實際上是一個與開關串聯的電容器。在位線上感測到的電壓作爲被乘數輸入之一,通過與電容器產生電流,另一個被乘數用來控制串聯開關的時序,以使開關導通的持續時間與第二個開關成比例。從而通過電荷累積來執行點積運算的模擬求和部分。

最後,是這種用於模擬內存中神經網絡處理的方法的流程圖,如上圖所示,可以看出,這種方法包括了多個階段和子過程,分別對應着上述的系統架構來實現。首先,用於模擬內存中神經網絡處理的方法通過數字訪問電路從CPU中接收輸入數據和加權因子而開始運算。

接着,將輸入數據存儲在第一存儲電路中,並將加權因子存儲在第二存儲電路中,存儲電路用於模擬內存計算。其次,由第一存儲電路生成模擬電壓值,有第二存儲電路生成模擬電壓值的第二序列。最後,再由交叉位線處理器計算一系列的模擬點積,從而完成整個運算過程。

以上就是英特爾發明的混合處理架構的人工智能芯片,通過將CPU與模擬內存AI處理器相耦合,從而達到加速神經網絡運算的目的。這種技術特別適用於AI平臺,例如在智能家居控制系統、機器人、虛擬助手等方面均可以發揮重要的作用。

(校對/holly)

相關文章