界面新聞記者 | 彭新

界面新聞編輯 |

1

“大模型未來的發展需要依賴於底層技術突破,如技術、通訊和存儲技術。只有這些底層技術不斷突破,才能實現對人工智能更高的要求。這些底層技術正是英特爾正在努力發展的方向,包括人工智能、邊緣到雲的基礎架構、連接和傳感技術等。”在2023年世界人工智能大會期間,英特爾中國區網絡與邊緣事業部首席技術官、英特爾高級首席AI工程師張宇在接受界面新聞等採訪時稱。

張宇說,他觀察當前AI大模型的商業進展,還未發現一個特別成功的商業模式和持久的使用場景,因此可以認爲大模型的商業模式仍在摸索中。即使人們對於ChatGPT的應用相當熱衷,用它來寫論文、畫圖等,但一些報告顯示,ChatGPT最近的訪問量正在下降。

但這一現象並不能否定ChatGPT開啓的AI新時代,張宇稱,目前AI大模型和AIGC技術尚處於開環工作,而不是閉環工作,仍然存在成本、數據和人力等限制,隨着人工智能和算力的不斷發展,這些問題可能會得到解決。

作爲芯片巨頭,英特爾雖不及英偉達在AI計算中憑藉GPU“獨領風騷”,但仍是該領域的重要玩家,可以提供諸如CPU、GPU、FPGA等多種算力資源和完整軟硬件解決方案等。張宇介紹,不同的計算資源需考慮資源分配和調度問題。對於資源調度,需要一個統一API(應用程序接口)接口,否則不同的資源調度都需要不同的接口,這是不經濟的。“

英特爾正在考慮如何在異構平臺上合理分配負載,以進行人工智能處理。張宇指出,在底層方面,英特爾採用了OneAPI(一種統一編程模型和應用程序接口)思路,利用OneAPI提供的優化庫,希望以打包的平臺方案整合自家龐雜的產品路線,降低客戶對底層硬件差異的敏感度。在算力調度方面,英特爾還需要考慮資源分配的問題,根據不同場景的要求選擇不同的產品組合,包括獨立顯卡、集成顯卡、CPU以及AI芯片等。

近年來,AI應用的普及,對底層計算芯片提出了更高的要求。GPU比傳統CPU更適合此類任務,性能表現更好,在AI計算市場上搶得先機。針對人工智能訓練市場,主流的方案是英偉達GPU,推廣專用AI芯片進行訓練並不容易。英特爾試圖打破這一點,張宇稱,目前英特爾有專門爲大模型訓練設計的Habana Gaudi 2這一款AI芯片。

Habana Gaudi 2作爲落地英特爾AI戰略的重要產品,英特爾對其有巨大市場期望。Habana原爲以色列初創芯片公司,2016年成立,旗下產品曾滲透進入中國主要互聯網公司,2019年12月,英特爾以20億美元收購Habana。

“在最近的MLCommons公開的AI評測中,只有英特爾和另一家友商展示了在大模型訓練方面的良好性能。”張宇透露,“我們計劃不久將其引入中國,併發布相關活動,這對英特爾來說非常重要。”

另一方面,英特爾亦以自身在網絡技術領域的積累,試圖解決AI大模型的網絡瓶頸問題。張宇指出,網絡互連對大模型的訓練推理同樣重要,因爲大模型的平臺通常是一個集羣,需要解決節點之間的通信問題。在訓練過程中,模型的參數存儲在GPU外圍存儲器中,反向傳輸過程中需要不斷更新這些參數。因此,在進行大量的數據存取操作時,通信速度的下降會影響整個系統的性能。

近年來,爲了應對大模型網絡瓶頸,雲計算、服務器等廠商提出無損網絡架構,引入RDMA(遠程直接數據存取)技術或者是DPU(數據處理器)等硬件,張宇稱,隨着大模型的訓練集羣規模不斷擴大,數據傳輸不斷增加,網絡擁塞不可避免。其中一種方案提高網卡速度,英特爾即計劃推出具備200G吞吐速度的網卡,400G和800G規格的網卡產品也在路線圖上。

另一方面,英特爾還嘗試提高網絡傳輸的可靠性,“我們將通過更新和創新更高層網絡協議來提高以太網傳輸RDMA協議的可靠性,稱之爲可靠傳輸,這個功能將包含在我們即將發佈的下一代IPU中。”張宇稱。IPU即基礎設施處理器,該產品本質上就是如今火熱的DPU(數據處理器)。此前英特爾依託FPGA方案,在2021年6月推出了首款IPU。據界面新聞了解,英特爾IPU在運營商中應用較多。

相關文章