本報記者 秦梟 北京報道

AMD與英偉達的顯卡之爭已經持續了20餘年,雙方勢均力敵,交錯領先。但在最近以AI大模型爲戰場的芯片之爭中,英偉達優勢盡顯。據統計機構Jon Peddie Research 的數據統計報告顯示,截至2022年四季度,英偉達(NVIDIA)佔據了獨立GPU84%的市場份額。其中,AI芯片當居首功。8月8日,英偉達再向市場展示了新一代英偉達超級AI芯片GH200。其創始人兼CEO黃仁勳說:“GH200爲世界上最快的內存。”有業內人士預測,英偉達與AMD之間的差距將進一步拉大。

不過,《中國經營報》記者瞭解到,AMD正計劃在2023年第四季度擴產其AI芯片MI300系列,並保證在2024年供應充足,以此來應對英偉達的“一家獨大”, 其CEO蘇姿豐預測,新芯片的發佈將爲其帶來強勁的業績增長,預計2023年包括MI300芯片在內的銷售額將超過2022年的60.4億美元。

英偉達強勢“稱雄”

“2018 年是一個‘孤注一擲’的時刻,要求我們重新發明硬件、軟件、算法。而當我們用 AI 重新發明 CG(計算機圖形學)時,我們也在重新發明 GPU(圖形處理器)用於 AI。”黃仁勳5年前的豪賭正在迎來收穫期。

ChatGPT的橫空出世,讓AI產業迎來“iPhone時刻”, 科技巨頭爭相謀局落子,繼微軟、谷歌之後,國內企業百度、阿里巴巴等也先後發佈大模型,並進行用戶測試和企業應用接入。洶湧的人工智能浪潮導致創建高級人工智能程序所需的芯片極爲短缺。

爲了訓練ChatGPT,OpenAI構建了由近3萬張英偉達V100顯卡組成的龐大算力集羣,GPT-4更是達到了100萬億的參數規模,其對應的算力需求同比大幅增加。TrendForce分析認爲,要處理近1800億參數的GPT-3.5大型模型,需要2萬顆GPU芯片,而大模型商業化的GPT需要超過3萬顆,GPT-4則需要更多。

GPU Utils 8月4日公佈的一組數據顯示:OpenAI 的GPT-4可能在1萬到2.5萬張A100 GPU芯片上進行訓練;Meta擁有約21000個英偉達A100;特斯拉擁有約7000個A100;Stability AI 擁有約5000個A100;Falcon-40B模型(400億參數)在384個A100上進行訓練。根據馬斯克的說法,GPT-5可能需要3萬~5萬張H100顯卡。

即便臺積電開足馬力爲英偉達生產,也仍存在巨大缺口。根據GPU Utils的測算,AI芯片H100在2023年8月的市場總需求可能在43.2萬張左右,而目前一張H100芯片在eBay上的價格甚至炒到了4.5萬美元,摺合人民幣超過了30萬元。

憑此,英偉達今年以來的股價上漲超200%,市值突破了1萬億美元,成爲全球最有價值的芯片公司。

然而,英偉達並未滿足於此,開始頻頻推出新款GPU用來提升AI訓練能力。今年3月,英偉達發佈了H100 NVL GPU、L4 Tensor Core GPU、L40 GPU、NVIDIA Grace Hopper四款AI芯片,以滿足生成式AI日益增長的算力需求。

在上一代還未量產上市的背景下,英偉達又在8月8日世界計算機圖形學會議SIGGRAPH上,由黃仁勳發佈了H100的升級版GH200。

據瞭解,GH200全球首發採用HBM3e高帶寬內存,與英偉達目前最高端的AI芯片H100使用同樣的GPU,但不同之處在於,GH200將同時配備高達141GB的內存和72核ARM中央處理器,每秒5TB帶寬。和現有Grace Hopper型號相比,最新版本的GH200超級芯片能夠提供3.5倍以上的內存容量和3倍以上的帶寬。和H100相比,GH200超級芯片的內存增加了1.7倍,帶寬增加了1.5倍。全新一代的GH200預計明年二季度開始生產。

黃仁勳表示,一臺服務器可以同時裝載兩個GH200超級芯片,大型語言模型的推理成本將會大幅降低。按照黃仁勳的介紹,在相同的成本(1 億美元)下,2500 塊 GH200 組成的計算中心,在 AI 計算的能效上,要比傳統的 CPU 計算中心高 20 倍。

東方證券研報指出,英偉達仍舊牢牢佔據AI基礎設施領域的主導地位。自ChatGPT引領生成式AI浪潮以來,NVIDIA GPU已成爲支持生成式AI和大模型訓練的大算力AI芯片首選。隨着此次GH200超級AI芯片的升級以及多款GPU、服務器產品的推出,英偉達展現了在AI基礎設施領域的絕對主導地位。

AMD背水一戰

《福布斯》雜誌評論稱:“如果業界還有英偉達潛在的對手,那一定包括蘇姿豐和她掌管的AMD。”

英偉達發佈GH200被看做是對於近期動作頻頻的AMD的“反擊”。在近日舉行的AMD第二季度業績說明會上,蘇姿豐表示,到2027年,數據中心的人工智能加速器市場可能會超過1500億美元。個人電腦是推動半導體處理器銷量的傳統產品,但隨着個人電腦銷量下滑,人工智能芯片成爲半導體行業的新亮點之一。

與此同時,蘇姿豐指出,計劃在2023年第四季度擴產MI300系列芯片,包括CPU-GPU混合型MI300A和純GPU型MI300X。相關樣品已經送達客戶進行測試,預計在2024年批量銷售。

MI300X是一款專門面向生成式AI的加速芯片,擁有1530億個晶體管。其HBM(高帶寬存儲器)容量及顯存帶寬,分別是英偉達H100的2.4倍及1.6倍,由於HBM容量大幅提升,單顆MI300X芯片可以運行800億參數模型。

實際上,近幾年,與英偉達類似,AMD的戰略重心也在向AI轉移。蘇姿豐也不止一次地表明自己對於AI的態度。在今年早些時候舉辦的CES 2023科技大會上,蘇姿豐發表了“AI is the defining megatrend in technology(AI是未來科技的決定性趨勢)”的主題演講。她說道:“AI已是AMD當前的第一戰略重點,我們正積極與所有客戶合作,將聯合解決方案推向市場。”

除了硬件端之外,AMD在軟件端也欲與英偉達試比高。其在不斷加大軟件生態的投入,推出了用於數據中心加速、一套完整軟件棧工具AMD ROCm系統,包括爲PyTorch 2.0提供即時“零日”支持,AI模型“開箱即用”等。ROCm軟件棧可與模型、庫、框架和工具的開放生態系統配合使用,ensorFlow和Caffe深度學習框架也已加入第五代ROCm。

不僅如此,AMD也在嘗試“重啓”中國市場, AMD正在認真考慮採用類似策略以將MI300和舊版MI250芯片產品出口中國。蘇姿豐說道:“當然,我們的計劃是完全遵守美國的出口管制。但我們確實相信有機會爲我們正在尋找人工智能解決方案的中國客戶開發產品,我們將繼續朝着這個方向努力。”

即便如此,在半導體分析師王志偉看來,在AI芯片領域,英偉達的地位不可撼動。其成熟的芯片已經得到市場認可,並被廣泛使用,而AMD相關產品仍處量產初期,其效果也需要長時間的市場驗證。

值得注意的是,AMD執行副總裁Forrest Norrod此前曾坦承,英偉達在GPU運算加速卡方面建構了豐富的軟件生態系統,幾乎覆蓋了多數市場需求,其護城河之深,讓AMD如今不可能來得及複製英偉達走過的這條路,需另闢蹊徑。

相關文章