來源:中國經營報

本報記者 李玉洋 上海報道

近一週時間來,英偉達(NVIDIA)妥妥的是科技圈的焦點。

在今年的臺北電腦展(COMPUTEX 2023)大會上,英偉達CEO黃仁勳向全世界宣佈:“我們已到達生成式AI引爆點。從此,全世界的每個角落,都會有計算需求。”在他看來,CPU已經是過去式,而GPU纔是未來,讓後者取代前者的引爆點則是AIGC——生成式人工智能。

從賣遊戲顯卡到AI芯片供應商,牢牢掌握“計算”底牌的英偉達在COMPUTEX 2023又亮出新的算力“殺器”——生成式AI引擎“NVIDIA DGX GH200”超級芯片(被正式宣佈已經全面投產),它在系統內可提供高達900GB/s的總數據吞吐速度(帶寬),是當前行業標準PCIe Gen5接口速度的7倍。

繼COMPUTEX 2023上一系列重磅發佈後,英偉達的股價再創新高:北京時間5月30日21點30分(美國東部時間9點30分),英偉達股價開盤漲逾4%,總市值突破萬億美元大關,由此,英偉達成爲全球第1家市值突破萬億美元的芯片公司、第7家市值超過1萬億美元的美國公司,併成爲當前市值僅次於蘋果、微軟、Alphabet、亞馬遜的美股第5大科技股。

來自彭博社的消息顯示,黃仁勳將計劃前往中國,會見騰訊、字節跳動等企業高管。此前,黃仁勳接受英國《金融時報》採訪時表示,華盛頓和北京之間不斷升級的芯片鬥爭可能會對美國的科技行業造成“巨大損失”,中國是科技行業一個非常重要的市場。

AI大模型的熱潮,引發英偉達高端GPU供不應求。與此同時,微軟、亞馬遜、Meta等公司也在自研AI芯片,這能否撼動英偉達在AI芯片上的霸主地位?

對此,國企芯片系統行業人士吳迪(化名)對《中國經營報》記者表示:“目前來看,雖然微軟、亞馬遜等公司在自研AI芯片方面有所進展,但是英偉達在高端GPU方面的技術和市場優勢仍然較爲明顯,因此短期內難以被撼動。但隨着AI技術的不斷發展和市場的競爭日益激烈,未來的市場格局仍然存在不確定性。”

GPU:“算力革命”的硬通貨

目前,主流AI廠商都進入了“千億參數時代”,多采用了英偉達的GPU。據統計,英偉達當前在售的用於大模型訓練的GPU至少有9款型號,其中V100、A800、A100及H100爲高性能GPU。

崑崙萬維集團CEO方漢此前表示:“超過千億級別的大模型,它的訓練大概需要1000~2000張A100的卡,沒有2000張A100的卡,實驗都做不了。”而此輪AI“軍備競賽”也讓上述顯卡的價格一路高漲。其中,A100此前售價在1.5萬美元(約合人民幣10.35萬元),但目前在一些平臺上,此款顯卡價格已上漲到15萬元左右。

不過,即使價格上漲,目前市面上幾乎“一卡難求”。一位半導體業內人士曾對本報記者表示,客戶對英偉達A100/H100芯片需求強勁,後者訂單能見度已至2024年,更緊急向代工廠臺積電追單。

特斯拉CEO埃隆·馬斯克在日前的《華爾街日報》活動中稱,目前GPU“比藥物更難獲得”,“計算成本已經成爲天文數字,最低賭注必須是要拿着2.5億美元的服務器硬件以構建生成式AI系統”。

特別需要指出的是,英偉達2022年發佈的高端GPU H100,已成爲全球領先的科技公司和初創企業之間的AI軍備競賽所爭相競逐的對象,單塊價格在eBay上已超4萬美元。面對微軟、亞馬遜、谷歌、Meta等客戶對自家產品的強勁需求,英偉達預測截至7月底的第二財季的銷售額將達到110億美元,比華爾街此前的估計高出50%以上。

可以這麼說,英偉達的GPU幾乎成爲當下算力需求激增時期唯一的硬通貨。而據臺媒日前報道,英偉達A100/A800/H100的系統代工爲緯創及鴻海,目前訂單約各半,不過下半年代工比重將有所調整,H100目前鴻海約佔六成,下半年將拉昇至九成,而A100則是緯創爲主。

衆所周知,英偉達常年和臺積電合作,後者爲其代工GPU。什麼叫系統代工?對此,國內一家GPU創業公司人士對記者表示:“英偉達是設計公司,他們設計出芯片之後,需要找臺積電做芯片,芯片做好後,則需要做外面的板卡、散熱器等外觀件,這些就是系統代工。簡單來說,系統代工就是做芯片之外的外觀件代工。”

“目前,國內AI芯片企業在芯片流片和封裝領域主要依靠臺積電和三星代工。”前述國內GPU創業公司人士表示,在AIGC大模型的熱潮下,國產AI芯片會有新一輪發展的熱潮,這對下游代工來說會有額外的潛在市場發展機會。吳迪也認爲,AI芯片市場的變化,也會影響到下游代工產業的市場需求和產業鏈格局。

數據中心:GPU取代CPU

近日黃仁勳在接受採訪時表示,數據中心將不再需要數百萬個CPU,反而會需要數百萬個GPU,數據中心GPU芯片需求可能會變成一個萬億美元的巨型市場。

招商證券一份研報也指出,從通用服務器到AI服務器,一個最顯著的變化就是GPU取代了CPU成爲整機最核心的運算單元以及價值量佔比最大的部分,傳統服務器通常至多配備4個CPU+相應內存和硬盤,而在AI服務器中,通常是2顆CPU+8顆GPU。

研究機構TrendForce集邦諮詢預估2023年AI服務器出貨量近120萬臺,年增38.4%,佔整體服務器出貨量近9%,至2026年將佔15%,而AI芯片2023年出貨量將增長46%。

TrendForce集邦諮詢認爲,英偉達GPU爲AI服務器市場搭載主流,市佔率爲60%~70%,其次爲雲計算廠商自主研發的ASIC芯片,市佔率逾20%。TrendForce集邦諮詢分析師劉家豪表示,英偉達市佔率高的主要有以下原因,首先,目前不論美系或中系雲計算廠商,除了採購原有的英偉達的A100與A800外,下半年也將陸續導入H100與H800。

“其次,高端GPU A100及H100的高獲利模式也是關鍵,由於英偉達旗下產品在AI服務器市場已擁有主導權的優勢,H100本身的價差也依據買方採購規模,會產生近5000美元的差異。”劉家豪認爲,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域的開發市場,預估今年搭載A100及H100的AI服務器出貨量年增長逾五成。

根據英偉達最新的2024財年第一季度財報(截至4月30日),其一季度獲得收入71.9億美元,淨利潤20.4億美元,同比上漲26%。在各項業務中,英偉達的數據中心業務表現最爲亮眼,而該業務收入激增主要是由於,對使用基於Hopper和Ampere架構GPU的生成式AI和大語言模型的需求不斷增長。

在宣佈已量產DGX GH200超級芯片的同時,黃仁勳還對外介紹了人工智能超算產品DGX GH200預計將於今年年底問世,英偉達暫未公佈價格,而谷歌雲、Meta與微軟將是首批用戶。

記者注意到,微軟、Meta、谷歌這些科技巨頭儘管在採購英偉達的GPU,但也在研發自己的AI芯片。比如,近期Meta官宣了第一代AI推理定製芯片MTIA v1,這是一款ASIC芯片,通過編程,該芯片能同時執行一項或多項任務。

巨頭紛紛自研AI芯片,會否撼動英偉達在該領域的霸主地位?對此,前述國內GPU創業公司人士指出:“AI芯片的發展除了硬件之外,軟件也是很重要的決定要素,英偉達擁有CUDA生態系統,在軟件上擁有很強的技術壁壘,是其重大優勢,也是其他廠商短時間很難突破的地方。”

不過,他也指出,儘管目前看來英偉達優勢很大,但也存在很大不確定性。隨着科技的進步,誰都難以預料是否有新秀幹翻老師傅,就比如智能手機時代,蘋果完全顛覆了由諾基亞統治的市場格局。

相關文章