每經編輯 蘭素英 杜宇    

當地時間5月22日,英偉達公佈了截至4月28日的2025財年第一季度的財報。報告期內,該公司營收爲260.44億美元,同比增長262%,環比增長18%;淨利潤爲148.81億美元,同比增長628%,環比增長21%;Non-GAAP淨利潤爲152.38億美元,同比增長462%,環比增長19%。平均每天淨賺1.635億美元(約合人民幣12億元)。

財報發佈後,英偉達股價盤後一度漲超7%,突破1000美元大關。

在隨後的財報電話會議上,英偉達創始人、總裁兼首席執行官黃仁勳和執行副總裁兼首席財務官Colette Kress解讀了財報要點,並針對分析師有關新品、競爭和未來的持續創新等問題進行了回答。

英偉達CFO:主權AI和汽車領域今年均有望創數十億美元收入

對於英偉達創紀錄的營收和數據中心業務收入,Colette Kress在電話會議上表示,英偉達Hopper GPU計算平臺的需求推動了這一增長,計算收入比去年增長了五倍多,網絡收入則增長了三倍多。

她特別提到,大型雲服務提供商大規模部署和擴展了英偉達的AI基礎設施,爲數據中心收入貢獻了45%左右。

她表示,在英偉達CUDA上訓練和推理AI可以推動雲租賃收入的增長,每1美元的英偉達AI基礎設施支出讓雲服務提供商有機會在四年裏獲得5美元的GPU即時託管收入。對於雲租賃客戶來說,英偉達GPU提供了最佳的模型訓練時間、最低的模型訓練成本以及最低的大型語言模型推斷成本。OpenAI、Adept、Anthropic、Character.Al、Cohere、Databricks、DeepMind、Meta、Mistral,以及xAl等公司都在基於英偉達的AI構建雲端解決方案。

企業也是數據中心業務增長的一大推手。Kress稱,特斯拉已將其訓練型AI集羣擴展到35000塊H100 GPU。英偉達AI基礎設施的應用爲其最新自動駕駛軟件FSD Version 12的突破性性能鋪平了道路。Kress預計,今年汽車將成爲英偉達數據中心業務中最大的企業垂直領域,帶來數十億美元的收入機會。

Kress同時介紹稱,Meta的最新大型語言模型Llama3是在24000塊英偉達H100 GPU上訓練的。

從地理角度看,隨着世界各國在主權AI上的投資不斷增加,數據中心收入也持續多元化。主權AI是指一個國家利用本國的基礎設施、數據、勞動力和商業網絡來發展AI的能力。Kress認爲,主權AI今年可創造數十億美元的收入

從產品角度看,英偉達絕大多數計算收入來自Hopper GPU架構。藉助CUDA算法創新,英偉達將H100的LLM推斷速度提升至原來的3倍,這可以將Llama 3這類的模型的成本降低到原來的三分之一。

目前,H200已經進入生產階段,第二季度的發貨將按計劃進行。第一個H200系統已經交付給OpenAI團隊,併爲上週的GPT-4o演示提供了支持。H200在推理性能上較H100幾乎翻了一番,爲生產部署帶來了巨大的價值。

例如,使用7000億參數的LLama 3,單臺HGX H200服務器可以每秒輸出24000個Token,同時支持超過2400名用戶。這意味着,託管Llama3的API供應商每花費1美元在英偉達HGX H200服務器上,未來四年內就可從Llama3 token計費中賺取7美元收入。

另外,針對3月發佈的下一代Al工廠平臺——Blackwell,Kress稱,Blackwell GPU架構的訓練速度比H100快4倍,推斷速度快30倍,並且能夠實時運行萬億參數大語言模型生成式AI。

與Hopper相比,Blackwell可將成本和能耗降低到原來的25分之一。Blackwell平臺包括第五代NVLink、新一代InfiniBand和X800系列以太網交換機。

對於第二財季的展望,Kress表示,預計總收入將爲280億美元,上下浮動兩個百分點。GAAP和非GAAP毛利率預計分別爲74.8%和75.5%,各自上下浮動50個基點。

“狂捧”Blackwell,黃仁勳稱其將創造大量收入,Blackwell之後還將推新款芯片

英偉達首席執行官黃仁勳在財報會議上表示,下一次工業革命已經開始了。很多國家和公司都在將價值萬億美元的傳統數據中心基礎設施轉變爲加速計算,並建立新型數據中心,即AI工廠。

生成性AI對Hopper平臺的訓練和推理需求不斷增長,推動了數據中心業務的增長。推理工作負載增長得非常快,生成性AI正在推動從基礎架構到全棧計算平臺的根本轉變,這將改變每一臺計算機互動的方式。生成性AI已經擴展到消費互聯網公司、企業、主權AI、汽車和醫療保健客戶,創造了多個數十億美元的垂直市場。

在隨後的問答環節中,他詳細解答了關於Blackwell平臺、產品供應、競爭問題,以及未來的持續創新等問題。

關於產品:預計Blackwell今年將創造大量收入

針對Blackwell產品出貨以及營收預期,黃仁勳解釋道,Blackwell已經投產一段時間了,預計將於第二季度開始出貨,並在第三季度加速,客戶預計將在第四季度完成數據中心的建設。他明確表示,Blackwell今年應該將爲英偉達創造大量收入。

關於Blackwell與Hopper在部署上的差異及其對過渡期的影響,黃仁勳指出,Blackwell是一個平臺,不是單一CPU。該平臺支持風冷、液冷、X86架構、Grace處理器,以及InfiniBand計算機網絡通信標準、Spectrum X網絡平臺和NVLink通信協議。他強調Blackwell系統的設計爲向後兼容,Hopper商運行的軟件堆棧也可以在Blackwell上運行良好,並且英偉達已經與整個生態系統合作,爲液冷技術做好準備。

而隨着H200和Blackwell的推出,Hopper和H100產品需求是否會受到影響呢?對此,黃仁勳表示,預計Hopper的需求將在今年第三季度持續增長,並且隨着市場過渡到H200和Blackwell,需求預計也將繼續超過供應,因爲客戶希望儘快上線基礎設施以節省成本並創造收入。

在被問及當前的緊張供應問題時,黃仁勳提到,數據中心對GPU的需求非常驚人,超出了我們的供應。英偉達每天都在與時間賽跑。他表示,ChatGPT、GPT-4o等應用正在消耗市場上的GPU。此外,還有1.5萬到2萬家多媒體、數字角色、數字生物學等領域的生成式AI初創公司也有大量的需求。

關於競爭:英偉達有三大優勢

有分析師提及,雲客戶在跟英偉達合作時,也在開發新的或更新現有的內部程序,這是否會構成競爭?黃仁勳強調,加速計算架構、雲平臺覆蓋以及構建AI工廠是英偉達的優勢。

他進一步解釋道,英偉達的加速計算架構使客戶能夠處理他們數據管道的每一個方面,從無結構化數據處理到爲訓練做準備,再到結構化數據處理、SQL類似的數據幀處理以備訓練,再到訓練和推理。

推理已經從根本上發生了變化,現在已經是生成式了。它不再試圖只是檢測出貓,這本身就是一項非常困難的任務,而是必須生成每一隻貓的像素。因此,生成過程是一種根本性的不同的處理架構。這也是爲什麼TensorRT LLM受到如此歡迎的原因之一。

我們在相同的芯片上使用我們的架構,性能提高了三倍。通用計算已經走到了盡頭,所以加速計算纔是真正可持續的發展方式。因此,加速計算纔是你在計算中省錢的方式,也是在計算中節能的方式。我們平臺的多功能性使其數據中心的整體擁有成本(TCO)降低至最低。

另外,我們構建AI工廠是因爲AI本身是一個系統問題,不僅僅是一個大型語言模型,是許多大型語言模型協同工作的複雜系統。AI工廠旨在優化所有的芯片作爲一個整體工作,讓軟件像一個系統一樣運行,並能夠在整個系統上進行優化。

他還打了個比喻來進行解釋:如果有一個價值50億美元的基礎設施,並將性能提高兩倍(通常會這樣做),這時基礎設施的價值依然是50億美元。該數據中心的所有芯片都不會爲此付費,所以價值確實是非凡的。這就是性能至關重要的原因。此時,最高的性能也意味着最低的成本。

關於持續創新:將在以太網領域開闢新市場

在通用計算框架的風險問題上,黃仁勳表示,英偉達的加速計算是多功能的,很靈活,但並非是通用型,這使得英偉達能夠適應加速計算的豐富應用領域。

關於中國市場的需求與供應問題,黃仁勳提到,英偉達在中國的業務較之以前有大幅下降。由於我們在中國的業務受到技術限制的影響,現在的競爭更加激烈,但英偉達將繼續盡最大努力服務中國市場。

對於未來十年的創新等問題,黃仁勳稱,Blackwell之後,英偉達還將推出另一款芯片,並且英偉達每年都會推出新產品。

他表示,英偉達還推出了適用於以太網的Spectrum-X,在以太網方面,公司有一個非常令人激動的路線圖,有豐富的客戶和合作夥伴生態系統,他們將把英偉達的整個工廠架構帶向市場。

英偉達將致力於所有三種網絡鏈接技術:針對單一計算領域的NVLink、InfiniBand計算架構和以太網網絡計算架構。此外,英偉達還將推出新的CPU、GPU、網絡NICs和交換機。他最後稱,英偉達帶來的創新速度將會在一方面提升能力,在另一方面降低總擁有成本。

相關文章