在人工智能領域,英偉達正展現出更龐大的佈局。

高性能GPU 79%的市佔率,讓市場對英偉達的記憶停留在最強大的GPU供應商上,忽略了它強大的軟件能力和佈局。

當全世界都在爲算力焦慮時,英偉達在GTC大會上給出瞭解決方案。

英偉達CEO黃仁勳推出了算力平臺DGX Cloud,基於這個雲平臺,用戶可以通過網頁瀏覽器直接調用算力,就像點開百度搜索界面一樣方便。而DGX超級計算機則是Open AI採用的算力引擎。

這項雲服務目前已經和甲骨文達成合作,微軟AWS也即將加入托管。黃仁勳表示,未來中國也可以採用這項服務,中國創業公司可以期待阿里、百度、騰訊提供的底層算力服務。

解決了算力問題,黃仁勳又給出了模型的解決方案。

面向那些沒有大模型研發能力,又需要行業專屬模型的公司,英偉達推出了NVIDIA AI Foundations,內置了語言模型NEMO、視覺模型PICASSO和生物學模型BIONEMO三種模型,企業可以將行業算法加入其中,生成專屬於自己的大模型。

在硬件上,英偉達新推出了適合大模型需求的雙 GPU產品 H100 NVL,希望更進一步爲客戶提供算力服務。

提供算力雲平臺,讓高性能算力不再稀缺

算力是當下最搶手的資源。

除了少數雲服務廠商和巨頭,大模型企業很少有自建設算力中心的能力。

大模型具有改變各行各業的能力,自GPT 3.5以來,谷歌、百度等公司紛紛推出大模型產品,摩肩接踵的發佈會日期宣示着,大模型混戰已然開始。

作爲Open AI背後的算力支柱,也是目前市面上性能最高、性價比最強的已量產產品,A100成爲市面上最搶手的芯片。

一時之間,擁有A100芯片的數量,成爲行業判斷企業大模型能力的重要指標。

一位行業人士告訴36氪 ,國內某大模型公司拿到新一輪融資後,就趕緊通過私人渠道買了500塊A100芯片。

面對如此緊缺的算力需求,英偉達推出了一項新的AI超級計算服務——DGX Cloud雲服務。

DGX Cloud背後是DGX(AI超級計算機)的算力能力,通過這個平臺,企業無需購買硬件,可以通過網頁瀏覽的方式獲取高性能算力,擴展多節點的AI訓練。

DGX配有8個H100 GPU或A100 80GB Tensor Core GPU,每個節點共有640GB GPU內存。這8個模組具有很好的通信能力,能更好地傳輸數據。它配有Transformer引擎,可以處理類似ChatGPT的大模型。

此外,DGX還提供了NVIDIA AI Enterprise 套件,帶有AI 解決方案工作流程,可以幫助企業優化框架設計和預訓練模型,提高工程師的生產效率。

企業可以通過月租的方式獲取算力,每月租金36999美元。可以說,DGX Cloud雲平臺降低了用戶使用算力的門檻。

在部署方式上,DGX支持公有云、私有云和混合雲的部署方式。在混合版本,客戶在使用自己私有雲算力的同時,接入DGX Cloud龐大的算力資源能力。英偉達的DGX官網界面已對外開放。

黃仁勳表示, NVIDIA DGX H100 AI超級計算機已全部全面投入生產,很快將面向全球企業。

目前,英偉達已經和微軟Azure、谷歌雲和Oracle OCI合作,向用戶提供算力能力,使用戶能通過瀏覽器就擁有英偉達DGXAI超級計算機的能力。

Oracle OCI是第一個提供英偉達DGX雲的公司,微軟 Azure則會從2023年第二季度開始託管,英偉達表示谷歌雲也很快會加入合作,但是亞馬遜雲並未被提到。

在採訪中,黃仁勳表示,中國也可以參與這項服務,英偉達在西方是通過和雲服務商合作提供算力的,在中國也可以採取這樣的方式,中國的創業企業可以期待阿里巴巴、騰訊和百度提供底層算力支持。

英偉達牌大模型

大模型能力仍然是少數技術實力極強公司的專屬,大模型訓練需要耗費大量時間成本和算力資源,且難度很高。

英偉達發佈了另一個重要平臺NVIDIA AI Foundations,爲企業提供了自制大模型的工具,可以生成定製化的大語言模型(LLM)和生成式AI解決方案,讓大模型不再成爲難題。

在老黃看來,在某些特定領域,客戶需要通過專有數據來構建自己的模型,以此滿足公司安全、隱私等訴求,這些客戶需要一個類似臺積電一樣的代工廠。

在大模型生產過程中,英偉達不僅爲用戶提供了一個原始模型,還有一系列引擎、接口,優化和降低企業生成模型的難度,同時會提供專家支持,幫助企業針對其自定義用例調整模型。

目前,NVIDIA AI Foundations裏有語言模型NeMo、視覺模型Picasso和生物學模型 BioNeMo三種模型。

以NeMo爲例,大模型訓練需要大量參數,如果客戶能基於NEMO等模型已有的參數和能力,再將該模型接入到專有的知識庫中,就可以擁有既經驗豐富,又有特定知識的大模型,讓模型變得更加精準、高效,且客戶後續也可以對模型進行優化和改進。

PICASSO模型可以生成圖像、視頻和3D素材。

一個值得關注的消息是,Adobe與英偉達正進行合作,將Photoshop、Premiere Pro 和 After Effects 等 Adob​​e Creative Cloud旗艦產品,進行和NVIDIA Picasso 聯合開發。

Adobe的接入意味着,生成式 AI 爲創造帶來新可能的能力被認可。

此外,英偉達發佈了面向生物學(用於藥物研發)的 NVIDIA BioNeMo™雲服務新模型,希望可以幫助AI醫藥領域的企業。

目前,NeMo 生成式 AI 雲服務處於搶先體驗階段。Picasso 服務則處於非公開預覽階段,開發人員可通過相關鏈接申請使用這些服務。

ChatGPT專用芯片性能再升級

在硬件領域,英偉達也推出了新的產品。

黃仁勳隆重推出了一種新的雙 GPU產品 H100 NVL。它加載了Transformer引擎,很適合ChatGPT 等大型 LLM。

常規顯卡的數據已經無法支撐大模型的數據量需求,H100 NVL單卡顯存容量爲94GB,最高可提供188GB HBM3 顯存。

與HGX A100相比,搭載四對H100和雙NVLINK後,服務器的處理速度可以快10倍,且大模型的處理成本降低一個數量級。

此外,面向視頻信息,英偉達推出了用於 AI 視頻的 NVIDIA L40,能提供比 CPU 高 120 倍的 AI 視頻性能,能夠用於視頻解碼和轉碼功能、視頻流、增強現實、生成 AI 視頻等場景。

快手和Google Cloud 是L4的早期用戶。

在圖像生成上,英偉達推出L40,針對圖形和支持 AI 的 2D、視頻和 3D 圖像生成進行了優化。L40 是英偉達元宇宙Omniverse的引擎,可以用來構建數據中心和運行元宇宙的程序。

在圖形推薦上,英偉達推出了Grace Hopper for Recommendation Models,主要用於圖形推薦模型、矢量數據庫和圖形神經網絡。它將CPU 和 GPU做了一個連接,屬於超級芯片範疇,且兩類芯片之間的傳輸速度可以達到900 GB/s。

36氪也對黃仁勳進行了採訪,以下爲部分採訪內容:

問題:中國有很多正在開發大型語言模型的中小型公司,擔心算力緊缺問題,英偉達推出雲服務後,何時會提供給中國客戶,這項業務是否會和當前的雲服務提供商產生競爭?

黃仁勳:中國會像西方一樣參與使用這項服務。在西方,我們和一些雲廠商合作來提供算力能力,他們都非常興奮。

在中國,像阿里巴巴、騰訊、百度都是優秀的合作伙伴。我非常期待他們能用先進的系統來做人工智能計算。

對於中國的在大模型領域創業的初創公司來說,他們正投身於一場生成式人工智能革命,也可以期待阿里巴巴、騰訊、百度提供人工智能雲算力。

問題:目前人工智能芯片需求很大,英偉達的供應情況如何,您怎麼看待這種變化?

黃仁勳:自從ChatGPT和人工智能以來,機器視覺計算相關需求迅速增加了。訓練和推理方面的需求都增加了,變化發生得很迅速,我們的供應現在還很好,正在努力爲所有客戶提供服務。

目前全球的人工智能基礎設施和視頻人工智能計算總量不足,這也是需求上漲的一個主要原因。大模型對雲基礎設施的需求非常高,有很多創業公司想要使用雲,你可以想象到人工智能推理的需求非常大,而且增長顯著。

我們正在競賽,也希望能夠跑得更快一點,有足夠的供應給每個人。

問題:英偉達是一家在硬件領域的偉大公司,您怎樣看硬件市場和軟件市場的空間?

黃仁勳:人工智能軟件是一個比硬件大得多的市場,基礎設施服務市場,硬件銷售機會的總額大約在10億美元;但是,人工智能在自動化、加速等相關的產業,製造業是數億美元的市場需求;醫療領域,藥物發現,科學家實驗室研發,藥物研究等,又是一個數萬億美元的市場。每一個行業都遠遠大於硬件領域。

人工智能第一次有機會成爲工程師,藥物發現科學家、公司研究助理員,或者是藝術、音樂、電影行業的共同創造者,它可以成爲城市建築的合作設計師,它的增加價值不同於以往任何的軟件行業,人工智能展現了一種前所未有的技術和能力。

問題:英偉達有了自己的大模型基礎,未來英偉達會專注於自己大模型,還是成爲一個平臺,也會呈現其它玩家的大模型?

黃仁勳:我們可以先做一下分類,首先,像Deep Mind、谷歌大腦這樣的優秀實驗室,他們有着非常卓越的大模型研究能力,我們和他們非常緊密地合作,爲他們提供算力能力,幫助他們推進工作。我們有很多的人工智能公司合作伙伴。

也有另外一類企業,他們並不希望開發人工智能模型,希望使用上述公司的大模型能力。

同時,中間還有一批用戶,他們無法使用公開的模型,他們的使用領域太細分了,也許和生物學高度相關,和合成生物學相關,藥物設計相關,甚至物理學相關。它自己的基礎模型很可能會發生變化。在很多個領域,都可以有一些基礎模型,然後客戶可以用私有的數據來訓練這個模型,他們來創造和運用這個模型,來執行特定公司、行業的事情。那我們就可以和他們合作。他們有領域知識,有數據,我們有人工智能知識,可以計算。

在視頻中,我們提供了三個基礎模型,一個是語言,一個是視覺語言,還有一個是生物學,將來我們也會有其它的模型,目的很簡單,不是爲了作爲產品提供給客戶,只是希望幫助公司樹立客戶。我們會繼續推動模型發展。我們有6個超級計算機,可以用他們來推進大模型的開發。

問題:人工智能產業和遊戲行業正在下滑,中國的電動車市場也在放緩,公司在戰略層面怎麼看待這種變化?

黃仁勳:這三個都是非常重要的業務,他們是完全不同的業務。但是,儘管業務不同,在覈心上,計算引擎在基礎和視頻加速計算方面是相同的。這就是爲什麼,當我們提高計算機圖形能力時,它有助於自動駕駛汽車,它們都有相似之處。

我認爲遊戲行業正在復甦,並沒有放緩。人工智能去年遇到了困難,從我們的角度來看,我們一直在慢慢恢復。數據做得非常好。

我們爲電動汽車行業的數據中心和汽車提供數據中心服務,我們提供人工智能來訓練模型,以及Omniverse來模擬汽車,即使放緩也沒關係,他們也都需要投資軟件。

相關文章