Intel日前舉辦了Vision 2024年度產業創新大會,亮點不少,號稱大幅超越NVIDIA H100的新一代AI加速器Gaudi 3、品牌全新升級的至強6、AI算力猛增的下一代超低功耗處理器Lunar Lake,都吸引了不少目光。

不過對於AI開發者、AI產業尤其是企業AI而言,這次大會上還有一件大事:

Intel聯合衆多行業巨頭,發起了開放企業AI平臺,推動企業AI創新應用,同時通過超以太網聯盟(UEC)和一系列AI優化以太網解決方案,推進企業AI高速互連網絡創新。

如今說到大規模AI部署,很多人腦海中會立刻浮現兩個名字:

一個是OpenAI,大模型和算法的一枝獨秀;另一個是NVIDIA,硬件算力和生態的典型代表。

但是每每說到NVIDIA,以及CUDA爲代表的生態圈,其一貫以來的封閉做法頗爲人所詬病,被譽爲“硅仙人”的芯片開發大神 Jim Keller就一直對NVIDIA的做法極爲不滿,斥責CUDA不是護城河而是沼澤,NVLink這種私有互連標準也應該摒棄。

坦白說,NVIDIA AI不僅僅在硬件性能上“遙遙領先”,更大的資本正是耗費十幾年時間和無數美元砸出來的CUDA生態,成爲其“壟斷行業”、獲利無數的制勝法寶。

只不過時代在變化,無論企業還是開發者,都不希望被束縛在一個小圈子裏,更希望在開放共享的世界裏自由前行,這正好給了其他廠商追趕甚至超越NVIDIA的大好機會。

Intel就瞅準這一趨勢和需求,聯合Anyscale、Articul8、DataStax、Domino、Hugging Face、KX Systems、MariaDB、MinIO、Qdrant、RedHat、Redis、SAP、VMware、Yellowbrick、Zilliz等衆多行業夥伴宣佈,將聯合創建企業AI開放平臺,助力企業推動AI創新。

它將爲企業AI提供一個從下到上的完整平臺,底層基於Intel完整覆蓋雲、數據中心、邊緣、PC各個領域的AI算力硬件,也就是XPU理念。

構築其上的是標準化和可擴展的基礎設施生態、安全可靠的軟件生態、開放便捷的應用生態,而且全都是對整個行業開放的。

這一計劃凝結了全行業的力量,旨在開發開放的、多供應商的AIGC系統,通過RAG(檢索增強生成)技術,提供一流的部署便利性、性能和價值。

對於企業當前正在標準雲基礎設施上運行的大量專有數據源,RAG可以幫助他們通過開放大語言模型進行功能上的增強,從而加速AIGC在企業中的應用。

在Intel看來,堅持開源開放,並以此撬動開放的AI生態飛速發展,至關重要。

Intel副總裁、Intel中國軟件和先進技術事業部總經理李映在接受採訪時表示:“傳統模式中,幾家領導公司組建一個開放聯盟,各自有明確分工,更多的是一個選擇問題。如今基於AI大模型的變化,開放開源第一次和整個行業的技術創新爆發結合在一起。現在,開放開源和閉源同時出現,不再是選擇,而是一個自然演變、發展的過程。

Intel院士、大數據技術全球首席技術官、大數據分析和人工智能創新院院長戴金權也指出,一個開放的生態,可以讓同一生態的創新相互促進,在新的應用場景可以互通。

整個行業都在逐漸意識到,構建一個AIGC應用,並不是只需要一個大模型,一些最先進的系統解決方案,其實更多的是相當於構建一個AI系統來解決問題。

在這個企業AI開放平臺中,Intel的一個突出重點就是加快構建開放的AI軟件生態,通過構建基礎軟件爲開發者提供便利,幫助大企業簡化和深入AI的大規模開發和部署。

李映指出,在開放AI軟件生態方面,對於Intel而言,非常重要的一個點是如何通過軟件加速企業AI的發展,如何把企業原來的雲架構和未來基於大模型、數據的AI架構融合在一起

軟件可以在這個過程中起到非常重要的加速作用,而從整個軟件堆棧的角度來講,Intel正是極少數可以真正在各個層面上通過軟件提供優化、提供技術的頭部企業之一。

同時,Intel一直在極力推動基於AI的軟件創新,最典型的就是oneAPI,下載量已經超過100萬次。

第三就是如何幫助開發者提高開發效率,其中很重要的一部分就是Intel開發者雲平臺

它不但可以讓開發者最早接觸到最新的至強、Gaudi AI加速器,還能保證各種開源框架、組件在同一環境中的兼容性,從而提升開發效率、優化用戶體驗。

另外非常值得一提的是,Intel也在積極爲開源社區貢獻技術、創新和經驗,推進開放標準。

比如,PyTorch已逐漸成爲標準的AI框架,Intel一直都是PyTorch非常靠前的重要貢獻者,並以高級會員的身份加入了PyTorch基金會。

除了對PyTorch本身進行優化,Intel的一些技術創新都投入到了PyTorch開源框架之中,讓更多企業和開發者共享,讓整個AI軟件框架更加開源、開放。

再比如openEuler、龍蜥這些開源的中國Linux社區,Intel對其的投入都已經和國際同步,甚至在某些領域領先於國際上其他一些Linux的分佈和發展。

最後再來回顧一下Intel本次揭曉的三大算力產品。

Gaudi 3 AI加速器採用臺積電5nm工藝,配備8個矩陣引擎、64個張量核心、96MB SRAM緩存、1024-bit 128GB HBM2E內存(帶寬3.7TB/s),還有16個PCIe 5.0通道、24個2000GbE網絡、JPEG/VP9/H.264/H.265解碼器。

功耗有600/900W兩個級別,提供OAM兼容夾層卡、通用基板、PCIe擴展卡三種形態。

Gaudi 3相比上代擁有2倍的FP8 AI算力(1835TFlops)、4倍的BF16 AI算力、2倍的網絡帶寬、1.5倍的內存帶寬。

Intel還聲稱,它對比NVIDIA H100 LLM推理性能領先50%、訓練時間快40-70%,能效領先最多達2.3倍。

另外,得益於強大、便捷的開發工具,開發者最少只需改變3行代碼,就能將其他AI應用移植到Gaudi 3之上。

全新的至強6包含兩個分支,其中Sierra Forest第二季度發佈,堪稱至強處理器歷史上最大的一次變革,首次採用純能效核(E核)設計。

重點針對效率進行優化,適合高密度、可擴展的工作負載,最多288核心288線程。

按照官方說法,相比第二代至強,Sierra Forest可以帶來2.4倍的能效提升,機架密度則可以提高2.7倍。

Granite Rapids則是傳統的純性能核(P核)設計,重點針對性能優化,適合計算密集型應用和高強度的AI負載。

它新增了對MXFP4數據格式的軟件支持,能夠運行700億參數的Llama 2大模型,對比四代至強能將令牌延遲縮短最多6.5倍。

代號Lunar Lake的下一代超低功耗酷睿Ultra處理器,AI算力將超過100TOPS(100萬億次每秒),是現有一代酷睿Ultra Meteor Lake的足足三倍!

其中,單單是NPU單元就可以提供大約45TOPS的算力,是目前的多達四倍,自己即可滿足微軟定義下一代AI PC的需求。

可以說,Intel擁有目前最爲完善的AI體系,從底層覆蓋雲端、數據中心端、邊緣端、客戶端的XPU硬件算力,到上層的網絡方案、開發工具,再到廣泛的生態合作,如今又組建了開放的企業AI平臺,可以說萬事俱備,在AI訓練與他推理、AIGC領域必定會有一番作爲。

【本文結束】如需轉載請務必註明出處:快科技

責任編輯:上方文Q

相關文章