AI大模型成爲風口,全球算力供不應求。

廣發證券測算,國內AI大模型在訓練與推理階段或產生相當於1.1萬臺至3.8萬臺高端AI服務器的算力需求。以GPU產品售價10萬元、AI加速卡價值量佔服務器整機約70%計算,則對應126億元至434億元增量AI服務器市場規模。

在訂單需求激增的情況下,如何部署節能技術併兼顧算效、能耗、成本,成爲考驗數據中心建設與運營者的關鍵。在服務器及IT系統解決方案提供商寧暢主辦的媒體溝通會上,寧暢公司總裁秦曉寧和業內專家共同探討了此事。

中國建築標準設計研究院數據中心工程部主任吳曉暉表示,數據中心降低能耗和成本的的關鍵,除了合理選址之外,還可以提高能效和優化用能。

吳曉暉以一個PUE是2的數據中心案例具體講了能耗構成:最大的能耗是IT設備,佔50%,另外的25%+10%是數據中心的製冷系統,10%+3%是供能系統,包括UPS、變壓器等。從能耗構成來看,製冷系統是壓縮潛力最大的。

據瞭解,數據中心最早的製冷方式是空調方案,歷經房間空調、背板空調、行級空調幾個階段,製冷模式從房間大面積吹到把空調做到機櫃中間,再到現在把空調做到芯片上。因爲芯片是最大的制熱源,製冷手段越來越接近熱源,製冷效率也越來越高。

但不管是用風熱空調壓縮機還是用機組空調,都是用電製冷,需要耗費大量能源。隨着數據中心的需求激增,更加節能的室外自然冷卻技術被更大範圍的應用,其中兩個代表性的技術是液冷和蒸發冷卻技術,這讓數據中心迎來降低能耗的新機遇,但真正讓液冷等技術落地並不容易。

寧暢總裁秦曉寧表示,當前80-90%的數據中心依然採用風冷散熱,儘管數據中心節能政策頻出,液冷投入成本下降,但液冷升級中仍存在着多重困難。主要包括技術難題包含三個方面:

一是技術難,風轉液冷首先要考驗包括複雜部件液冷適配、漏液可靠性等在內的綜合技術。

二是建設久,液冷升級涉及樓體、空間改造等多個環節,週期長,產業鏈協同性較弱。

三是成本高,用戶傾向於關注初期建設成本,往往忽略了液冷釋放的性能帶來的業務效益與節能效果。

秦曉寧表示,大模型火了之後,5月GPU服務器用量增長38%,大模型帶來GPU的功耗是400-700,一個通用機櫃功耗需要達到8kW~10kW。如果一個通用計算機櫃功耗已經達到了10kW,機房就必須改造。

吳曉暉表示,無論是從節能方面來看,還是服務器機櫃功率密度越來越高的趨勢看,數據中心適合於液冷置換。

目前國內數據中心冷卻液技術處在初期發展階段,但因爲數據中心需求快速增長,已到了爆發的前夜。

相關文章