在“歐洲能源危機”話題退出大衆視野後,人工智能(AI)將引起能源短缺的論調又甚囂塵上。

3月11月,A股新能源板塊爆發,光伏和儲能板塊領漲。這受到了一則行業大咖稱“AI的盡頭是光伏和儲能”的消息驅動。

部分媒體報道稱,英偉達創始人兼首席執行官黃仁勳在公開演講中指出,AI未來發展與光伏和儲能緊密相連,需要更全面地考慮能源消耗問題,如果只考慮計算機,需要燒掉14個地球的能源。

但界面新聞並未找到黃仁勳此番言論的公開表述。在今年2月12日於迪拜舉行的“世界政府峯會”上,他與阿聯酋國務大臣Omar Sultan AlOlama對談時,明確指出科技進步將控制AI的成本。

  • “我們正處於新時代的開端。目前數據中心的安裝基數大約有一萬億美元。在接下來的四五年裏,我們將擁有價值2萬億美元的數據中心,這些數據中心將爲全球的軟件提供動力。”
  • “你不能只想着要購買更多的計算機,你還必須假設計算機的速度會越來越快,因此所需的總量就不會這麼多了。否則,如果假設計算機的速度永遠不會變快,你可能會得出一個結論——我們需要14個不同的行星、3個不同星系、4個太陽爲這一切提供燃料。”
  • “但是很明顯的是計算機架構在不斷進步。過去的十年中,我們做出的最偉大貢獻之一就是將計算和AI提高了一百萬倍。因此,無論你認爲推動世界的需求是什麼,你都必須考慮到,它還將以100萬倍的速度變得更大、更快和更高效。”

但類似的表達也並非空穴來風。無論是特斯拉首席執行官埃隆·馬斯克,還是OpenAI首席執行官山姆·奧特曼,都在近期提及AI迅速發展背後的能源隱憂。

2024年2月29日,馬斯克在博世集團舉辦的BCW(Bosch Connected World)的視頻採訪環節上表示:

  • “AI算力的限制是可預見的,我在一年前就預測到了芯片短缺,神經網絡芯片。很容易預測,下一個短缺將是降壓變壓器(voltage stepdown transformers)。如果從電力公司獲得100-300千伏的電力,那麼降壓到6伏會是一個很大的降壓過程。我不那麼好笑的笑話是‘你需要用變壓器來運行(AI)Transformer模型’(you need transformers to run transformers)。”
  • “那麼,下一個短缺將是電力,我認爲到明年,將沒有足夠的電力來運行所有的芯片。”
  • “事實上,電動汽車和AI並行發展,兩者都需要電力和變壓器,我認爲這正在創造對電力設備和發電的巨大需求。”

2024年1月16日,在達沃斯世界經濟論壇年會期間舉辦的的彭博社活動上,奧特曼表示:

  • “我們需要比之前認爲的多得多的能源。我對世界的理解是,未來的兩種重要貨幣是智能計算和能源。無論是我們的想象力,還是讓想法變爲現實的能力,以及運行計算的能力,都離不開這兩者。我認爲我們仍沒有充分意識到這項技術對能源的需求。”
  • “如果沒有重大突破,我們就無法實現這一目標。我們需要核聚變,或者極度更便宜的光伏加上儲能,或是從沒有人真正規劃過的規模水平的技術。”
  • 公平地來說,AI的發展將需要大量能源,但我堅信這會迫使我們更多地投資於能夠提供這種能源的技術。

AI會導致能源短缺嗎?

目前,AI在全球用電量的佔比並不大,至少暫時不足以引發規模能源危機。

據國際能源署(IEA)統計,2022年,全球不包括加密貨幣挖礦在內的數據中心消耗了大約460太瓦時(TWh)的電力,佔全球總需求的1-1.3%。

賓夕法尼亞大學電子工程和計算機科學教授本傑明·李和哈佛大學教授大衛·布魯克斯的研究表明,2015-2021年間,數據中心的能源使用量平均每年增長25%。

隨着生成式人工智能引爆全球,大模型公司百花齊放加上ChatGPT使用率飆升,導致AI電力消耗大幅增加,也推動數據中心耗電量快速抬升。

據《紐約時報》援引全球數據中心標準組織之一“國際正常運行時間協會”的預測,到2025年,AI業務在全球數據中心用電量中的佔比,將從2%猛增到10%。一項研究預測,到2027年,AI服務器每年的用電量將在85-134太瓦時之間。這相當於阿根廷、荷蘭和瑞典一年的用電量,約佔目前全球用電量的0.5%。

IEA還指出,到2026年,全球總體電力需求預計將增長3.4%。同時,可再生能源如風能、太陽能和水力發電,以及空前高水平的核能新增裝機,將滿足新增的電力需求。

儘管AI用電量佔比暫時不會在全球層面爆發式增長,但訓練和使用AI確實耗電、耗水,過程中還有大量碳排放

據《細胞》期刊發佈的一篇題爲《人工智能不斷增長的能源足跡》的論文估計,一個標準的谷歌搜索消耗0.3 Wh的電力,而人工智能驅動的谷歌搜索消耗3.0 Wh的電力,擁有十倍的差距。

據《紐約客》雜誌報道,據國外研究機構的報告,ChatGPT每天要響應大約2億個請求,在此過程中消耗超過50萬度電力,而每一個美國家庭的平均用電量只有29度。這意味着,ChatGPT每天用電量相當於1.7萬個美國家庭的用電量。

爲何美國企業家會擔憂?

AI產業呈現區域集聚性發展的特點。密集的數據中心和脆弱的電網,是美國企業家產生危機感的重要原因。

IEA數據顯示,全球8000個數據中心中有33%位於美國,16%在歐洲,近10%在中國。美國的數據中心在2022年消耗了200太瓦時的電力,相當於美國電力需求的4%。

該機構預計,未來幾年美國數據中心用電量將快速增長,從2022年的200太瓦時增加到2026年的近260太瓦時,佔總電力需求的6%。

此外,在《通貨膨脹削減法案》等政策引導下,大量清潔技術工廠也在美國各地激增,成爲新的用能大戶。

3月7日,《華盛頓郵報》發佈報道指出,AI和清潔技術製造業的繁榮正把美國的電網推向崩潰的邊緣。如佐治亞州對工業電力的需求飆升至創紀錄的高點,預計未來十年的新用電量是最近的17倍;北弗吉尼亞需要相當於幾座大型核電站的電力,來爲所有規劃和在建的新數據中心提供服務。

由於審批程序複雜,缺乏投資吸引力等原因,美國輸變電主網一度處於停滯狀態。美國能源部數據顯示,美國電網投資在1975-1999年逐年下降,平均每年下降8600萬美元,直到2005年才恢復到1975年的投資水平。

這導致了美國老化嚴重的電網,使許多地區面臨電力短缺的風險。

美國能源部在2015年的電網基礎設施審查中發現,美國70%的輸電線路已經使用了25年以上,而線路的使用壽命通常爲50年。該部門2014年的報告表示,美國變壓器的平均使用年限達到38年,其中70%的變壓器使用年限超過25年。

根據路透社2022年的研究,美國過去六年的停電次數比前六年增加了一倍多。2020-2022年期間,電力系統在墨西哥灣沿岸的颶風、西海岸的野火、中西部的熱浪和德克薩斯州的嚴寒中崩潰,造成了長時間的、有時甚至是致命的停電。

大型數據中心的用電故障,將給業主和客戶帶來巨大的損失,因此其往往需要可靠、不間斷的電力,甚至配備額外的供電設備應對停電。

《華盛頓郵報》表示,隨着越來越多的公司對美國電網的堵塞感到沮喪,他們已更多地轉向離網的分佈式能源。微軟和谷歌等公司希望,能源密集型工業運營最終可以由現場的小型核電站提供動力。

奧特曼則已投資了兩家核能相關的初創公司,分別爲聚變公司Helion Energy和聚焦下一代快堆技術的Oklo。

相關文章