十年後,國內雲廠商又打起來了!

近一個月,國內雲廠商掀起了新一輪的大模型降價潮。這意味着AI競爭已經不僅僅是一場軍備技術競賽這麼簡單,各頭部廠商也在考慮如何賺錢了。

在這場價格戰中,包括火山引擎、阿里,還有智譜AI、面壁智能這樣的明星創業團隊都捲了進來。各家看似是在降價,其實是想通過比低價,快速搶佔市場,從而實現商業化的快速落地。

從卷大模型技術到卷價格

在衆人看來,可能頭部大廠最具降價的底氣和實力,因爲大廠的業務比較多,就算AI業務虧錢,也可通過其他業務來彌齊,但有關大模型價格戰的發起人卻是明星創業團隊——智譜AI。

5月11日,智譜AI大模型開放平臺上線了新的價格體系,新註冊用戶獲得額度從500萬tokens 提升至2500萬tokens,並且個人版 GLM-3Turbo模型產品的調用價格從5元/百萬tokens降低至1元 / 百萬tokens,足足降了5倍。但這還不夠,GLM-3 Turbo Batch 批處理 API也便宜了50%,價格爲1元 /200萬tokens。

4天后,火山引擎放出一記重彈,宣佈豆包Pro 32k模型定價是0.8釐/千tokens,這個價格比行業降低了99.3%,此外,豆包Pro 128k模型定價是5釐錢/千tokens。與行業模型比,價格足足降低了95.8%。

這則消息一經放出,整個AI圈都不淡定了。有人稱,火山引擎將大模型帶入到了“釐時代”。

我們算一筆賬,以主力模型32k窗口爲例,1塊錢可以從GPT買到2400個token,如果選擇國內模型,大概能得到8000多個token。如果用開源Llama自己搭建,大概可以獲得3萬個token。但通過豆包模型,1塊錢就能獲得125萬個token。這是什麼概念?相信《三國演義》很多人都讀過,共計75萬字,換算過來,也就是1塊錢能處理3本《三國演義》的文字量。

與其他大模型比起來,火山引擎簡直是白菜價,幾乎等於不要錢。可以說,火山引擎此次降價,將大模型價格戰推向了高潮。

火山引擎發佈會後的兩天,騰訊集團高級執行副總裁、雲與智慧產業事業羣CEO 湯道生在騰訊雲生成式AI產業應用峯會上介紹了混元大模型的技術、性能、安全、使用門檻低等特點,雖然沒有公開介紹價格。但據騰訊雲官網顯示,混元大模型可以爲首次使用者提供10萬tokens的文本生成模型免費體驗額度,有效期爲1年。而在tokens資源包的價格方面,窗口尺寸爲32K的hunyuan-standard模型和hunyuan-pro模型,它們的模型推理輸入價格分別爲0.0069元/千tokens和0.069元/千tokens,兩者均爲刊例價的6.9折。

與此前比,價格明顯降低了。據騰訊雲官網一份更新於5月14日的計費信息顯示,混元大模型標準版(hunyuan-standard的前身)和高級版(hunyuan-pro的前身)此前的模型推理輸入價格分別爲0.012元/千tokens和0.12元/千tokens。

雖然幾家大廠中,阿里雲的降價策略還不明顯,但早在今年2月29日,其就釋放出一個降價的信號,堪稱阿里雲史上力度最大的降價,本次降價涉及100多款產品、500多個產品規格。其中,雲服務器ECS最高降36%、對象存儲OSS最高降55%、雲數據庫RDS最高降40%,而這三項都是用戶使用頻率最高的產品。

從阿里雲的降價清單中不難看出,降價的主力是傳統雲計算產品,雖然不涉及大模型,諸如GPU的AI訓練和推理算力。但云和大模型的發展是相輔相成的,由此可以推斷,在大模型這波價格戰中,未來阿里雲甚至更多大模型廠商很可能會加入進來,只不過各家的節奏不同。

反觀過去一年OpenAI的動作,降價似乎一直是其主線任務。自去年以來,OpenAI已經進行了4次降價。在剛剛結束的春季發佈會上,OpenAI宣佈了其最新模型GPT-4o,不僅性能有大幅提升,價格也下調了50%。

大模型價格戰的序幕已然揭開了。

價格戰,意欲何爲?

目前,國產大模型的價格戰正在如火如荼的進行中。

有人難免發問:大模型本就是一個高投入、低產出的行業,爲什麼要打價格戰?

結論非常簡單:“加快商業化落地。”

從去年下半年開始,大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變。2024 年,商業化、落地應用將成爲大模型公司的主旋律。

最新的《中國大模型中標項目監測報告》顯示,今年 1-4 月,可統計到的大模型相關中標金額已達到 2023 年全年披露金額的 77% 左右,涉及政務、金融、運營商、能源、教科、交通等各行各業,表明企業對大模型的應用需求正快速增長。

面對商業化,爲何如此急切?

原因有二。一是,大模型研發成本越來越高。衆所周知,算力一直是國產大模型發展的掣肘。一方面,目前全球的算力技術,美國佔據了全球近9成的算力市場份額,幾乎被其壟斷。相比之下,中國算力荒的現象越來越嚴峻。

據相關數據,中國目前的算力需求量約爲每年1.5億臺的服務器,而中國的算力供給量僅爲每年3000萬臺的服務器,缺口達到了1.2億臺,佔到了全球算力缺口的80%。與之而來的是,算力租賃服務的水漲船高。其中,並濟科技、中貝通信、匯納科技等公司宣佈算力服務收費大幅上漲,導致大模型研發成本進一步提升。

在巨大的成本壓力下,大模型廠商不得不加緊尋找一條商業化之路。

二是,大模型技術已經卷的差不多了,通用模型具備的是通識能力,是不能解決特定行業特定場景的實際問題的,只有一項技術被成功大規模商用纔是真正的成功,顯然,經過一年的技術比拼,已經到了驗證的階段。

爲了加快大模型的商業化落地,國內各企業紛紛行動起來。目前大模型的商業化落地大致有兩種路徑:一是API調用,二是,私有化部署。

API調用是最常見的落地方式。智譜AI自研的第四代基座大模型 GLM-4的調用價格仍爲0.1元/千 tokens,百萬tokens的價格爲100元,通義千問相對低,但qwen-72b-chat的調用價格也在0.02元/千tokens,OpenAI的GPT-4 Turbo 每100萬tokens輸入/輸出價格分別是10/30美元。

從短期來看,雖然成本不高,但對於需求量較大的用戶和行業來說,就顯得不是很友好了。

而私有化部署就更貴了。截至目前,國內沒有一家廠商披露具體的大模型訓練成本,但從多位行業人士口中得出,大模型的研發成本遠比想象中高的多,動輒成千上百萬,甚至需要以“億”來計算。

華爲大模型負責人田奇曾提到,大模型開發和訓練一次需要約1200萬美元,這表明即使技術再領先的公司,大模型的訓練也是非常昂貴的。

百川智能創始人CEO王小川也曾表示,每1億參數對應訓練成本在1.5到3萬人民幣之間。因此,一個千億級參數的模型單次訓練成本預估在三千萬至五千萬人民幣之間。Anthropic的首席執行官Dario Amodei也預測過,未來兩年內模型成本將達到100億美元。

顯然,API調用和研發的高昂價格,已經成了AI商業化的枷鎖。久而久之,大模型就變成了有錢人的遊戲,肯定不利於大規模商業化。

而價格戰就成了最直接且最快速的落地方式。但並不是所有企業都能加入進來,因爲只有把大模型的研發成本儘可能的降低到最小,纔有降價的空間和資本。

如前文所述,大模型最大的研發成本是算力,所以很多廠商往往會通過提高大模型的訓練效率、降低推理成本兩種手段來降本。

中國工程院院士鄭緯民曾做過這樣的計算,在大模型訓練的過程中,70%的開銷要花在算力上;推理過程中95%的花費也是在算力上。爲何在推理上做文章,也就不言而喻了。

比如微軟在Microsoft Build 2020 上,公開了爲GPT-3提供支持的AI supercomputing超級計算機,其可以讓大模型的訓練效率比其他平臺高16倍,從而降低時間成本與風險成本。

國產大模型也不例外。盤古大模型早在2.0版本中,就嘗試用稀疏+稠密架構,來降低訓練成本。文心一言推出一個月後,也通過技術手段將大模型的推理性能提升近10倍,推理成本降到原來的十分之一。

阿里雲通義大模型則聚焦於規模定理,基於小模型數據分佈、規則和配比,研究大規模參數規模下如何提升模型能力,並通過對底層靈駿集羣的優化,將模型訓練效率提升了30%,訓練穩定性提升了15%。

而騰訊選擇了一條不同於百度和阿里的路子,其將機器學習框架Angel、訓練以及推理框架進行迭代升級,其中,Angel可以將大模型訓練效率提升至主流開源框架的2.6倍,千億級大模型訓練可節省50%算力成本。

訓練框架方面,騰訊自研機器學習訓練框架AngelPTM,可針對預訓練、模型精調和強化學習等全流程進行加速和優化,實現以更少的資源和更快的速度訓練更大的模型;推理方面,騰訊推出大模型推理框架AngelHCF,通過擴展並行能力,實現更快的推理性能和更低成本,相較於業界主流框架,其推理速度提高了1.3倍。

競速大模型商業化

雲廠商亮劍

觀察下來,阿里、騰訊、字節的商業化路徑基本趨同,即“迭代通用模型的能力+構建完整的生態+研發創新型AI產品”,但也有不同的側重點。

持續迭代大模型能力,是大模型商業化的前提。

去年至今,國內幾家大廠都在持續迭代大模型的能力,百度先發制人於去年3月推出文心一言,目前文心大模型已經迭代至4.0版本,同時還推出了多個輕量級大語言模型。其後是阿里,去年4月通義千問大模型問世,經過2.0、2.1現已迭代至2.5版本。

騰訊算是BAT中最晚的一家,去年9月混元問世。隨後,騰訊並沒有像前兩者一樣,通過迭代新版本來擴大聲量,而是通過技術能力彰顯其實用性。諸如升級機器學習框架Angel、機器學習訓練框架AngelPTM以及大模型推理框架AngelHCF。另外,騰訊前段時間還開源了文生圖大模型,包括後續文生視頻能力的升級,通過這一些列動作讓大模型滲透到千行百業。

而字節算是最特殊的一家,其僅用一年的時間就將豆包模型從1.0進化到了3.0,而從今年火山引擎發佈的豆包模型家族中看,不僅包括兩款通用模型 pro、lite,還推出了7款功能性模型,涵蓋角色扮演、語音識別、語音合成、聲音復刻、文生圖等方面。說明火山引擎未來將深入到不同行業不同場景。

衆所周知,調用量的大小會直接影響模型的效果,在這方面,目前文心大模型日調用量達到2億,通義大模型也已過億,字節豆包大模型的日調用量達到1200億tokens(約1800億漢字)。

強生態,是大模型商業化的加速器。

生態構建方面,幾家大廠包括百度、阿里、字節火山引擎等都採取了一個相同的路徑——構建大模型平臺,不僅提供自家模型服務還接入了第三方開源大模型,方便客戶按需調用。諸如百度智能雲千帆大模型平臺,阿里的百鍊平臺、騰訊元器以及火山引擎的方舟平臺。

爲了加速大模型滲透,拓展商業化市場的空間。阿里堅定開源,去年8月通義開源,之後沿着“全模態、全尺寸”的開源路線,阿里雲開源了 8 款參數規模從 5 億到 1100 億的大語言模型。其中,面向端側設備,開源瞭如0.5B、1.8B、4B、7B、14B小尺寸模型;面對企業級用戶,開源瞭如72B、110B的大尺寸模型。此外,通義還開源了視覺、音頻、代碼、混合專家模型。

而阿里的開源要追溯到2022年,也就是在大模型爆火的前一年,阿里雲就完成了魔搭(ModelScope)社區的搭建,該社區推出阿里就把其近五年研發的 300 多個優質模型全部開源出來。周靖人還介紹道,魔搭社區平臺仍在持續擴大建設,平臺上的高質量開源模型總數已超過 4500 個,開發者數量也已超過500 萬。

與阿里一樣,騰訊在大模型商業化的競逐賽中,同樣選擇了開源路線。不久前,騰訊雲全面開源了混元文生圖模型。騰訊混元模型應用負責人張鋒表示,“在過去非大模型時代,我們就開源了很多項目,在大模型時代做出開源的決定,是最近半年騰訊與客戶接觸過程中得出的結論。”

而最早入局的百度卻一直在堅持閉源路線。百度認爲,閉源大模型能實現比開源大模型性能更好、成本更低的綜合效果,從而促進AI應用生態的繁榮。

AI重構內部產品,是大廠進行大模型商業化的第一站。

目前,百度已經完成了對百度文庫、百度搜索、百度地圖、如流等業務的AI重構。阿里則對釘釘、高德地圖、閒魚、餓了麼、優酷、盒馬、淘票票,天貓、淘寶等阿里集團最核心的產品進行了全面升級。

字節內部也開啓了賽馬機制,抖音、剪映等50多個業務線各自爲營開始了AI探索,此外,字節也不改“App工廠”的本色。過去一年裏,除了主打的豆包App外,基於豆包大模型,還推出了互動娛樂應用“貓箱”,以及星繪、即夢等AI創作工具。

而騰訊作爲大模型中最低調的一家,卻在產品側表現的尤爲不低調。秉持着產業實用的原則,自去年9月混元上線以來,騰訊就將內部產品的AI化改造作爲重點工作推進,目前,混元大模型已經在超600個騰訊內部業務和場景中落地。包括企業微信、騰訊會議、騰訊文檔等“一門三傑”產品,也包括騰訊樂享、騰訊電子籤、騰訊問卷、騰訊雲AI代碼助手等協作SaaS產品。

加速行業滲透,大模型商業化的最後一公里。

無論是通用模型還是行業模型,最終的落地其實就是要解決特定行業、特定場景下的實際難題。當然在行業的選擇上,有交叉,也有不同的方向。

基於文心大模型,百度率先重構了數字政府、金融、工業、交通四大行業解決方案;依託騰訊雲TI平臺,騰訊雲打造了行業大模型精選商店,覆蓋金融、文旅、政務、傳媒、教育等十個行業,可提供超50個解決方案。同時,騰訊雲還攜手17家來自不同行業的生態夥伴,發起了“騰訊雲行業大模型生態計劃”,致力於共同推進大模型在產業領域的創新和落地。

阿里也於去年發佈了8個行業大模型,覆蓋金融、醫療、法律、編程、個性化創作等領域。

而據信息顯示,目前火山引擎已經與吉利汽車、長城汽車、捷途汽車、賽力斯、智己汽車等20餘家廠商成立了汽車大模型生態聯盟。同時,還與OPPO、vivo、榮耀、小米及華碩等終端廠商共同成立了智能終端大模型聯盟。由此推斷,火山引擎很可能率先這兩個行業作爲抓手,待成熟後再向其他行業滲透。

結語

經過一年的時間,大模型的競爭已經從卷大模型技術本身,過渡到了卷大模型商業化的階段。

如大模型研發一樣,大模型的商業化落地同樣不是一件易事,前者考驗的更多的是技術和資本,而後者在前者的基礎上,還需要根據不同行業、不同的業務場景,對大模型進行微調,從而提供一款真正能爲企業所需的大模型服務。

目前,各大模型廠商紛紛亮劍,但這只是開始,接下來很長一段時間內,各頭部將持續圍繞如何加快大模型落地做文章,競爭的同時,也會把大模型推向一個新的發展階段。

本文來自微信公衆號“光錐智能”(ID:guangzhui-tech),作者:藝思,編輯:王一粟,36氪經授權發佈。

相關文章