大模型賽道,開啓殘酷價格戰。

5月21日,阿里雲宣佈通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。隨後百度智能雲也宣佈,百度文心大模型的兩款主力模型ENIRE Speed、ENIRE Lite全面免費,立即生效。

此前,字節跳動已宣佈旗下豆包主力模型在企業市場的定價只有0.0008元/千Tokens,0.8釐就能處理1500多個漢字,比行業價格便宜99.3%。除此此外,幻方、智譜也官宣了新的價格體系。

這樣的趨勢,同樣也在國外發生。OpenAI在剛剛結束的春季功能更新會上,宣佈了其最新模型GPT-4o,不僅性能有大幅提升,所有用戶均可免費使用。

業內普遍的認識是,此輪價格戰的主要目的是把“蛋糕做大”,推動大模型使用進入快速增長階段。但對於一些規模較小、實力較弱的模型提供商來說,價格戰往往會導致利潤空間的壓縮,可能會在這場競賽中被淘汰“出局”。

大模型掀起“價格戰”

經過2023年大模型領域的摸索,由ChatGPT帶熱的AI大模型,在今年走到了終端應用時代。隨着競爭加劇,單純的技術競爭之外,“價格力”成爲國內外廠商比拼的關鍵一環。

其中廣受矚目的是,5月14日OpenAI召開春季發佈會,正式推出新一代旗艦AI模型“GPT-4o”,不僅在功能上大幅超越GPT-4 Turbo,在價格上更是帶來驚喜。

據官方介紹,新模型GPT-4o用戶不用註冊,功能全部免費。在此之前,ChatGPT的免費用戶只能使用GPT-3.5。而更新後,用戶可以免費使用GPT-4o來進行數據分析、圖像分析、互聯網搜索、訪問應用商店等操作。

當然,免費的前提被限制在一定的消息數量上,一旦超過規定數量,免費用戶的模型將被切換回GPT-3.5。而付費用戶將獲得更高的消息數量,至少是免費用戶的5倍。

國產大模型在價格競爭方面,也不甘落後。5月6日,私募巨頭幻方量化旗下的AI公司推出了第二代MoE模型DeepSeek-V2,其API(應用程序編程接口)定價爲每百萬token輸入1元、輸出2元(32K上下文),僅是GPT-4的近百分之一水平。

5月11日,智譜大模型官宣新的價格體系,入門級產品GLM-3 Turbo模型調用價格從5元/百萬Tokens降至1元/百萬Tokens,降幅高達80%。

隨後的5月15日,首次對外公佈大模型產品的字節跳動,就主動打起了價格戰。據悉,字節發佈的自研大語言模型“豆包大模型”,其豆包Pro 32k模型正式定價是1千Tokens 0.8釐,比行業的價格降低99.3%;豆包Pro 128k模型正式定價爲是1千Tokens5釐錢,較行業價格降低了95.8%。

對此,火山引擎總裁譚待解釋稱,一方面,字節可以在大模型產品上做到低價,在模型結構、訓練、生產等技術層面有很多優化手段能夠實現降價,另一方面則是因爲市場對降價呼聲比較大。

字節跳動之後,其他互聯網大廠紛紛跟進。5月21日,阿里雲也加入大模型價格戰,宣佈通義千問9款商業化和開源模型降價。

據瞭解,這9款大模型整體推理輸入價格降幅爲67%-97%,有2款開源模型提供七天免費優惠。

其中,通義千問GPT-4級主力模型Qwen-Long的API輸入價格,從0.02元每千tokens(大模型文本中的最小單位)降至0.5釐每千tokens,降幅爲97%。

這意味着,1塊錢可以買200萬tokens,相當於5本《新華字典》的文字量。此外,不久前發佈的通義千問旗艦款大模型Qwen-Max,API輸入價格降至0.04元/千tokens,降幅達67%。

僅僅數小時之後,5月21日下午,百度在其公衆號發文稱,文心大模型兩大主力模型ERNIE Speed和ERNIE Lite全面免費。

百度這兩款大模型發佈於今年3月,支持8K和128K上下文長度。按照過去的定價,ERNIE Lite輸入0.003元/千token,輸出0.006元/千token。ERNIE Speed價格爲輸入0.004元/千token,輸出0.008元/千token。

至此,羣雄競逐的大模型價格戰正式進入白熱化。

廠商忙於“做大蛋糕”

在大模型這樣“燒錢”的行業,偏偏打起了價格戰,原因何在?加快商業化落地或是主要目的。

“池塘有多大,魚就有多大,現在整個池塘還在培養的過程。”譚待表示,目前大模型仍處於百家爭鳴的狀態,需要大家一起實現應用落地、降低成本,讓更多人受益。

阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光也稱,阿里雲這次大幅降低大模型推理價格,目的就是希望加速AI應用的爆發。阿里雲預計未來大模型API的調用量會有成千上萬倍的增長。

目前來看,相比缺乏付費意願的C端用戶,B端企業服務仍是大模型目前最主流的商業化路徑。

國際數據公司IDC曾在2023年四季度開展過一次AI應用調研,結果顯示,在100家受調企業中,對生成式AI完全沒有規劃的企業比例只有7%,這也意味着超九成被調查企業已佈局了AI應用。

5月16日,在百度2024年第一季度財報電話會上,百度創始人、董事長兼首席執行官李彥宏透露,繼上季度與中國三星、榮耀合作後,本季度,小米、OPPO、vivo等手機廠商均接入文心大模型API。

李彥宏表示,大模型的合作領域還在從手機向PC和電動汽車領域拓展,聯想和蔚來汽車也在季度內與達成合作。

其中率先投入使用的生成式AI,已幫助相關企業實現增收。愛奇藝第一季度在線廣告營收15億元,同比增長6%。其中,效果廣告營收同比兩位數增長。這主要得益於生成式AI賦能廣告提質增效,AI製作廣告素材帶動遊戲、短劇等行業廣告主投資回報率提升超50%。

字節跳動的AI路線圖一直頗爲神祕,從目前披露的信息來看,豆包大模型已經在字節跳動內部多個業務場景落地,包括基於豆包大模型打造AI對話助手“豆包”、AI應用開發平臺“釦子”、互動娛樂應用“貓箱”,以及星繪、即夢等AI創作工具,並把大模型接入抖音、番茄小說、飛書、巨量引擎等50餘個業務。

目前,豆包App已在蘋果APP Store和各大安卓應用市場可下載。

值得一提的是,聲稱性能已居國內第一梯隊的騰訊混元大模型,同樣將“產業實用”作爲發展大模型的核心戰略。

騰訊集團高級執行副總裁、雲與智慧產業事業羣CEO湯道生介紹稱,騰訊發展大模型的核心戰略是“產業實用”,“構建起離產業最近的AI,助力千行百業智能化升級”。

據瞭解,騰訊雲智能行業大模型也已在金融、醫療、教育、汽車、能源等20多個行業落地。此外,騰訊還將於5月30日發佈基於混元大模型、面向C端的助手APP“騰訊元寶”。

截至目前,騰訊大模型似乎還未參與到眼下的“價格戰”中來。

成本困境仍有待解決

在不斷擊穿底價甚至免費的“激進”策略下,大模型廠商“跑馬圈地”的意圖明顯。但在價格降至“白菜價”後,還能否覆蓋掉昂貴的訓練成本?

從成本的角度來看,大模型的訓練和維護成本非常高昂。據媒體報道,Gemini Ultra的訓練成本高達1.91億美元,而GPT-4的開發成本估計爲7800萬美元。

除此之外,大模型提供服務時還大量消耗其他資源。據《紐約客》雜誌引援國外研究機構報告,ChatGPT每天要響應大約2億個請求,在此過程中消耗超過50萬度電力。

加州大學河濱分校研究顯示,ChatGPT每與用戶交流25-50個問題,就可消耗500毫升的水。

毫無疑問,大模型的高昂成本增加變現難度。在行雲集成電路創始人季宇看來,大模型的商業落地與早期互聯網時代相比區別很大,邊際成本仍然非常高。大模型每增加一個用戶,基礎設施需增加的成本是肉眼可見的,一個月幾十美元的訂閱費用根本不足以抵消背後高昂的成本。

在此背景下,目前市場上主要的大模型參與者,都在通過技術優化等方式不斷推動訓練成本的降低,以加速大模型的商業化落地。

以字節豆包大模型爲例,譚待坦言降價的背後主要原因是技術上可以實現,未來還有很多手段繼續降低成本。

據其介紹,火山引擎在技術上有非常多優化手段,可以降低大模型成本,此外在工程上可以通過分佈式推理的形式將底層算力使用得更好;另外,在混合調度方面,可以把不同負載作爲混合調度,這樣的成本也大幅下降。

銀河證券研報認爲,DeepSeek-V2提升數據集質量及優化架構,大幅提升訓練效率,降低訓練成本,訓練所需計算量約爲GPT-4的1/20,但性能上基本相差無幾。

不過,並非所有人都認同簡單粗暴的“價格戰”打法。“大模型從訓練到服務都很昂貴,算力緊缺是這一賽道的集體挑戰,行業應當共同避免陷入不理性的ofo式流血燒錢打法,讓大模型能夠健康地蓄能長跑。”零一萬物 CEO 李開復稱。

北京智源人工智能研究院院長王仲遠也認爲,大模型卷價格是一把雙刃劍,價格降低有利於產業普及和推廣,但如果價格低於企業實際成本,將擾亂市場。

更值得關注的是,對於資金雄厚的大廠而言,降價將能夠擴大用戶羣體,從而進一步平衡收入和成本。但對於資金緊張的創業公司,價格戰可能就是讓企業淘汰出局的致命一擊。

時至今日,大模型仍屬於新興事物,其商業化是一個複雜且充滿挑戰的過程,企業想要跳出“燒錢”的怪圈還需更多的嘗試。

本文來自微信公衆號“鴻途FLY”(ID:hongtufly),作者:肖灑,編輯:深海,36氪經授權發佈。

相關文章