​5月21日,阿里雲拋出重磅炸彈:通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。

5月21日,阿里雲拋出重磅炸彈:通義千問GPT-4級主力模型Qwen-Long,API輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味着,1塊錢可以買200萬tokens,相當於5本《新華字典》的文字量。這款模型最高支持1千萬tokens長文本輸入,降價後約爲GPT-4價格的1/400,擊穿全球底價。

Qwen-Long是通義千問的長文本增強版模型,性能對標GPT-4,上下文長度最高達1千萬。除了輸入價格降至0.0005元/千tokens,Qwen-Long輸出價格也直降90%至0.002元/千tokens。相比之下,國內外廠商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens輸入價格分別爲0.22元、0.025元、0.022元及0.12元,均遠高於Qwen-long。

通義千問本次降價共覆蓋9款商業化及開源系列模型。不久前發佈的通義千問旗艦款大模型Qwen-Max,API輸入價格降至0.04元/千tokens,降幅達67%。Qwen-Max是目前業界表現最好的中文大模型,在權威基準OpenCompass上性能追平GPT-4-Turbo,並在大模型競技場Chatbot Arena中躋身全球前15。

不久前,OpenAI的Sam Altman轉發了Chatbot Arena榜單來印證GPT-4o的能力,其中全球排名前20的模型中,僅有的三款中國模型都是通義千問出品。

業界普遍認爲,隨着大模型性能逐漸提升,AI應用創新正進入密集探索期,但推理成本過高依然是制約大模型規模化應用的關鍵因素。

在武漢AI智領者峯會現場,阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光表示:“作爲中國第一大雲計算公司,阿里雲這次大幅降低大模型推理價格,就是希望加速AI應用的爆發。我們預計未來大模型API的調用量會有成千上萬倍的增長。”

劉偉光認爲,不管是開源模型還是商業化模型,公共雲+API將成爲企業使用大模型的主流方式,主要有三點原因:

一是公共雲的技術紅利和規模效應,帶來巨大的成本和性能優勢。阿里雲可以從模型自身和AI基礎設施兩個層面不斷優化,追求極致的推理成本和性能。阿里雲基於自研的異構芯片互聯、高性能網絡HPN7.0、高性能存儲CPFS、人工智能平臺PAI等核心技術和產品,構建了極致彈性的AI算力調度系統,結合百鍊分佈式推理加速引擎,大幅壓縮了模型推理成本,並加快模型推理速度。

即便是同樣的開源模型,在公共雲上的調用價格也遠遠低於私有化部署。以使用Qwen-72B開源模型、每月1億tokens用量爲例,在阿里雲百鍊上直接調用API每月僅需600元,私有化部署的成本平均每月超1萬元。

二是雲上更方便進行多模型調用,並提供企業級的數據安全保障。阿里雲可以爲每個企業提供專屬VPC環境,做到計算隔離、存儲隔離、網絡隔離、數據加密,充分保障數據安全。目前,阿里雲已主導或深度參與10多項大模型安全相關國際國內技術標準的制定。

三是雲廠商天然的開放性,能爲開發者提供最豐富的模型和工具鏈。阿里雲百鍊平臺上匯聚通義、百川、ChatGLM、Llama系列等上百款國內外優質模型,內置大模型定製與應用開發工具鏈,開發者可以便捷地測試比較不同模型,開發專屬大模型,並輕鬆搭建RAG等應用。從選模型、調模型、搭應用到對外服務,一站式搞定。

相關文章