來源:極客公園

API 商業模式能不能成立,最終並不只是看價格。

作者 | 宛辰

編輯 | 靖宇

5 月 21 日上午,阿里雲在其例行峯會上,意外地釋放了大降價的消息:通義千問 GPT-4 級主力模型推理輸入價格降至 0.5 元/百萬 tokens,直降 97%。

這個大幅度降價的消息瞬間引發了與業界的普遍關注和討論,但短短數小時連鎖反應出現了,百度智能雲官宣文心大模型主力模型 ERNIE Speed(上下文長度 8K、128K)、ERNIE Lite(上下文長度 8K、128K)免費。雖然這兩個模型和阿里宣佈降價的模型並不完全對應,但是這個動作讓很多人開始高呼中國大模型企業的 API 商業模式,難道就這樣在 3 小時內就消失了嗎?

文心大模型兩大主力模型全面免費

實際上在更早之前,字節跳動宣佈,豆包通用模型推理輸入價格爲 0.8 元/百萬 tokens。

雖然這些價格背後在併發量,模型能力上有很多不同的細節區別,甚至根據創業者的實際計算,真正落到業務裏用起來,各家的成本下降都沒有宣傳上那麼誇張。

但至少紙面上看,每百萬 token 推理輸入量,字節、阿里、百度先後在一週內官宣了 0.8 元,0.5 元和免費的報價。有業界人士甚至開玩笑說,眼瞅着下一家跟進的廠商可能就得發錢補貼讓客戶用 API 了,在這麼短的時間內產生這樣劇烈的變化,到底是因爲什麼?這是一次市場宣傳上的內卷?還是大模型 API 調用的商業模式,就真的這麼消解了嗎?

01

價格戰背後,大模型 

API 調用的商業模式

其實最早 ChatGPT 發佈時,大家對大模型直接作爲服務被調用的商業模式有很大期待。畢竟,與上一波 AI 煙囪式的項目交付方式相比,大模型帶來了更通用的 AI 能力,作爲標準化服務被調用,道理上也說得通。

就拿 OpenAI 來說,有兩大商業化手段,一是像 ChatGPT Plus 20 美元/月這樣的會員訂閱模式,另一個是開發者 API 調用服務。在這兩大標準化服務的拉動下,2023 年 12 月 31 日,The information 爆出 OpenAI 的年度經常性收入(Annual Recurring Revenue,ARR)已經達到了 16 億美元。

但即便強如 OpenAI 的模型能力,這個體量的營收相比其百億美金級別的研發成本而言,目前看也還是杯水車薪。

事實上,只提供模型的 API,距離 AI 應用在場景中落地還有很大距離,大部分 AI 應用還需要在一個通用的模型 API 之上,在場景裏喂數據、做微調等來優化模型引擎。看到這一瓶頸後,國內大模型廠商在過去一年也做了一系列探索來降低 AI 應用的門檻,以期擴大大模型的調用量。

以百度智能云爲例,去年相繼推出模型開發工具 Model Builder 和 AI 應用開發 AppBuilder、更具效價比的不同模型等,但模型的調用增長似乎依然有限。今年 4 月,百度智能雲推出生態打法,和有渠道、場景的供應商一起合作服務客戶,旨在進一步拉昇文心大模型標準化的 API 調用量。這些跡象上看,大廠們顯然並沒有真的準備放棄 API 調用的商業模式,但這個商業模式還沒有真正收到成規模的錢,倒是真的問題。

上週,百度最新公佈的數據顯示,文心大模型日處理文本 2500 億 token,另一大廠字節跳動日均處理 1200 億 token 文本,但其中很大一部分是大廠內部業務在調用做 AI 應用和業務探索。

可以看出,儘管模型廠商做了很多嘗試,但標準化的模型 API 並沒有迎來確定性的增長。

這是本週大廠模型推理價格降低的大前提和背景。理解了模型 API 調用的需求現狀,也就不難理解這一波降價動作——降價並沒有真的損失多少收入,不如激活下市場,賺個吆喝,促進很多企業從‘免費試用’開始下水,早點啓動對 AI 進入業務流的嘗試。

其實,這一波降價的連鎖反應,真正的源頭並不是阿里雲,也不是字節跳動,比大廠降價更早的,是一家創業公司。

5 月 6 日,國內創業公司幻方旗下的大模型公司‘深度求索’開源了第二代 MoE 模型:DeepSeek-V2,主打參數更多、能力更強、成本更低。

由於 DeepSeek 的技術優勢在全球大模型圈子得到了普遍好評,而其在模型能力逼近第一梯隊閉源模型的前提下,還把推理成本降到了 1 塊錢/百萬 token,也就是說,成本是 Llama3 70B 的七分之一,GPT-4 Turbo 的七十分之一。而且,DeepSeek v2 還能做到有利潤,這顯然是是模型架構、系統、工程的一系列進步帶來的成本降低。

這一信息在實際做模型應用的產業界引起了廣泛討論,在海外也引起了不小的波動,半導體和人工智能獨立研究機構 SemiAnaysis 稱其性能直逼大模型 GPT-4 所代表的第一梯隊,同時推理價格相當低,是不可小覷的中國力量。

DeepSeek v2 宣佈其價格爲 1 元/百萬 token 後,隨即引來了大模型價格戰,智譜、面壁、字節、阿里、百度,以及今天跟進的科大訊飛、騰訊雲相繼宣佈了模型推理價格降低。

對於各家不同的降價策略,已經有一些質疑聲音稱一些降價的模型本身吞吐量就低,而高性能模型並沒有降價。並且還有很多細節條款會讓最終企業用起來沒有宣傳的那麼便宜,從這個角度看,降價更多是模型廠商出於市場和品牌的考量,進行的一波內卷。

歸根結底,能形成價格戰的連鎖反應,也是當前各大模型的能力放在可用的場景中,尚未拉開差距,用戶甚至有免費開源的產品可以用。

一位 SaaS 廠商創始人向極客公園表示,‘對我來說用誰的其實無所謂,因爲他們最後跑得都差不多,當把時間線拉長來看,最後這些廠商提供的模型 API 服務,99.9% 的概率跟今天的雲是差不多的概念。另外,如果一個通用的模型 API 無法深度適配場景,還是要自己基於開源模型,用場景數據做專門的深度訓練,也不會接通用的模型 API。’

最終的的客戶需求,其實是端到端的訴求,是可以用、可以看到效果的東西,而不是模型調用。

02

大模型,巨頭和

創業公司有不同的遊戲

當然,模型推理價格降低本身也是技術發展帶來的必然結果,有一系列工程、架構、系統手段可以持續優化。今天凌晨微軟 Build 開發者大會上,納德拉還舉例解釋了這一趨勢。他說,過去一年 GPT-4 性能提升了 6 倍,但成本降低到了之前的 1/12,對應性能/成本提升了 70 倍。

‘難的是探索模型能力上限,至於模型推理價格一定有辦法降低’,Minimax 創始人嚴俊傑上週坐客極客公園直播節目中表述了這一技術趨勢,他表示,模型推理價格降低到可用,在學術界已經發生過三次了,這不難。

模型技術的攀升,纔是 API 調用商業模式能繼續增長的前提。其實細看今天宣佈降價的模型產品也是一樣,真正大規模、高性能、支持高併發的模型推理還是要收費,降價幅度是有限的。

但長期來看,API 模式最終考驗的還是模型能力,如果技術拉不開差距,價格也一定拉不開差距,最終模型調用的價值會被稀釋,雖然依舊是重要的基礎設施,但價值大小就從油變水了。

換一個角度看,今天一個通用的模型 API 可能不是迫切的需求。就像 Lepton.ai 的創始人賈揚清在朋友圈表達的觀點,‘站在整個 AI 業界的角度我想說,降價是個拍腦袋就可以做的簡單策略,但是真正的 To B 商業成功更難。’今天企業在使用 AI 的時候,並不是成本驅動的,‘今天不是說 API 貴纔沒有人用,而是因爲要搞清楚,到底怎麼用起來產生業務價值’。

從這個角度看,如何把大模型能力推動到企業的業務裏的很大一部分任務,可能又回落到傳統 SaaS 廠商(用 AI 升級產品之後)手裏,需要他們作爲智能生產力的‘幹線物流’+‘前置倉’,輸送到各個場景中。

隨着模型 API 直供模式的高度內卷,巨頭其實已經在向能交付價值的 SaaS 看,微軟今天宣稱 GitHub Copilot 訂閱者已經有 180 萬付費用戶。谷歌近日也正在與 CRM 營銷巨頭 Hubspot 談高達 300 億美金收購可能性,因爲前者可能會利用這次收購來加強其在 AI 領域產品整合。

對於巨頭而言,模型技術和實際場景,兩個都要抓,纔能有規模化的收入。但歸根結底,模型能力和別人拉開距離,纔是 API 模式可以產生價值的‘華山一條路’的挑戰。

而對於大模型創業公司而言,也是個‘華山兩條路’的局面,即要麼做出比大公司更好的模型技術,要麼從模型走向產品,直接創造價值。

智能的能力不會是免費的,但是怎麼規模化的創造價值,巨頭和創業公司,都還在尋找答案。

相關文章