每經記者 可楊 楊卉    每經編輯 蘭素英    

2023年3月15日,隨着OpenAI多模態預訓練大模型GPT-4的發佈,國內包括百度、華爲、騰訊等科技巨頭,百川智能等初創企業,以及智譜AI研究院等研究機構紛紛揚帆起航,投身到人工智能(AI)大模型的開發中,試圖搭上這趟時代列車,轟轟烈烈的“百模大戰”也由此開啓。

據《每日經濟新聞》記者不完全統計,截至2024年4月底,國內共計推出了305個大模型。而截至5月16日,只有約140個大模型完成了生成式人工智能服務備案,佔發佈總量的45.9%。這意味着,還有約165個大模型尚未“過審”。

這一嚴峻現實的背後除了技術層面的難題,還有訓練和推理過程中高昂算力成本的制約。即便跨過這些關卡,大模型企業如何實現商業化,依然面臨衆多難題。而對這場競賽中可能被“出局”的公司來說,未來的路又在何方?

現狀:305個大模型發佈,約140個完成備案

GPT-4的發佈在全球掀起了“大模型”熱潮,面對這一新藍海,科技巨頭、初創企業以及科研院所相繼開啓佈局,沒人想錯過這趟時代的列車。

據《每日經濟新聞》記者不完全統計,截至今年4月底,國內共推出了約305個大模型,在過去一年推動着語言理解、圖像識別等多個領域的技術進步。截至2024年5月16日,國內共有約140個大模型完成生成式人工智能服務備案,佔305個大模型的約45.9%。

此前,國家網信辦有關負責人就《生成式人工智能服務管理暫行辦法》(以下簡稱《辦法》)相關問題回答媒體提問時介紹,《辦法》規定,利用生成式人工智能技術向中華人民共和國境內公衆提供生成文本、圖片、音頻、視頻等內容的服務,適用本辦法。

在已備案的大模型中,在地域分佈上,北京以70個備案大模型領跑全國,凸顯了其在AI領域的集聚效應。上海和廣東緊隨其後,分別有28個和19個大模型備案。

而“140”這一數字同時也意味着,從備案層面來看,大約還有165個大模型依舊未通過備案,無法公開向公衆提供服務。這些尚未能“過審”的大模型中,不乏一些備受關注的明星項目,包括曾號稱是“國內首個ChatGPT”的元語智能大模型ChatYuan。

更多未完成備案的是“學院派”大模型。在305個大模型中,有60個大模型是由大學或研究院所研發的。或許是由於研究機構的項目更偏重學術探索,而非商業應用,備案動力可能不如企業充足。也有大模型轉向“境內深度合成服務算法”備案,例如恒生電子的大模型。

一名大模型行業的創業者對記者介紹道,當前大模型相關的備案申請有點像專利申請,並不一定會通過,且申請週期較長,約爲4~6個月。他表示,當下,大模型只要做To C(面向消費者)服務,就需要備案,而在B端(企業端),一些大客戶會要求大模型公司完成備案工作。

不過他同時強調,沒備案的大模型也不代表就消失在市面上了,很多來自研究所、大學的大模型僅僅只用於研究,就沒有動機去完成備案。

一家大模型頭部企業從業人士也告訴記者,來自大學的大模型,如果只做自身學術範圍內的研究,是可以不用備案的。

“百模大戰”行至此時,最終留下3~5個大模型已經成爲行業對於這場競賽最終結局的共識。“大模型這個行業(到最後)可能就不存在了,未來大模型就是幾個最基本的底座,只有少數的幾家公司(去搞)。”行行AI董事長、順福資本創始人李明順此前在接受《每日經濟新聞》記者採訪時坦言。

難點:日活千萬需年入超100億元才能覆蓋數據中心成本

算力資源的稀缺是制約大模型發展的關鍵瓶頸。對不少大模型來說,沒能挺過一週年,難搞的算力要負很大責任。對於大模型廠商而言,目前主要的算力成本包括預訓練成本和推理成本。模型推理應用階段對算力的需求要遠遠高於訓練階段。

據中國工程院院士鄭緯民計算,在大模型訓練的過程中,70%的開銷要花在算力上;推理過程中95%的花費也是在算力上。以GPT-4爲例,該模型的訓練需要一萬塊英偉達A100芯片跑上11個月。假設每塊A100芯片的成本爲10000美元(價格因供應商和購買數量而異),那麼一萬塊A100芯片的總成本約爲1億美元。

對於許多急匆匆踏上大模型賽道的創業公司或科技企業來說,在“燒”了一陣子錢後,他們絕望地發現,算力不僅越來越貴,質量也開始下降,而且可能買不到。

鄭緯民表示,目前,市面上只有三類系統可支持大模型訓練。其中,基於英偉達GPU的系統一卡難求;基於國產AI芯片的系統面臨國產卡應用不足、生態系統有待改善的問題;而基於超級計算機的系統,雖然可在做好軟硬件協同設計的情況下實現大模型訓練,但需在超算機器尚未飽和的前提下操作,私人企業獲得超算設備的機會並不大。

英特爾方面介紹,在大模型領域,去年關注點更多是在模型訓練上,對成本和功耗並不那麼重視。彼時,企業都希望能訓練一個自身的通用大模型。隨着很多通用大模型被訓練出來,今年關注的重點則轉移到了推理。對企業來說,大模型訓練出來是需要變現且能夠盈利的。但目前市場上很多大模型都是開源的,性能差不多,用於訓練的數據也差不多,很難通過差異化來盈利。

沒有足夠的資金支撐推理過程,成了很多創業者敗退的重要原因。爲了降低成本,部分企業正在嘗試探索是否可以用CPU來做大模型推理。從當前一些案例來看,在130億參數以下的大模型中,CPU是可以做到這一點的。

然而,即便是熬過了推理關,企業要將大模型變現仍有不小的難度。在行雲集成電路創始人季宇看來,大模型的商業落地與早期互聯網時代相比區別很大,邊際成本仍然非常高。大模型每增加一個用戶,基礎設施需增加的成本是肉眼可見的,一個月幾十美元的訂閱費用根本不足以抵消背後高昂的成本。

更爲關鍵的是,眼下大模型要大規模商業化,在模型質量、上下文長度等方面還有進一步訴求,不排除會進一步增加邊際成本。目前來看,日活千萬的通用大模型一年需超過100億元的收入才能支撐其背後的數據中心成本,未來大模型要像互聯網產業一樣服務上億人,成本一定是邁不過去的檻。

尋找新“航道”:投身應用或專注垂類細分行業

如果說“百模大戰”最後的贏家只屬於少數幾家公司,那在這場賽事中被淘汰的公司,未來會走向何方?

崑崙萬維董事長方漢此前在接受《每日經濟新聞》記者採訪時表示,“百模大戰”會淘汰一部分公司,剩下的科技公司肯定會繼續全速前進。

在行雲集成電路創始人季宇看來,當下和未來兩三年,大模型的商業探索會在成本和Token(大模型可以理解和生成的最小意義單位)質量上相互妥協,並逐漸分化爲兩派。

一派是質量優先,用高端系統打造高質量的通用大模型,尋找超級應用來覆蓋高昂的成本。另一派是成本優先,用足夠便宜的硬件提供基本夠用的Token質量,尋找垂直場景的落地。若能在同樣的成本下買到規格大得多的芯片,跑一個百億千億模型,支持超長上下文,商業化的空間會比今天大得多,就像曾經的顯卡和遊戲行業一樣。

啓明創投合夥人周志峯認爲,當下,絕大多數的大模型企業是包着大模型的皮,裹着應用的心。擁有模型能力的團隊更容易在算法、模型、數據、模型的加速方面去作優化,以做出體驗更好的產品,尤其是相對那些用第三方模型純粹做應用的公司。這一類公司其實不是模型公司,未來一定會是一家應用公司。

周志峯以字節跳動爲例,從今日頭條到抖音再到TikTok,背後的軸是AI驅動的推薦引擎。“字節跳動第一輪、第二輪融資的時候跟我們投資人講得更多的故事是AI驅動的推進引擎,而今天大家不會再去說字節跳動是一家AI技術公司,只會記得是哪幾個應用成就了這麼大的規模。”

李明順也持同樣的觀點,在不遠的將來,有一部分大模型公司要轉型成應用公司,因爲大模型領域不需要這麼多公司,有一些大模型公司的創始人有Plan A和Plan B的雙計劃,就是一旦其模型實在是拼不過前面的5家之後,就要被迫在一些垂直領域裏面找到生存之地,它就會轉型爲一家應用公司。

在備案成功的大模型中,部分模型已經從通用型轉變爲聚焦特定領域或行業的細分垂類模型。

中科聞歌董事長王磊在接受《每日經濟新聞》記者採訪時坦言,在過去的半年到一年內,適當做小行業大模型,降低參數規模的趨勢已經變得非常明顯。真正成功的商業應用不是製造一個巨無霸,而是能夠被用戶廣泛使用且價格適中。實用至上,不必爲了面子而去追求大規模,高昂的代價會影響產品的市場推廣和用戶的使用,實用性纔是商業發展的主導原則。

王磊表示:“在我們的大模型發佈時,國外網友評價這是企業級應用的小型參數規格。我認爲一般的企業可能難以承受更大規模的產品。對於文本生成任務,這個規模基本上是足夠的,但對於一些特定領域的任務,還需要強化模型的能力。”

第四範式也同樣堅定選擇投入行業大模型。“如果說無限把模型做大,往裏面放無限多的數據,最後可能會達到AGI(通用人工智能)的狀態,但是在每一個垂直應用領域,我們都要平衡好能力以及代價。”第四範式創始人戴文淵此前在公司業績溝通會上表示,從技術的角度來說,第四範式也追求AGI,但是與此同時,對於每一個客戶的具體場景,也要做一定的裁剪,比如說這個考試只考數學,不一定需要讓它(大模型)有解決物理問題的能力。

相關文章