【財經(jīng)分析】大模型迎來“降本增效”年 ??“獨角獸”們應(yīng)對沖擊需尋求更多差異
DeepSeek-V3因其訓(xùn)練成本之低引發(fā)國內(nèi)外熱議,讓行業(yè)開始反思,無限追逐更大算力集群、更多數(shù)據(jù)量是否是大模型優(yōu)化唯一道路。效率是2025年大模型行業(yè)的關(guān)鍵詞之一,除了少數(shù)公司有能力、有愿景用萬卡,乃至十萬卡繼續(xù)追求頂級大模型,大多數(shù)公司未來要降本增效。
新華財經(jīng)上海1月15日電(記者杜康、朱程)歲末年初,國內(nèi)外主流大模型再次降價。DeepSeek-V3因其訓(xùn)練成本之低引發(fā)國內(nèi)外熱議,讓行業(yè)開始反思,無限追逐更大算力集群、更多數(shù)據(jù)量是否是大模型優(yōu)化唯一道路。伯克利大學(xué)NovaSky 團隊Sky-T1-32B-Preview開源模型的發(fā)布,再次印證了高水平AI研發(fā)不需要天價預(yù)算。行業(yè)也由單方面的性能角逐,轉(zhuǎn)向性能與實用性并重的發(fā)展趨勢,更加注重性價比。
成本的降低,無疑將進一步加快大模型的場景落地。這同時也對大模型創(chuàng)業(yè)公司提出挑戰(zhàn)。在與大廠的“價格”比拼中不具備優(yōu)勢的創(chuàng)業(yè)公司們,迫切需要尋找到一條差異化道路,避開互聯(lián)網(wǎng)廠商的“射程”將是關(guān)鍵。
訓(xùn)練成本降低 效率成為行業(yè)關(guān)鍵詞
日前,DeepSeek-V3因其訓(xùn)練成本之低引發(fā)行業(yè)熱議。從其正式發(fā)布的技術(shù)報告來看,DeepSeek-V3完整訓(xùn)練只需2.788M H800 GPU小時,包括預(yù)訓(xùn)練、上下文長度外推和后訓(xùn)練。假設(shè)H800 GPU的租金為每GPU小時2美元,其總訓(xùn)練成本僅為557萬美元。Deepseek也透露,上述成本不包括與架構(gòu)、算法或數(shù)據(jù)相關(guān)的先前研究或精簡實驗的成本。
美國人工智能公司Anthropic的CEO達里奧·阿莫迪曾透露,GPT-4o這樣的模型訓(xùn)練成本約為1億美元。這意味著DeepSeek的成本只有GPT-4o的1/20。
訓(xùn)練成本降低的同時,DeepSeek-V3保持了高性能。根據(jù)其公告,DeepSeek-V3 多項評測成績超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他開源模型,并在性能上和世界頂尖的閉源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。
為什么DeepSeek-V3能夠?qū)崿F(xiàn)低成本、高性能?“包括模型架構(gòu)、基礎(chǔ)設(shè)施優(yōu)化、數(shù)據(jù)優(yōu)化在內(nèi),我們看到DeepSeek-V3從端到端都進行了工程優(yōu)化,疊加后呈現(xiàn)出很好的效果。”Gartner研究總監(jiān)閆斌介紹,大模型進入公眾視野大約時間尚短,只有兩年多時間。期間,行業(yè)模型訓(xùn)練相對粗放,通過盡量多收集數(shù)據(jù),建設(shè)更大的數(shù)據(jù)中心,以獲得更好的訓(xùn)練結(jié)果,行業(yè)也用“Scaling Law”總結(jié)這一過程。
“DeepSeek-V3證明了,通過更好的工程化能力,我們可以通過相對較少的算力資源、較小的模型,也可以達到不錯的訓(xùn)練效果?!遍Z斌說?!澳壳靶袠I(yè)在數(shù)據(jù)和算法方面仍有優(yōu)化空間,低成本的訓(xùn)練和高效推理應(yīng)用或?qū)⑹窍乱浑A段大模型發(fā)展的方向之一?!?/p>
值得關(guān)注的是,伯克利大學(xué)NovaSky 團隊也剛剛發(fā)布了Sky-T1-32B-Preview開源模型,在常見的推理和編碼基準(zhǔn)測試中,與OpenAI的o1-preview“平分秋色”。據(jù)稱,其訓(xùn)練成本不到 450 美元,展示了以經(jīng)濟高效的方式復(fù)制高水平推理能力的可能性。
NovaSky 團隊之所以能夠以如此低成本進行模型訓(xùn)練,其關(guān)鍵之處包括使用了數(shù)據(jù)篩選機制,如通過QwQ-32B-Preview生成初始數(shù)據(jù),通過GPT-4o-mini重寫數(shù)據(jù)格式等。此外,NovaSky 團隊選擇了Qwen2.5-32B-Instruct作為基礎(chǔ)模型進行訓(xùn)練?!斑@個項目證明了,高水平AI研發(fā)不需要天價預(yù)算?!毙袠I(yè)人士評價道。
“效率是2025年大模型行業(yè)的關(guān)鍵詞之一。除了少數(shù)公司有能力、有愿景用萬卡,乃至十萬卡繼續(xù)追求頂級大模型,大多數(shù)公司未來要降本增效。事實上,優(yōu)化注意力機制、采用MOE架構(gòu)、降低模型激活的參數(shù)量等,都已經(jīng)是很主流的降本方式。我們相信這會帶來AI門檻的降低,以及技術(shù)的普及化,不僅體現(xiàn)在應(yīng)用側(cè),還有研發(fā)側(cè)。”瑞銀證券中國軟件分析師張維璇表示。
行業(yè)再降價 大模型創(chuàng)業(yè)公司將直面沖擊
伴隨著訓(xùn)練成本的降低,DeepSeek-V3 的API 價格目前為每百萬輸入tokens 0.5元(緩存命中)/ 2元(緩存未命中),每百萬輸出tokens 8元。同時,DeepSeek提供了45天優(yōu)惠價格體驗期,在2025年2月8日之前,所有用戶使用 DeepSeek-V3 API 的價格分別下降了 80%(輸入命中)、50%(輸入未命中)、75%(輸出)。
事實上,2024年上半年中國大模型“價格戰(zhàn)”的發(fā)起者,正是DeepSeek。
2024年5月,DeepSeek率先宣布降價,其發(fā)布的第二代MoE大模型DeepSeek-V2定為0.001元/千tokens的輸入價格與0.002元/千tokens的輸出價格。隨后,智譜 AI、火山引擎、 阿里云、百度、科大訊飛、騰訊云等國內(nèi)主要大模型廠商迅速跟進。DeepSeek甚至獲得了一個新稱號——AI界“拼多多”。
可以看到,2024年年底,除了DeepSeek-V3 新版本的推出以及API 價格調(diào)整,國內(nèi)大模型其他廠商也在降價。2024年12月31日,阿里云宣布2024年度第三輪大模型降價,通義千問視覺理解模型全線降價超80%,其中,Qwen-VL-Plus直降81%;更高性能的Qwen-VL-Max降幅高達85%。此前,在12月18日舉辦的火山引擎Force大會上,字節(jié)跳動推出的豆包視覺理解模型也宣布進行降價。
“大模型不斷降價,無疑有利于吸引更多企業(yè)使用新的技術(shù),為大模型創(chuàng)業(yè)公司提供了更大的市場。同時,這也對大模型創(chuàng)業(yè)公司構(gòu)成了挑戰(zhàn)?!毥谦F’們僅僅做到提升大模型能力還不夠,還要不斷優(yōu)化算法,快速降低模型的推理成本。只有真正做到為用戶提供更有性價比的大模型服務(wù),才能贏得市場份額。”MiniMax副總裁劉華對記者表示。
經(jīng)過一年多來的行業(yè)競爭,中國人工智能大模型的行業(yè)格局不斷清晰,主要玩家從“百模大戰(zhàn)”時代不斷收斂。MiniMax與智譜AI、百川智能、月之暗面、階躍星辰、零一萬物6家行業(yè)“獨角獸”企業(yè)估值均超10億美金,被行業(yè)稱為國內(nèi)“大模型六小虎”;再加上關(guān)注度較高的幻方和面壁智能,以及互聯(lián)網(wǎng)大廠中的字節(jié)、阿里、百度和騰訊,行業(yè)主要玩家縮減到十來家。
API接口調(diào)用付費是大模型企業(yè)B端重要商業(yè)化實現(xiàn)路徑之一。不過,ToB業(yè)務(wù)中,由于互聯(lián)網(wǎng)大廠可以將AI功能綁定算力和云服務(wù)業(yè)務(wù),二者疊加商業(yè)推廣上效率更高。因此,在“價格戰(zhàn)”中,大廠因為業(yè)務(wù)復(fù)合、資金雄厚,也更有優(yōu)勢。面對“價格戰(zhàn)”,創(chuàng)業(yè)公司只能化壓力為動力,從加快迭代模型、不斷優(yōu)化算法中尋找解法。
“如果要拼低價和資源,創(chuàng)業(yè)公司肯定不如大廠。下一步,大模型創(chuàng)業(yè)公司可以聚焦在提供個性化服務(wù),比如提供情感類大模型的API接口?!毙袠I(yè)人士對記者表示。
“獨角獸”們需差異化發(fā)展 避開互聯(lián)網(wǎng)廠商“射程”
無疑,大模型訓(xùn)練成本、推理成本的下降,將進一步加快行業(yè)場景應(yīng)用落地。事實上,尋找更合適的大規(guī)模落地場景、更好的商業(yè)閉環(huán)模式,已經(jīng)成為大模型企業(yè)下一階段發(fā)展的當(dāng)務(wù)之急。
在接受采訪時,多位行業(yè)人士提到上述提到的“大模型六小虎”開始出現(xiàn)分化,并表示有獨角獸企業(yè)出現(xiàn)“掉隊”的勢頭?!斑@也說明,大模型行業(yè)發(fā)展遇到了瓶頸?!毙袠I(yè)人士評價道。
“從全球來看,大模型企業(yè)都面臨一定的融資壓力。大模型出現(xiàn)之初,大家對它的預(yù)期很高,后面又經(jīng)歷了預(yù)期的回調(diào)。與此同步,行業(yè)融資熱度稍降。當(dāng)然這也符合一項新技術(shù)的發(fā)展曲線。單純通過講故事已經(jīng)很難找到投資人?!遍Z斌表示。
從B端應(yīng)用來看,Gartner一份最新調(diào)研結(jié)果顯示,截至2024年6 ?目前只有8%的中國企業(yè)將生成式人工智能部署在生產(chǎn)環(huán)境中。對此,閆斌解釋稱,目前大模型在中國企業(yè)生產(chǎn)場景中小規(guī)模落地已出現(xiàn),但大規(guī)模企業(yè)落地仍然較為少見。“如果把最終落地應(yīng)用比作一場考試,那么大模型能力、數(shù)據(jù)、工程化、產(chǎn)品設(shè)計將是幾門關(guān)鍵課程。根據(jù)我們觀察,國內(nèi)很多大模型能力已經(jīng)不錯,目前落地短板更聚焦在其他幾個方面?!?/p>
再來看C端落地。根據(jù)AI產(chǎn)品榜數(shù)據(jù),目前用戶量排名靠前的應(yīng)用分別為抖音的豆包、MiniMax的Talkie AI、月之暗面的Kimi智能助手、百度的文小言,全球12月份的月活分別為7117萬、2977萬、1669萬、1347萬,在全球主要C端產(chǎn)品榜單中,分別位列第2位、第4位、第15位、第20位。
與創(chuàng)業(yè)“獨角獸”們相比,“大廠”在C端應(yīng)用推廣上,展示出了流量和資本方面的巨大優(yōu)勢。字節(jié)2024年5月才推出AI對話助手“豆包”,憑借投流買量后來居上,成為過去半年增長最快的移動應(yīng)用。“一些創(chuàng)業(yè)公司此前通過投流買量的方式迅速擴大了用戶量。但隨著‘大廠’下場,這種做法就顯得不那么劃算了?!庇行袠I(yè)人士對記者表示。
“目前國內(nèi)大模型企業(yè)的C端產(chǎn)品存在‘同質(zhì)化’的問題,很多企業(yè)都推出了AI對話助手類產(chǎn)品,功能大同小異。但是,大模型技術(shù)在不斷迭代。各家企業(yè)需要基于大模型能力的提升趨勢,去探索新的AI產(chǎn)品形態(tài),去滿足客戶們尚未被滿足的需要。尤其是創(chuàng)業(yè)公司,更是要把資源聚焦于技術(shù)和產(chǎn)品的創(chuàng)新,而不是通過投流買量進入變成‘紅?!馁惖馈!眲⑷A說。
?
編輯:王媛媛
聲明:新華財經(jīng)為新華社承建的國家金融信息平臺。任何情況下,本平臺所發(fā)布的信息均不構(gòu)成投資建議。如有問題,請聯(lián)系客服:400-6123115