正在閱讀:

大模型“免費(fèi)”送,廠商們圖什么?

掃一掃下載界面新聞APP

大模型“免費(fèi)”送,廠商們圖什么?

成本雖屢屢下探,但算力提供商已急不可耐。

圖片來源:界面新聞 匡達(dá)

文|壹DU財經(jīng) 辰樹

編輯|小影

2024年618,傳統(tǒng)電商行業(yè)不再喧囂,但大模型市場卻開啟了慘烈的“價格戰(zhàn)”,甚至部分企業(yè)直接免費(fèi)送大模型服務(wù)。

5月15日,字節(jié)跳動宣布,豆包主力模型企業(yè)市場定價為0.0008元/千Tokens,0.8厘可處理1500多個漢字,比行業(yè)便宜99.3%。

一周后,阿里云也對外宣布,通義千問GPT-4級主力模型Qwen-Long的API輸入價格降至0.0005元/千Tokens,直降97%。

阿里云官微

阿里云卷入“價格戰(zhàn)”后,百度、騰訊云、科大訊飛等企業(yè)也接連宣布自家的大模型降價。其中百度甚至宣布,兩款基礎(chǔ)模型可免費(fèi)調(diào)用。

不可否認(rèn)的是,隨著技術(shù)逐漸成熟,大模型的成本正不斷下探。為了盡快俘獲更多企業(yè)客戶,拓寬市場影響力,上游算力提供商確實(shí)需要盡力降價。

然而需要注意的是,盡管大模型成本正逐步下探,但目前大部分企業(yè)的大模型業(yè)務(wù)依然面臨算力、人力成本高企的挑戰(zhàn),沒能盈利。在此背景下,上游算力提供商不斷降價,甚至免費(fèi)送大模型,顯得十分反常。

這種非理性的價格戰(zhàn),其實(shí)凸顯出了上游企業(yè)亟待通過讓利,打通大模型商業(yè)閉環(huán)的內(nèi)在焦慮。

01 價格戰(zhàn)背后,大模型商業(yè)困局難解

2023年以來,隨著ChatGPT爆火,諸多科技公司都看到了AI大模型蘊(yùn)含著巨大的商業(yè)價值,因而加碼相關(guān)業(yè)務(wù)。2024年3月,國家數(shù)據(jù)局局長劉烈宏透露,中國10億參數(shù)規(guī)模以上大模型數(shù)量已超100個。

然而隨著越來越多企業(yè)入局相關(guān)產(chǎn)業(yè),大模型商業(yè)模式不健全,成本高、落地難、下游企業(yè)持觀望態(tài)度等問題愈發(fā)凸顯。

由于需要采購高性能計算機(jī),并且需要進(jìn)行模型訓(xùn)練,大模型的成本異常高昂。以O(shè)penAI為例,其訓(xùn)練GPT-4的FLOPS約為2.15e25,一次訓(xùn)練成本為6300萬美元。The Information報道,2022年,OpenAI虧損約為5.4億美元左右,約擴(kuò)大一倍。

目前,大部分企業(yè)都意識到了大模型的參數(shù)越多,商業(yè)想象力越大,因而持續(xù)加碼模型訓(xùn)練。不過問題也隨之而來,那就是大模型僅僅問世兩年時間,下游創(chuàng)收手段十分有限。

整體而言,大模型有兩種創(chuàng)收模式,一是直接向用戶收取訂閱費(fèi),二是向開發(fā)者收取API調(diào)用費(fèi)。比如,2023年初,OpenAI推出了會員訂閱服務(wù)ChatGPT Plus,費(fèi)用為20美元/月,可使用基于GPT-4的模型,并且提供更快的響應(yīng)時間、優(yōu)先訪問等權(quán)限。

不過,據(jù)Reddot聯(lián)合創(chuàng)始人Pierre Herubel測算,即使以每月?lián)碛?00萬訂戶估計,ChatGPT Plus每年或只能為OpenAI帶來2.4億美元左右收入,很難幫助公司扭虧為盈。

因此,目前以O(shè)penAI為代表企業(yè)的發(fā)力重點(diǎn),是向企業(yè)收取API調(diào)用費(fèi)。參照云計算的經(jīng)驗(yàn),外部的企業(yè)從零開始訓(xùn)練大語言模型非常困難,傾向于采購成熟的AI大模型技術(shù),一旦這些企業(yè)探索出具備想象力的商業(yè)模式,即可反哺上游算力提供商,進(jìn)而實(shí)現(xiàn)多方共贏。

對此,2023年11月,百度創(chuàng)始人兼CEO李彥宏曾表示,不斷地重復(fù)開發(fā)基礎(chǔ)大模型是對社會資源的極大浪費(fèi),“AI原生時代,我們需要100萬量級的AI原生應(yīng)用,但是不需要100個大模型。”

02 算力提供商作出表率,但B端企業(yè)仍持觀望態(tài)度

由于大部分大模型算力提供商都是平臺型企業(yè),推出大模型技術(shù)后,這些企業(yè)紛紛在內(nèi)部試水相關(guān)技術(shù)的商業(yè)化,以圖給下游客戶做出商業(yè)化表率。

比如,2023年阿里云峰會上,時任阿里巴巴集團(tuán)董事會主席兼CEO、阿里云智能集團(tuán)CEO張勇表示:“阿里巴巴所有產(chǎn)品未來將接入‘通義千問’大模型,進(jìn)行全面改造。”

以釘釘為例,接入大模型后,其支持AI生成推廣文案、繪圖方式創(chuàng)建應(yīng)用、視頻會議中生成摘要等功能。釘釘總裁葉軍認(rèn)為,大模型將會讓釘釘?shù)氖杖朐鲩L百分之幾十。

無獨(dú)有偶,過去一段時間,騰訊也積極探索AI技術(shù)的商業(yè)化應(yīng)用。2023年財報中,騰訊對外表示:“廣告AI模型的改進(jìn)顯著提升了精準(zhǔn)投放的效果…… 這些發(fā)展帶動了高質(zhì)量的收入來源,推動毛利增長 23%。”

自有業(yè)務(wù)挖掘出AI的商業(yè)價值后,上游算力提供商正致力于針對垂直行業(yè)的細(xì)分需求,提供定制大模型能力。

比如,2023年6月,騰訊云宣布開啟“騰訊云行業(yè)大模型生態(tài)計劃”,致力于推進(jìn)大模型在產(chǎn)業(yè)領(lǐng)域的創(chuàng)新和落地。據(jù)悉,騰訊云已為傳媒、文旅、政務(wù)等10余個行業(yè)提供了超50個大模型行業(yè)解決方案。

然而需要注意的是,平臺型企業(yè)大多擁有自研大模型技術(shù),無論是試錯還是使用成本都更低,往往只會對外宣傳商業(yè)路徑清晰的大模型落地案例。

反觀外部的企業(yè)需要采購上游的大模型技術(shù),探索成本相對更高,并且商業(yè)模式不清晰,很難擁有足夠的積極性。見實(shí)團(tuán)隊披露的《AI應(yīng)用需求與付費(fèi)意愿調(diào)研報告》顯示,46.2%的企業(yè)AI預(yù)算在1萬元以下,另有22.2%和24%的企業(yè)預(yù)算分別為1萬-5萬元以及5萬元-10萬元,這些中腰部企業(yè)沒有足夠的預(yù)算探索AI。

此前,大部分主力模型產(chǎn)品的API輸入價格不菲,比如,Qwen-Long為0.02元/千tokens,1萬元只可以購買5億個tokens。如果一個產(chǎn)品有500萬月活,1萬元的預(yù)算,一個月平均只能供每個用戶使用100個tokens,顯然不夠。

03 成本雖屢屢下探,但算力提供商已急不可耐

顯而易見,當(dāng)下限制大模型B端商業(yè)化落地的主要障礙,就是API成本過高,限制了B端企業(yè)探索相應(yīng)的商業(yè)閉環(huán)。因此,目前算力提供商的發(fā)力方向,就是致力于通過技術(shù)手段,壓低大模型的成本,降低B端企業(yè)的使用成本。

開頭提到,字節(jié)跳動旗下豆包主力模型企業(yè)市場定價為0.0008元/千Tokens,比行業(yè)便宜99.3%。對此,火山引擎總裁譚待表示:“豆包模型的超低定價,來源于我們有信心用技術(shù)手段優(yōu)化成本,而不是補(bǔ)貼或是打價格戰(zhàn)爭奪市場份額?!?/p>

無獨(dú)有偶,2024年5月6日,深度求索開源了第二代MoE模型DeepSeek-V2,性能更強(qiáng),訓(xùn)練成本更低。據(jù)悉,DeepSeek可節(jié)省42.5%訓(xùn)練成本,減少93.3%的KV緩存,最大吞吐量提高5.76倍。整體而言,DeepSeek-V2消耗的顯存(KV Cache)只有同級別Dense模型的1/5-1/100。

不過,這并不意味著當(dāng)下大模型行業(yè)的價格戰(zhàn)十分正常。2024年5月,談及大模型的發(fā)展趨勢時,零一萬物CEO李開復(fù)接受采訪時表示:“未來整個行業(yè)的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的?!蔽磥恚竽P偷某杀緦⒊孰A梯狀下探,但目前大模型的價格卻斷崖式下探,甚至部分企業(yè)免費(fèi)送,降價幅度遠(yuǎn)超上游成本降幅。

上游算力提供商之所以如此內(nèi)卷,很大程度上都是希望俘獲更多的B端企業(yè),一方面實(shí)現(xiàn)規(guī)模效應(yīng),另一方面,讓B端企業(yè)無負(fù)擔(dān)地探索良性的商業(yè)模式。對此,譚待表示:“大的使用量,才能打磨出好模型,也能大幅降低模型推理的單位成本……大模型從以分計價到以厘計價,將助力企業(yè)以更低成本加速業(yè)務(wù)創(chuàng)新?!?/p>

盡管激烈的價格戰(zhàn)之下,大模型已經(jīng)進(jìn)入“免費(fèi)時代”,但其實(shí)大部分上游算力提供商為了后續(xù)創(chuàng)收,都留有更為隱晦的收費(fèi)手段。

目前,大部分大模型僅推理用的token降價,而訓(xùn)練和部署成本依然不低。比如,阿里的qwen-turbo 模型百萬個token推理只要2元,若是訓(xùn)練,就需要30元,部署時,每月需要2萬元。

由此來看,大模型進(jìn)入“免費(fèi)時代”,很大程度上其實(shí)只是一個宣傳意義上的噱頭。如果下游企業(yè)想要用上成套大模型服務(wù),那么不能不付出更高的使用成本。

而之所以上游算力提供商僅僅降低推理用的token成本,主要是因?yàn)橥ㄟ^內(nèi)部應(yīng)用,其對于大模型的商業(yè)價值足夠自信,希望降價的噱頭起到引流的作用。

參照云計算價格戰(zhàn)的經(jīng)驗(yàn),此番大模型價格戰(zhàn)或許可以吸引更多下游企業(yè)認(rèn)真審視大模型,有望基于相關(guān)技術(shù)探索出更多良性的商業(yè)模式。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

大模型“免費(fèi)”送,廠商們圖什么?

成本雖屢屢下探,但算力提供商已急不可耐。

圖片來源:界面新聞 匡達(dá)

文|壹DU財經(jīng) 辰樹

編輯|小影

2024年618,傳統(tǒng)電商行業(yè)不再喧囂,但大模型市場卻開啟了慘烈的“價格戰(zhàn)”,甚至部分企業(yè)直接免費(fèi)送大模型服務(wù)。

5月15日,字節(jié)跳動宣布,豆包主力模型企業(yè)市場定價為0.0008元/千Tokens,0.8厘可處理1500多個漢字,比行業(yè)便宜99.3%。

一周后,阿里云也對外宣布,通義千問GPT-4級主力模型Qwen-Long的API輸入價格降至0.0005元/千Tokens,直降97%。

阿里云官微

阿里云卷入“價格戰(zhàn)”后,百度、騰訊云、科大訊飛等企業(yè)也接連宣布自家的大模型降價。其中百度甚至宣布,兩款基礎(chǔ)模型可免費(fèi)調(diào)用。

不可否認(rèn)的是,隨著技術(shù)逐漸成熟,大模型的成本正不斷下探。為了盡快俘獲更多企業(yè)客戶,拓寬市場影響力,上游算力提供商確實(shí)需要盡力降價。

然而需要注意的是,盡管大模型成本正逐步下探,但目前大部分企業(yè)的大模型業(yè)務(wù)依然面臨算力、人力成本高企的挑戰(zhàn),沒能盈利。在此背景下,上游算力提供商不斷降價,甚至免費(fèi)送大模型,顯得十分反常。

這種非理性的價格戰(zhàn),其實(shí)凸顯出了上游企業(yè)亟待通過讓利,打通大模型商業(yè)閉環(huán)的內(nèi)在焦慮。

01 價格戰(zhàn)背后,大模型商業(yè)困局難解

2023年以來,隨著ChatGPT爆火,諸多科技公司都看到了AI大模型蘊(yùn)含著巨大的商業(yè)價值,因而加碼相關(guān)業(yè)務(wù)。2024年3月,國家數(shù)據(jù)局局長劉烈宏透露,中國10億參數(shù)規(guī)模以上大模型數(shù)量已超100個。

然而隨著越來越多企業(yè)入局相關(guān)產(chǎn)業(yè),大模型商業(yè)模式不健全,成本高、落地難、下游企業(yè)持觀望態(tài)度等問題愈發(fā)凸顯。

由于需要采購高性能計算機(jī),并且需要進(jìn)行模型訓(xùn)練,大模型的成本異常高昂。以O(shè)penAI為例,其訓(xùn)練GPT-4的FLOPS約為2.15e25,一次訓(xùn)練成本為6300萬美元。The Information報道,2022年,OpenAI虧損約為5.4億美元左右,約擴(kuò)大一倍。

目前,大部分企業(yè)都意識到了大模型的參數(shù)越多,商業(yè)想象力越大,因而持續(xù)加碼模型訓(xùn)練。不過問題也隨之而來,那就是大模型僅僅問世兩年時間,下游創(chuàng)收手段十分有限。

整體而言,大模型有兩種創(chuàng)收模式,一是直接向用戶收取訂閱費(fèi),二是向開發(fā)者收取API調(diào)用費(fèi)。比如,2023年初,OpenAI推出了會員訂閱服務(wù)ChatGPT Plus,費(fèi)用為20美元/月,可使用基于GPT-4的模型,并且提供更快的響應(yīng)時間、優(yōu)先訪問等權(quán)限。

不過,據(jù)Reddot聯(lián)合創(chuàng)始人Pierre Herubel測算,即使以每月?lián)碛?00萬訂戶估計,ChatGPT Plus每年或只能為OpenAI帶來2.4億美元左右收入,很難幫助公司扭虧為盈。

因此,目前以O(shè)penAI為代表企業(yè)的發(fā)力重點(diǎn),是向企業(yè)收取API調(diào)用費(fèi)。參照云計算的經(jīng)驗(yàn),外部的企業(yè)從零開始訓(xùn)練大語言模型非常困難,傾向于采購成熟的AI大模型技術(shù),一旦這些企業(yè)探索出具備想象力的商業(yè)模式,即可反哺上游算力提供商,進(jìn)而實(shí)現(xiàn)多方共贏。

對此,2023年11月,百度創(chuàng)始人兼CEO李彥宏曾表示,不斷地重復(fù)開發(fā)基礎(chǔ)大模型是對社會資源的極大浪費(fèi),“AI原生時代,我們需要100萬量級的AI原生應(yīng)用,但是不需要100個大模型?!?/p>

02 算力提供商作出表率,但B端企業(yè)仍持觀望態(tài)度

由于大部分大模型算力提供商都是平臺型企業(yè),推出大模型技術(shù)后,這些企業(yè)紛紛在內(nèi)部試水相關(guān)技術(shù)的商業(yè)化,以圖給下游客戶做出商業(yè)化表率。

比如,2023年阿里云峰會上,時任阿里巴巴集團(tuán)董事會主席兼CEO、阿里云智能集團(tuán)CEO張勇表示:“阿里巴巴所有產(chǎn)品未來將接入‘通義千問’大模型,進(jìn)行全面改造?!?/p>

以釘釘為例,接入大模型后,其支持AI生成推廣文案、繪圖方式創(chuàng)建應(yīng)用、視頻會議中生成摘要等功能。釘釘總裁葉軍認(rèn)為,大模型將會讓釘釘?shù)氖杖朐鲩L百分之幾十。

無獨(dú)有偶,過去一段時間,騰訊也積極探索AI技術(shù)的商業(yè)化應(yīng)用。2023年財報中,騰訊對外表示:“廣告AI模型的改進(jìn)顯著提升了精準(zhǔn)投放的效果…… 這些發(fā)展帶動了高質(zhì)量的收入來源,推動毛利增長 23%?!?/p>

自有業(yè)務(wù)挖掘出AI的商業(yè)價值后,上游算力提供商正致力于針對垂直行業(yè)的細(xì)分需求,提供定制大模型能力。

比如,2023年6月,騰訊云宣布開啟“騰訊云行業(yè)大模型生態(tài)計劃”,致力于推進(jìn)大模型在產(chǎn)業(yè)領(lǐng)域的創(chuàng)新和落地。據(jù)悉,騰訊云已為傳媒、文旅、政務(wù)等10余個行業(yè)提供了超50個大模型行業(yè)解決方案。

然而需要注意的是,平臺型企業(yè)大多擁有自研大模型技術(shù),無論是試錯還是使用成本都更低,往往只會對外宣傳商業(yè)路徑清晰的大模型落地案例。

反觀外部的企業(yè)需要采購上游的大模型技術(shù),探索成本相對更高,并且商業(yè)模式不清晰,很難擁有足夠的積極性。見實(shí)團(tuán)隊披露的《AI應(yīng)用需求與付費(fèi)意愿調(diào)研報告》顯示,46.2%的企業(yè)AI預(yù)算在1萬元以下,另有22.2%和24%的企業(yè)預(yù)算分別為1萬-5萬元以及5萬元-10萬元,這些中腰部企業(yè)沒有足夠的預(yù)算探索AI。

此前,大部分主力模型產(chǎn)品的API輸入價格不菲,比如,Qwen-Long為0.02元/千tokens,1萬元只可以購買5億個tokens。如果一個產(chǎn)品有500萬月活,1萬元的預(yù)算,一個月平均只能供每個用戶使用100個tokens,顯然不夠。

03 成本雖屢屢下探,但算力提供商已急不可耐

顯而易見,當(dāng)下限制大模型B端商業(yè)化落地的主要障礙,就是API成本過高,限制了B端企業(yè)探索相應(yīng)的商業(yè)閉環(huán)。因此,目前算力提供商的發(fā)力方向,就是致力于通過技術(shù)手段,壓低大模型的成本,降低B端企業(yè)的使用成本。

開頭提到,字節(jié)跳動旗下豆包主力模型企業(yè)市場定價為0.0008元/千Tokens,比行業(yè)便宜99.3%。對此,火山引擎總裁譚待表示:“豆包模型的超低定價,來源于我們有信心用技術(shù)手段優(yōu)化成本,而不是補(bǔ)貼或是打價格戰(zhàn)爭奪市場份額?!?/p>

無獨(dú)有偶,2024年5月6日,深度求索開源了第二代MoE模型DeepSeek-V2,性能更強(qiáng),訓(xùn)練成本更低。據(jù)悉,DeepSeek可節(jié)省42.5%訓(xùn)練成本,減少93.3%的KV緩存,最大吞吐量提高5.76倍。整體而言,DeepSeek-V2消耗的顯存(KV Cache)只有同級別Dense模型的1/5-1/100。

不過,這并不意味著當(dāng)下大模型行業(yè)的價格戰(zhàn)十分正常。2024年5月,談及大模型的發(fā)展趨勢時,零一萬物CEO李開復(fù)接受采訪時表示:“未來整個行業(yè)的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的。”未來,大模型的成本將呈階梯狀下探,但目前大模型的價格卻斷崖式下探,甚至部分企業(yè)免費(fèi)送,降價幅度遠(yuǎn)超上游成本降幅。

上游算力提供商之所以如此內(nèi)卷,很大程度上都是希望俘獲更多的B端企業(yè),一方面實(shí)現(xiàn)規(guī)模效應(yīng),另一方面,讓B端企業(yè)無負(fù)擔(dān)地探索良性的商業(yè)模式。對此,譚待表示:“大的使用量,才能打磨出好模型,也能大幅降低模型推理的單位成本……大模型從以分計價到以厘計價,將助力企業(yè)以更低成本加速業(yè)務(wù)創(chuàng)新?!?/p>

盡管激烈的價格戰(zhàn)之下,大模型已經(jīng)進(jìn)入“免費(fèi)時代”,但其實(shí)大部分上游算力提供商為了后續(xù)創(chuàng)收,都留有更為隱晦的收費(fèi)手段。

目前,大部分大模型僅推理用的token降價,而訓(xùn)練和部署成本依然不低。比如,阿里的qwen-turbo 模型百萬個token推理只要2元,若是訓(xùn)練,就需要30元,部署時,每月需要2萬元。

由此來看,大模型進(jìn)入“免費(fèi)時代”,很大程度上其實(shí)只是一個宣傳意義上的噱頭。如果下游企業(yè)想要用上成套大模型服務(wù),那么不能不付出更高的使用成本。

而之所以上游算力提供商僅僅降低推理用的token成本,主要是因?yàn)橥ㄟ^內(nèi)部應(yīng)用,其對于大模型的商業(yè)價值足夠自信,希望降價的噱頭起到引流的作用。

參照云計算價格戰(zhàn)的經(jīng)驗(yàn),此番大模型價格戰(zhàn)或許可以吸引更多下游企業(yè)認(rèn)真審視大模型,有望基于相關(guān)技術(shù)探索出更多良性的商業(yè)模式。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。