正在閱讀:

大模型廠商被“拖”入免費(fèi)時(shí)代

掃一掃下載界面新聞APP

大模型廠商被“拖”入免費(fèi)時(shí)代

無論是業(yè)務(wù)關(guān)聯(lián)性還是定價(jià)策略,國內(nèi)AI大模型市場“會不會像云計(jì)算一樣,價(jià)格戰(zhàn)也打了,最后卻一地雞毛”成為新的顧慮和討論點(diǎn)。

圖片來源:界面新聞| 匡達(dá)

文|正見TrueView

當(dāng)前除了傳統(tǒng)電商業(yè)務(wù)被卷回消費(fèi)者補(bǔ)貼的舊軌,“新貴風(fēng)口”大模型領(lǐng)域同樣掀起了價(jià)格戰(zhàn)。

5月15日,字節(jié)跳動正式對外發(fā)布豆包大模型,以大幅低于行業(yè)價(jià)格的商業(yè)定價(jià),打響了國內(nèi)AI大模型的首波價(jià)格戰(zhàn)。接連幾天內(nèi),幻方量化DeepSeek-V2、智譜AIGLM-3等相繼宣布大幅降價(jià)大模型API調(diào)用價(jià)格。

如此激烈的競爭之下,阿里云也于今日發(fā)布了通義千問GPT-4級主力模型Qwen-Long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。僅隔幾個(gè)小時(shí),百度更是宣布文心大模型的兩款主力模型ENIRE Speed、ENIRE Lite全面免費(fèi),即刻生效。短短一天內(nèi),大模型價(jià)格戰(zhàn)便從“厘時(shí)代”卷至了免費(fèi)時(shí)代。

從大廠至明星創(chuàng)業(yè)AI公司,低價(jià)已成為AI大模型市場的“第一吸引力法則”,客戶開發(fā)拓展、市場用戶教育借此鋪開,產(chǎn)業(yè)快速邁向下一發(fā)展階段。

“價(jià)格比同行低99.3%”的震懾力

在火山引擎原動力大會上,總裁譚待重點(diǎn)披露了豆包大模型的商業(yè)化價(jià)格。對比國內(nèi)外目前最新的32K主力模型,GPT4價(jià)格約為0.42元/千tokens,百度文心一言和降價(jià)前的阿里通義千問2.5價(jià)格均接近0.12元/千tokens,而豆包通用模型pro-32k版模型推理輸入價(jià)格僅為0.0008元/千tokens,比行業(yè)低99.3%。

極具優(yōu)勢與競爭力的定價(jià)策略一旦落地,對同業(yè)廠商的沖擊可想而知。通義千問作為對比參照之一,也是不得不拿出更大“誠意”,不僅喊出“擊穿地心式降價(jià)”,并同樣拿出主力模型參與競爭。

阿里云此次降價(jià)涵蓋通義千問九款閉源及開源模型,包括目前百煉平臺上調(diào)用量最大、性能對標(biāo)GPT-4的模型Qwen-plus,以及旗艦款大模型Qwen-max,性能在權(quán)威基準(zhǔn)OpenCompass上與GPT-4-turbo持平,其API輸入價(jià)格也大幅降低。

事實(shí)上,騰訊混元大模型的價(jià)格也在豆包大模型定價(jià)發(fā)布后明顯降低。5月14日也就是豆包大模型發(fā)布的前一日,騰訊云官網(wǎng)顯示混元大模型標(biāo)準(zhǔn)版(hunyuan-standard的前身)和高級版(hunyuan-pro的前身)的模型推理輸入價(jià)格分別為0.012元/千tokens和0.12元/千tokens。

5月17日,騰訊云生成式AI產(chǎn)業(yè)應(yīng)用峰會召開,騰訊云在宣布混元大模型多個(gè)版本模型實(shí)現(xiàn)升級,雖全程沒有公開介紹價(jià)格,但官網(wǎng)顯示窗口尺寸為32K的hunyuan-standard模型和hunyuan-pro模型,模型推理輸入價(jià)格分別為0.0069元/千tokens和0.069元/千tokens,兩者均為刊例價(jià)的6.9折。

相對于國內(nèi)僅有6%的AIGC用戶滲透率與普通用戶的token使用量,有行業(yè)人士認(rèn)為目前國內(nèi)AI廠商核心爭奪的是企業(yè)級市場,以及企業(yè)上云預(yù)算。

譚待曾舉例,企業(yè)要想用AI做一項(xiàng)創(chuàng)新,至少要消耗100億token。“今年大模型能力提升,應(yīng)用是很重要的環(huán)節(jié),我們判斷,在未來一年,大模型將在越來越多的企業(yè)場景從POC階段走到真實(shí)的生產(chǎn)系統(tǒng)。”

火山引擎是字節(jié)跳動旗下的云服務(wù)平臺,以豆包大模型為打開企業(yè)創(chuàng)新需求的切入口,實(shí)施降價(jià)策略,將“企業(yè)AI創(chuàng)新成本從80萬元將至8000元”作為重磅“彈藥”搶占客戶,從而推廣、帶動云服務(wù)增長,合乎商業(yè)曲線。

阿里云也在回應(yīng)本次通義千問降價(jià)的基本情況時(shí)表示,開源模型云上調(diào)用的成本遠(yuǎn)低于私有化部署。一般情況下,自建集群需要考慮的成本有集群硬件采購、軟件部署、網(wǎng)絡(luò)費(fèi)用、電費(fèi),及硬件折舊、人力成本等,如果出現(xiàn)計(jì)算資源閑置或超載等情況,還需要付出額外成本;而在云上調(diào)用大模型API真正實(shí)現(xiàn)了隨用隨取,按需使用。

以使用Qwen-72B開源模型、每月1億token用量為例,在阿里云百煉上直接調(diào)用API每月僅需600元,私有化部署的成本平均每月超一萬元。

“虧損換收入”or“技術(shù)進(jìn)步必然”

無論是業(yè)務(wù)關(guān)聯(lián)性還是定價(jià)策略,國內(nèi)AI大模型市場“會不會像云計(jì)算一樣,價(jià)格戰(zhàn)也打了,最后卻一地雞毛”成為新的顧慮和討論點(diǎn)。

根據(jù)火山引擎公布的價(jià)格計(jì)算,一元錢能買到豆包主力模型125萬tokens,大約是200萬個(gè)漢字,相當(dāng)于三本《三國演義》。今日阿里云便打出“1元可以買200萬tokens,相當(dāng)于5本《新華字典》文字量”的應(yīng)對牌,火藥味十足。

相似的一幕也曾在云計(jì)算市場上演。2023年4月,阿里云曾對核心產(chǎn)品價(jià)格全線下調(diào)15%-50%,騰訊云、京東云、移動云等隨后跟進(jìn),降價(jià)力度大且涉及廠商多。

2024年2月29日上午,阿里云再次宣布下調(diào)價(jià)格,對100余款核心產(chǎn)品平均降價(jià)20%,當(dāng)晚京東云便宣布從次日起針對特定云服務(wù)商開啟比價(jià)活動,并稱“隨便降,比到底!”。

當(dāng)時(shí)面對各界對于價(jià)格戰(zhàn)的猜測與疑問,阿里云資深副總裁劉偉光曾表示,“云計(jì)算每經(jīng)歷一段時(shí)間的技術(shù)積累,都會產(chǎn)生新的規(guī)模效應(yīng)和新的技術(shù)紅利”。

大模型降價(jià)引發(fā)的疑問與產(chǎn)生的應(yīng)對也十分相似。譚待表示,“豆包模型的超低定價(jià),來源于我們有信心用技術(shù)手段優(yōu)化成本,而不是補(bǔ)貼或是打價(jià)格戰(zhàn)爭奪市場份額?!彼J(rèn)為,“羊毛出在豬身上”在企業(yè)市場行不通,技術(shù)驅(qū)動的極致性價(jià)比才能真正創(chuàng)造價(jià)值。

據(jù)了解,火山引擎主要通過模型結(jié)構(gòu)的優(yōu)化、工程上從傳統(tǒng)的單機(jī)推理變?yōu)榉植际酵评?,以及把不同?fù)載的推理進(jìn)行混合調(diào)度等方式,帶來超預(yù)期的降本效果。

阿里云同樣將此次大幅度降價(jià)歸結(jié)于公共云技術(shù)紅利和規(guī)模效應(yīng)帶來的巨大成本和性能優(yōu)勢。阿里云從模型和AI基礎(chǔ)設(shè)施兩個(gè)層面不斷優(yōu)化,追求極致的推理成本和性能。

例如,阿里云基于自研的異構(gòu)芯片互聯(lián)、高性能網(wǎng)絡(luò)HPN7.0、高性能存儲CPFS、人工智能平臺PAI等核心技術(shù)和產(chǎn)品,構(gòu)建了極致彈性的AI算力調(diào)度系統(tǒng),結(jié)合百煉分布式推理加速引擎,大幅壓縮了模型推理成本,并加快模型推理速度。

對于AI市場而言,低價(jià)策略顯然有助于降低企業(yè)使用AI服務(wù)的門檻,加快推動AI技術(shù)的普及和應(yīng)用,但也必然導(dǎo)致市場格局的重塑,促使其他廠商也采取降價(jià)策略,以維持市場競爭力。

隨著價(jià)格戰(zhàn)的持續(xù),國內(nèi)AI大模型產(chǎn)業(yè)格局和市場秩序?qū)⒚媾R更多變數(shù),對于模型層的服務(wù)廠商們也提出了更嚴(yán)苛的競爭力構(gòu)建要求,尤其是創(chuàng)業(yè)型企業(yè),新開啟的大模型“圈地戰(zhàn)爭”,恐怕無法留給其充足的發(fā)展窗口期。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

字節(jié)跳動

4.4k
  • 消息稱字節(jié)跳動2024年?duì)I收增幅和利潤率雙雙下降
  • 字節(jié)跳動據(jù)悉考慮在泰國新建數(shù)據(jù)中心

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號

微博

大模型廠商被“拖”入免費(fèi)時(shí)代

無論是業(yè)務(wù)關(guān)聯(lián)性還是定價(jià)策略,國內(nèi)AI大模型市場“會不會像云計(jì)算一樣,價(jià)格戰(zhàn)也打了,最后卻一地雞毛”成為新的顧慮和討論點(diǎn)。

圖片來源:界面新聞| 匡達(dá)

文|正見TrueView

當(dāng)前除了傳統(tǒng)電商業(yè)務(wù)被卷回消費(fèi)者補(bǔ)貼的舊軌,“新貴風(fēng)口”大模型領(lǐng)域同樣掀起了價(jià)格戰(zhàn)。

5月15日,字節(jié)跳動正式對外發(fā)布豆包大模型,以大幅低于行業(yè)價(jià)格的商業(yè)定價(jià),打響了國內(nèi)AI大模型的首波價(jià)格戰(zhàn)。接連幾天內(nèi),幻方量化DeepSeek-V2、智譜AIGLM-3等相繼宣布大幅降價(jià)大模型API調(diào)用價(jià)格。

如此激烈的競爭之下,阿里云也于今日發(fā)布了通義千問GPT-4級主力模型Qwen-Long,API輸入價(jià)格從0.02元/千tokens降至0.0005元/千tokens,直降97%。僅隔幾個(gè)小時(shí),百度更是宣布文心大模型的兩款主力模型ENIRE Speed、ENIRE Lite全面免費(fèi),即刻生效。短短一天內(nèi),大模型價(jià)格戰(zhàn)便從“厘時(shí)代”卷至了免費(fèi)時(shí)代。

從大廠至明星創(chuàng)業(yè)AI公司,低價(jià)已成為AI大模型市場的“第一吸引力法則”,客戶開發(fā)拓展、市場用戶教育借此鋪開,產(chǎn)業(yè)快速邁向下一發(fā)展階段。

“價(jià)格比同行低99.3%”的震懾力

在火山引擎原動力大會上,總裁譚待重點(diǎn)披露了豆包大模型的商業(yè)化價(jià)格。對比國內(nèi)外目前最新的32K主力模型,GPT4價(jià)格約為0.42元/千tokens,百度文心一言和降價(jià)前的阿里通義千問2.5價(jià)格均接近0.12元/千tokens,而豆包通用模型pro-32k版模型推理輸入價(jià)格僅為0.0008元/千tokens,比行業(yè)低99.3%。

極具優(yōu)勢與競爭力的定價(jià)策略一旦落地,對同業(yè)廠商的沖擊可想而知。通義千問作為對比參照之一,也是不得不拿出更大“誠意”,不僅喊出“擊穿地心式降價(jià)”,并同樣拿出主力模型參與競爭。

阿里云此次降價(jià)涵蓋通義千問九款閉源及開源模型,包括目前百煉平臺上調(diào)用量最大、性能對標(biāo)GPT-4的模型Qwen-plus,以及旗艦款大模型Qwen-max,性能在權(quán)威基準(zhǔn)OpenCompass上與GPT-4-turbo持平,其API輸入價(jià)格也大幅降低。

事實(shí)上,騰訊混元大模型的價(jià)格也在豆包大模型定價(jià)發(fā)布后明顯降低。5月14日也就是豆包大模型發(fā)布的前一日,騰訊云官網(wǎng)顯示混元大模型標(biāo)準(zhǔn)版(hunyuan-standard的前身)和高級版(hunyuan-pro的前身)的模型推理輸入價(jià)格分別為0.012元/千tokens和0.12元/千tokens。

5月17日,騰訊云生成式AI產(chǎn)業(yè)應(yīng)用峰會召開,騰訊云在宣布混元大模型多個(gè)版本模型實(shí)現(xiàn)升級,雖全程沒有公開介紹價(jià)格,但官網(wǎng)顯示窗口尺寸為32K的hunyuan-standard模型和hunyuan-pro模型,模型推理輸入價(jià)格分別為0.0069元/千tokens和0.069元/千tokens,兩者均為刊例價(jià)的6.9折。

相對于國內(nèi)僅有6%的AIGC用戶滲透率與普通用戶的token使用量,有行業(yè)人士認(rèn)為目前國內(nèi)AI廠商核心爭奪的是企業(yè)級市場,以及企業(yè)上云預(yù)算。

譚待曾舉例,企業(yè)要想用AI做一項(xiàng)創(chuàng)新,至少要消耗100億token。“今年大模型能力提升,應(yīng)用是很重要的環(huán)節(jié),我們判斷,在未來一年,大模型將在越來越多的企業(yè)場景從POC階段走到真實(shí)的生產(chǎn)系統(tǒng)?!?/p>

火山引擎是字節(jié)跳動旗下的云服務(wù)平臺,以豆包大模型為打開企業(yè)創(chuàng)新需求的切入口,實(shí)施降價(jià)策略,將“企業(yè)AI創(chuàng)新成本從80萬元將至8000元”作為重磅“彈藥”搶占客戶,從而推廣、帶動云服務(wù)增長,合乎商業(yè)曲線。

阿里云也在回應(yīng)本次通義千問降價(jià)的基本情況時(shí)表示,開源模型云上調(diào)用的成本遠(yuǎn)低于私有化部署。一般情況下,自建集群需要考慮的成本有集群硬件采購、軟件部署、網(wǎng)絡(luò)費(fèi)用、電費(fèi),及硬件折舊、人力成本等,如果出現(xiàn)計(jì)算資源閑置或超載等情況,還需要付出額外成本;而在云上調(diào)用大模型API真正實(shí)現(xiàn)了隨用隨取,按需使用。

以使用Qwen-72B開源模型、每月1億token用量為例,在阿里云百煉上直接調(diào)用API每月僅需600元,私有化部署的成本平均每月超一萬元。

“虧損換收入”or“技術(shù)進(jìn)步必然”

無論是業(yè)務(wù)關(guān)聯(lián)性還是定價(jià)策略,國內(nèi)AI大模型市場“會不會像云計(jì)算一樣,價(jià)格戰(zhàn)也打了,最后卻一地雞毛”成為新的顧慮和討論點(diǎn)。

根據(jù)火山引擎公布的價(jià)格計(jì)算,一元錢能買到豆包主力模型125萬tokens,大約是200萬個(gè)漢字,相當(dāng)于三本《三國演義》。今日阿里云便打出“1元可以買200萬tokens,相當(dāng)于5本《新華字典》文字量”的應(yīng)對牌,火藥味十足。

相似的一幕也曾在云計(jì)算市場上演。2023年4月,阿里云曾對核心產(chǎn)品價(jià)格全線下調(diào)15%-50%,騰訊云、京東云、移動云等隨后跟進(jìn),降價(jià)力度大且涉及廠商多。

2024年2月29日上午,阿里云再次宣布下調(diào)價(jià)格,對100余款核心產(chǎn)品平均降價(jià)20%,當(dāng)晚京東云便宣布從次日起針對特定云服務(wù)商開啟比價(jià)活動,并稱“隨便降,比到底!”。

當(dāng)時(shí)面對各界對于價(jià)格戰(zhàn)的猜測與疑問,阿里云資深副總裁劉偉光曾表示,“云計(jì)算每經(jīng)歷一段時(shí)間的技術(shù)積累,都會產(chǎn)生新的規(guī)模效應(yīng)和新的技術(shù)紅利”。

大模型降價(jià)引發(fā)的疑問與產(chǎn)生的應(yīng)對也十分相似。譚待表示,“豆包模型的超低定價(jià),來源于我們有信心用技術(shù)手段優(yōu)化成本,而不是補(bǔ)貼或是打價(jià)格戰(zhàn)爭奪市場份額?!彼J(rèn)為,“羊毛出在豬身上”在企業(yè)市場行不通,技術(shù)驅(qū)動的極致性價(jià)比才能真正創(chuàng)造價(jià)值。

據(jù)了解,火山引擎主要通過模型結(jié)構(gòu)的優(yōu)化、工程上從傳統(tǒng)的單機(jī)推理變?yōu)榉植际酵评?,以及把不同?fù)載的推理進(jìn)行混合調(diào)度等方式,帶來超預(yù)期的降本效果。

阿里云同樣將此次大幅度降價(jià)歸結(jié)于公共云技術(shù)紅利和規(guī)模效應(yīng)帶來的巨大成本和性能優(yōu)勢。阿里云從模型和AI基礎(chǔ)設(shè)施兩個(gè)層面不斷優(yōu)化,追求極致的推理成本和性能。

例如,阿里云基于自研的異構(gòu)芯片互聯(lián)、高性能網(wǎng)絡(luò)HPN7.0、高性能存儲CPFS、人工智能平臺PAI等核心技術(shù)和產(chǎn)品,構(gòu)建了極致彈性的AI算力調(diào)度系統(tǒng),結(jié)合百煉分布式推理加速引擎,大幅壓縮了模型推理成本,并加快模型推理速度。

對于AI市場而言,低價(jià)策略顯然有助于降低企業(yè)使用AI服務(wù)的門檻,加快推動AI技術(shù)的普及和應(yīng)用,但也必然導(dǎo)致市場格局的重塑,促使其他廠商也采取降價(jià)策略,以維持市場競爭力。

隨著價(jià)格戰(zhàn)的持續(xù),國內(nèi)AI大模型產(chǎn)業(yè)格局和市場秩序?qū)⒚媾R更多變數(shù),對于模型層的服務(wù)廠商們也提出了更嚴(yán)苛的競爭力構(gòu)建要求,尤其是創(chuàng)業(yè)型企業(yè),新開啟的大模型“圈地戰(zhàn)爭”,恐怕無法留給其充足的發(fā)展窗口期。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。