正在閱讀:

李彥宏斷言有點早,開源大模型并不差

掃一掃下載界面新聞APP

李彥宏斷言有點早,開源大模型并不差

可閉源果真就能戰(zhàn)勝開源嗎?

文|科技說

自2022年11月ChatGPT問世,這一現象級產品迅速點燃了市場的大模型熱情。新老科技企業(yè)紛紛殺入,誓要抓住移動互聯(lián)網以來最大的一次產業(yè)紅利。當行業(yè)如火如荼發(fā)展一門心思搞技術之時,又出現了“路線之爭”:

閉源路線:以國外OpenAI的ChatGPT,Anthropic的Claude,谷歌的Gemini,國內百度的文心一言,月之暗面的Kimi等企業(yè)為典型代表,傾向于閉源大模型的高性能,強商業(yè)化等優(yōu)勢,其中以百度最為激進,李彥宏近期便一直以“閉源擁躉”頻頻出圈,發(fā)表諸如“開源大模型是智商稅“,”大模型場景下開源是最貴的”等出位言論,引發(fā)行業(yè)熱議;

開源路線:以META的Llama,國內阿里云的通義為典型代表,認為開源模式的協(xié)作特性可實現技術的快速迭代,可以通過模型托管提高云計算的業(yè)務成長空間,且該路線有利于數據敏感型組織通過私有云或本地化內網落地大模型,較之閉源具有高成長性,多落地場景等優(yōu)點。

與行業(yè)往日爭議不同,此次大模型爭論充滿技術情懷,從業(yè)者爭論多聚焦在 “技術之爭”,李彥宏就表示“開源模型會越來越落后”,其讓頻頻登上熱搜。

那么在這場開閉源的爭論中我們要建立怎樣的分析框架?又來如何理性評判當前的路線之爭呢?

其一,根據Scaling laws原理,大模型的成功乃是更大算力,更多數據,更高算力的綜合結果,這背后則是資金的海量投入,基礎設施完善,管理的穩(wěn)定等等,大模型沒有閃電戰(zhàn)只有持久戰(zhàn);

其二,百度選擇閉源有技術的考量,但與商業(yè)路徑也密不可分;

其三,開源大模型并沒有想象那般弱雞,閉源也不一定能永遠保持先進性;

其四,開閉源大模型共存將會是長期趨勢;

Scaling laws原理:大模型將長期燒錢

我們首先從大語言模型中的第一性原理“Scaling laws”入手分析(被翻譯為“縮放原理”或“尺度定律”)。

2020 年 1 月,OpenAI 發(fā)布論文《Scaling Laws for Neural Language Models》,奠定了 Scaling Law的基礎,為后續(xù) GPT 的迭代指明了方向:更大參數、更多數據和更多算力能夠得到更好的模型智能。

也就從此時開始,OpenAI開啟了大參數模型路線,GPT-3的參數已經達到1750億(GPT-2還只有15億),訓練數據則直接躍升到570億G。

大模型的大參數軍備競賽也由此拉開大幕,動輒數千億級的大模型流行于市場,帶來技術的快速發(fā)展和普及。

由此也就引發(fā)了一個新的問題:算力。

根據 Scaling Law 論文,可以用 6ND 來估算模型所需要的訓練算力(N為參數,D為數據集TOKEN數),算力需求在大模型時代得到指數級提升(長文本大模型所需算力可能還要高于6ND)。

這一方面催生了底層算力提供者英偉達為代表的GPU廠商的爆炸式增長,另一方面大模型廠商若要保持技術先進性就必須花大價錢在算力基礎設施方面。

在華泰證券的圖表中我們也能清晰看到大模型與此前的云計算爆發(fā)式增長一樣,業(yè)務的增長是要基礎算力的高投入為前提的。根據Visible Alpha一致預測,2026年全球科技四巨頭(微軟,谷歌,META和亞馬遜)合計資本支出將達2399億美元,2023-2026年CAGR為18.86%。

有觀點曾寄希望于Scaling Law的邊際效應收窄效應,認為只要熬到技術成熟期(Scaling Law效應邊際效應迅速放大之時),算力的投入便會達峰,此時模型只需要維護自身模型的可靠性與穩(wěn)固性即可,只是站在當下時代,Scaling Law遠未到終點。

清華大學的唐杰教授在2024年 2 月就指出:我們還遠未到 Scaling law 的盡頭, 數據量、計算量、參數量還遠遠不夠。未來的 Scaling law 還有很長遠的路要走。

現實中主流大模型廠商的算力仍然在持續(xù)增大,模型的參數規(guī)模也在增大,行業(yè)終局是看不到頭的。

研發(fā)人員固然可以通過技術架構優(yōu)化和軟硬件資源協(xié)同等方面來提高大模型的性能,只是我們也必須得承認,指數級的大模型技術迭代仍然仰賴于高參數和強算力。

在上述兩項約束條件下,大模型廠商不得不面臨非常棘手的問題:

如果把算力的資本性支出視為“蛋”,大模型的高性能為“雞”,究竟雞生蛋還是蛋生雞就成了大模型廠商不得不面臨的問題。

我們以閉源大模型的忠實擁躉百度為例,在基石的廣告業(yè)務壓力不斷加碼之時,其經營理念已經越加審慎,如對非核心業(yè)務的裁撤,人員的優(yōu)化等等。這在資本開支中則反饋表現為支出的越加保守,過去三年表現非常明顯。

2023年META和亞馬遜等科技頭部企業(yè)也均在進行資本支出的結構性優(yōu)化,如亞馬遜的物流倉儲成本開始降低,與此同時云計算的數據中心等基礎設施仍處于大規(guī)模擴張中。百度亦是如此,表面看其資本開支越發(fā)慎重,但大模型相關的基礎設施投入必然是高速增長的。

這對百度也就會帶來一個問題,結構化的資本開支縮減終有結束之時,Scaling Law還遠未能看到終端,加之“第二曲線”短期內無法扛起支出重任,從財務方面就迫使百度不得不在商業(yè)路徑上進行考慮。

以賣模型(API接口)的閉源大模型成為首選,對C端用戶文心一言收取會員,對B端以API的接口費為主要變現,又由于閉源大模型乃是企業(yè)獨家開發(fā),維護和管理成本也相對低廉,對百度是十分劃算的。在雞生蛋和蛋生雞的問題上,百度選擇了雞生蛋。

可閉源果真就能戰(zhàn)勝開源嗎?

開源大模型不“弱雞”

前文中我們已經從大模型的原理,技術以及商業(yè)路徑角度,簡單勾勒了行業(yè)當前的現狀,并對百度對閉源大模型抱以極度的熱忱有了一定的理解。

接下來我們來討論開閉源大模型的趨勢性問題 。

如開篇所言,李彥宏對開源大模型常有鄙夷之情,如開篇“開源模型會越來越落后”,又如“沒有應用,開源閉源模型都一文不值”,閉源大模型果真如此不堪嗎?

ARK Investment每年都會將其觀點和洞察力發(fā)表在年初的“Big Ideas”報告中,在2024年的報告中,”開源模型性能進步快于閉源模型“乃是其重要觀點之一。在上圖中阿里云的Qwen-72B乃為閉源大模型之最。

一方面閉源大模型確實有先發(fā)優(yōu)勢,以OpenAI的ChatGPT為典型代表,但另一方面大模型的演進又是一個持久戰(zhàn)(Scaling law為主要因素),對企業(yè)的管理,投入以及持續(xù)的創(chuàng)新力就有了更高的要求,如此前OpenAI一系列的“人事斗爭”很難說不會影響核心業(yè)務。

與之所對應的開源大模型也在此時開始展示先進性。

2024 年 4 月,Meta 發(fā)布 Llama 3,設計目標是多模態(tài)、多語言,根據 Meta 公布的目前訓練數據,其性能與 GPT-4 相當。

Llama大模型的成功給了開源陣營足夠的信心,在權威機構推出全新的大模型測評基準LiveBench AI中,阿里通義Qwen2拿下美國最新測評榜單開源大模型全球第一,成績超過Meta的Llama3-70B模型。

在基礎算力的投入保障之下,拉長時間線,開源大模型是可以保持足夠競爭力的,僅就此來看李彥宏鄙夷開源大模型性能不進步是站不住腳的。

這再次告訴我們:閉源和開源絕非技術理念之爭,而是商業(yè)路徑的分歧。

那么究竟哪何種商業(yè)路徑最適合大模型的落地呢?

篇幅原因我們省去繁瑣的分析過程,精簡觀點如下:

中短期:閉源大模型在變現方面優(yōu)勢更明顯,以賣模型為主要商業(yè)模式,簡單易操作。百度又可以通過改造原互聯(lián)網應用產品(如地圖,文庫,搜索等),實現模型的落地改進產品力,將業(yè)務線由“AI+”向“+AI”過渡。此外需要提醒的是,企業(yè)內部原產品線的改造也是伴隨巨大的成本開支需求的,如華泰證券曾測算,META若內容推薦完全以大模型為主,取代原有算法,將需要至少50萬片英偉達GPU,僅此一項就是一筆巨大開支(最近有消息稱META今年GPU規(guī)模將超過30萬塊),這就對短期內閉源大模型的落地和變現提出了更高的要求。

長期:開源大模型走的更遠,如高度定制化的特點將提高大模型對不同行業(yè)的滲透率,當不同行業(yè)的接入大模型,提高大模型的應有廣度之后,企業(yè)開發(fā)展則要仰賴于開源大模型背后的算力和云計算平臺,以實現可持續(xù)增長。

在上述兩種路徑中,“資本”是商業(yè)模式運轉的必要條件,這又回到了我們前文所言的“雞生蛋”的悖論。

這也就使得采取閉源大模型的往往具有以下特點:應用端具有得天獨厚優(yōu)勢(如谷歌),又如技術上短期內遙遙領先(如OpenAI);

開源大模型則具有:資金底子雄厚(如META),云計算基礎設施健全(如阿里云),能夠熬得住,扛得起基礎設施膨脹帶來的巨大成本,又能接得住開源大模型普及后的云計算需求。

顯然沒有一種大模型是兼有所有優(yōu)點而無缺點的,百度此時以激烈語言來鼓吹閉源大模型,其背后應是其短期商業(yè)化的焦慮(此前API接口價格戰(zhàn)對閉源大模型影響更大),以及對爭奪目標客戶心智的野心。

基于此我們并不認為會有包打一切的大模型路徑,相反企業(yè)選擇適合自己的路徑更多是“權宜之計”,客戶選擇開閉源模式也將會有自己的考量,一些企業(yè)也采取開閉源共存的模式來滿足不同客戶需求,如谷歌將輕量級的開源模型系列Gemma進行開源。

不過此時發(fā)表出格語言最能出圈,能夠提高閉源大模型優(yōu)點的普及型,只是忽視了開源大模型絕非“弱雞”,大模型的發(fā)展會是持久戰(zhàn),未來有太多的不可測性,輕易下斷言在其后很可能被反噬。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

李彥宏斷言有點早,開源大模型并不差

可閉源果真就能戰(zhàn)勝開源嗎?

文|科技說

自2022年11月ChatGPT問世,這一現象級產品迅速點燃了市場的大模型熱情。新老科技企業(yè)紛紛殺入,誓要抓住移動互聯(lián)網以來最大的一次產業(yè)紅利。當行業(yè)如火如荼發(fā)展一門心思搞技術之時,又出現了“路線之爭”:

閉源路線:以國外OpenAI的ChatGPT,Anthropic的Claude,谷歌的Gemini,國內百度的文心一言,月之暗面的Kimi等企業(yè)為典型代表,傾向于閉源大模型的高性能,強商業(yè)化等優(yōu)勢,其中以百度最為激進,李彥宏近期便一直以“閉源擁躉”頻頻出圈,發(fā)表諸如“開源大模型是智商稅“,”大模型場景下開源是最貴的”等出位言論,引發(fā)行業(yè)熱議;

開源路線:以META的Llama,國內阿里云的通義為典型代表,認為開源模式的協(xié)作特性可實現技術的快速迭代,可以通過模型托管提高云計算的業(yè)務成長空間,且該路線有利于數據敏感型組織通過私有云或本地化內網落地大模型,較之閉源具有高成長性,多落地場景等優(yōu)點。

與行業(yè)往日爭議不同,此次大模型爭論充滿技術情懷,從業(yè)者爭論多聚焦在 “技術之爭”,李彥宏就表示“開源模型會越來越落后”,其讓頻頻登上熱搜。

那么在這場開閉源的爭論中我們要建立怎樣的分析框架?又來如何理性評判當前的路線之爭呢?

其一,根據Scaling laws原理,大模型的成功乃是更大算力,更多數據,更高算力的綜合結果,這背后則是資金的海量投入,基礎設施完善,管理的穩(wěn)定等等,大模型沒有閃電戰(zhàn)只有持久戰(zhàn);

其二,百度選擇閉源有技術的考量,但與商業(yè)路徑也密不可分;

其三,開源大模型并沒有想象那般弱雞,閉源也不一定能永遠保持先進性;

其四,開閉源大模型共存將會是長期趨勢;

Scaling laws原理:大模型將長期燒錢

我們首先從大語言模型中的第一性原理“Scaling laws”入手分析(被翻譯為“縮放原理”或“尺度定律”)。

2020 年 1 月,OpenAI 發(fā)布論文《Scaling Laws for Neural Language Models》,奠定了 Scaling Law的基礎,為后續(xù) GPT 的迭代指明了方向:更大參數、更多數據和更多算力能夠得到更好的模型智能。

也就從此時開始,OpenAI開啟了大參數模型路線,GPT-3的參數已經達到1750億(GPT-2還只有15億),訓練數據則直接躍升到570億G。

大模型的大參數軍備競賽也由此拉開大幕,動輒數千億級的大模型流行于市場,帶來技術的快速發(fā)展和普及。

由此也就引發(fā)了一個新的問題:算力。

根據 Scaling Law 論文,可以用 6ND 來估算模型所需要的訓練算力(N為參數,D為數據集TOKEN數),算力需求在大模型時代得到指數級提升(長文本大模型所需算力可能還要高于6ND)。

這一方面催生了底層算力提供者英偉達為代表的GPU廠商的爆炸式增長,另一方面大模型廠商若要保持技術先進性就必須花大價錢在算力基礎設施方面。

在華泰證券的圖表中我們也能清晰看到大模型與此前的云計算爆發(fā)式增長一樣,業(yè)務的增長是要基礎算力的高投入為前提的。根據Visible Alpha一致預測,2026年全球科技四巨頭(微軟,谷歌,META和亞馬遜)合計資本支出將達2399億美元,2023-2026年CAGR為18.86%。

有觀點曾寄希望于Scaling Law的邊際效應收窄效應,認為只要熬到技術成熟期(Scaling Law效應邊際效應迅速放大之時),算力的投入便會達峰,此時模型只需要維護自身模型的可靠性與穩(wěn)固性即可,只是站在當下時代,Scaling Law遠未到終點。

清華大學的唐杰教授在2024年 2 月就指出:我們還遠未到 Scaling law 的盡頭, 數據量、計算量、參數量還遠遠不夠。未來的 Scaling law 還有很長遠的路要走。

現實中主流大模型廠商的算力仍然在持續(xù)增大,模型的參數規(guī)模也在增大,行業(yè)終局是看不到頭的。

研發(fā)人員固然可以通過技術架構優(yōu)化和軟硬件資源協(xié)同等方面來提高大模型的性能,只是我們也必須得承認,指數級的大模型技術迭代仍然仰賴于高參數和強算力。

在上述兩項約束條件下,大模型廠商不得不面臨非常棘手的問題:

如果把算力的資本性支出視為“蛋”,大模型的高性能為“雞”,究竟雞生蛋還是蛋生雞就成了大模型廠商不得不面臨的問題。

我們以閉源大模型的忠實擁躉百度為例,在基石的廣告業(yè)務壓力不斷加碼之時,其經營理念已經越加審慎,如對非核心業(yè)務的裁撤,人員的優(yōu)化等等。這在資本開支中則反饋表現為支出的越加保守,過去三年表現非常明顯。

2023年META和亞馬遜等科技頭部企業(yè)也均在進行資本支出的結構性優(yōu)化,如亞馬遜的物流倉儲成本開始降低,與此同時云計算的數據中心等基礎設施仍處于大規(guī)模擴張中。百度亦是如此,表面看其資本開支越發(fā)慎重,但大模型相關的基礎設施投入必然是高速增長的。

這對百度也就會帶來一個問題,結構化的資本開支縮減終有結束之時,Scaling Law還遠未能看到終端,加之“第二曲線”短期內無法扛起支出重任,從財務方面就迫使百度不得不在商業(yè)路徑上進行考慮。

以賣模型(API接口)的閉源大模型成為首選,對C端用戶文心一言收取會員,對B端以API的接口費為主要變現,又由于閉源大模型乃是企業(yè)獨家開發(fā),維護和管理成本也相對低廉,對百度是十分劃算的。在雞生蛋和蛋生雞的問題上,百度選擇了雞生蛋。

可閉源果真就能戰(zhàn)勝開源嗎?

開源大模型不“弱雞”

前文中我們已經從大模型的原理,技術以及商業(yè)路徑角度,簡單勾勒了行業(yè)當前的現狀,并對百度對閉源大模型抱以極度的熱忱有了一定的理解。

接下來我們來討論開閉源大模型的趨勢性問題 。

如開篇所言,李彥宏對開源大模型常有鄙夷之情,如開篇“開源模型會越來越落后”,又如“沒有應用,開源閉源模型都一文不值”,閉源大模型果真如此不堪嗎?

ARK Investment每年都會將其觀點和洞察力發(fā)表在年初的“Big Ideas”報告中,在2024年的報告中,”開源模型性能進步快于閉源模型“乃是其重要觀點之一。在上圖中阿里云的Qwen-72B乃為閉源大模型之最。

一方面閉源大模型確實有先發(fā)優(yōu)勢,以OpenAI的ChatGPT為典型代表,但另一方面大模型的演進又是一個持久戰(zhàn)(Scaling law為主要因素),對企業(yè)的管理,投入以及持續(xù)的創(chuàng)新力就有了更高的要求,如此前OpenAI一系列的“人事斗爭”很難說不會影響核心業(yè)務。

與之所對應的開源大模型也在此時開始展示先進性。

2024 年 4 月,Meta 發(fā)布 Llama 3,設計目標是多模態(tài)、多語言,根據 Meta 公布的目前訓練數據,其性能與 GPT-4 相當。

Llama大模型的成功給了開源陣營足夠的信心,在權威機構推出全新的大模型測評基準LiveBench AI中,阿里通義Qwen2拿下美國最新測評榜單開源大模型全球第一,成績超過Meta的Llama3-70B模型。

在基礎算力的投入保障之下,拉長時間線,開源大模型是可以保持足夠競爭力的,僅就此來看李彥宏鄙夷開源大模型性能不進步是站不住腳的。

這再次告訴我們:閉源和開源絕非技術理念之爭,而是商業(yè)路徑的分歧。

那么究竟哪何種商業(yè)路徑最適合大模型的落地呢?

篇幅原因我們省去繁瑣的分析過程,精簡觀點如下:

中短期:閉源大模型在變現方面優(yōu)勢更明顯,以賣模型為主要商業(yè)模式,簡單易操作。百度又可以通過改造原互聯(lián)網應用產品(如地圖,文庫,搜索等),實現模型的落地改進產品力,將業(yè)務線由“AI+”向“+AI”過渡。此外需要提醒的是,企業(yè)內部原產品線的改造也是伴隨巨大的成本開支需求的,如華泰證券曾測算,META若內容推薦完全以大模型為主,取代原有算法,將需要至少50萬片英偉達GPU,僅此一項就是一筆巨大開支(最近有消息稱META今年GPU規(guī)模將超過30萬塊),這就對短期內閉源大模型的落地和變現提出了更高的要求。

長期:開源大模型走的更遠,如高度定制化的特點將提高大模型對不同行業(yè)的滲透率,當不同行業(yè)的接入大模型,提高大模型的應有廣度之后,企業(yè)開發(fā)展則要仰賴于開源大模型背后的算力和云計算平臺,以實現可持續(xù)增長。

在上述兩種路徑中,“資本”是商業(yè)模式運轉的必要條件,這又回到了我們前文所言的“雞生蛋”的悖論。

這也就使得采取閉源大模型的往往具有以下特點:應用端具有得天獨厚優(yōu)勢(如谷歌),又如技術上短期內遙遙領先(如OpenAI);

開源大模型則具有:資金底子雄厚(如META),云計算基礎設施健全(如阿里云),能夠熬得住,扛得起基礎設施膨脹帶來的巨大成本,又能接得住開源大模型普及后的云計算需求。

顯然沒有一種大模型是兼有所有優(yōu)點而無缺點的,百度此時以激烈語言來鼓吹閉源大模型,其背后應是其短期商業(yè)化的焦慮(此前API接口價格戰(zhàn)對閉源大模型影響更大),以及對爭奪目標客戶心智的野心。

基于此我們并不認為會有包打一切的大模型路徑,相反企業(yè)選擇適合自己的路徑更多是“權宜之計”,客戶選擇開閉源模式也將會有自己的考量,一些企業(yè)也采取開閉源共存的模式來滿足不同客戶需求,如谷歌將輕量級的開源模型系列Gemma進行開源。

不過此時發(fā)表出格語言最能出圈,能夠提高閉源大模型優(yōu)點的普及型,只是忽視了開源大模型絕非“弱雞”,大模型的發(fā)展會是持久戰(zhàn),未來有太多的不可測性,輕易下斷言在其后很可能被反噬。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。