文|光錐智能 周文斌
編輯|王一粟
“不敢下手,現(xiàn)在中國還沒跑出來一家絕對有優(yōu)勢的大模型,上層應(yīng)用沒法投,擔(dān)心押錯寶。”投資人Jucy(化名)向光錐智能表示,AI項(xiàng)目看得多、投的少是這段時間的VC常態(tài)。
ChatGPT點(diǎn)燃AI大爆炸2個月中,中國一直在等待自己的GPT-3.5。
AI真的冒犯到了打工人。游戲團(tuán)隊(duì)替代掉30%的原畫師、電商團(tuán)隊(duì)用AIGC生成低成本數(shù)字人模特、基礎(chǔ)程序員也感受到了被降維打擊的焦慮......眼看著GPT在國外要將所有領(lǐng)域都重新做一遍的趨勢,科技顛覆裹挾著金錢的味道滾滾而來。
于是,除了焦慮的打工人,企業(yè)急著用大模型降本增效,創(chuàng)業(yè)者急著接入大模型推出新產(chǎn)品,股市急著用ChatGPT概念割韭菜,培訓(xùn)機(jī)構(gòu)更是先賺一波為敬。
襯托之下,反而顯得喜歡追逐風(fēng)口的中國科技巨頭們比以往更沉得住氣。
果然,周期使人成長,公司也是。
終于,眾望所歸、望眼欲穿、姍姍來遲,4月第二周,中國也迎來了新一代大模型的密集發(fā)布。
繼通義千問開放測試4天后,張勇在接手阿里云后首次亮相,宣布所有阿里產(chǎn)品未來將接入“通義千問”大模型,進(jìn)行全面改造;
商湯科技在10日的技術(shù)交流會上,演示了“日日新”大模型的能力:對話、AI繪畫、編程、數(shù)字人,第二天開盤大漲9%;
華為盤古大模型在8日低調(diào)亮相,但并于10日發(fā)布新產(chǎn)品;
明星創(chuàng)業(yè)者王小川公開亮相,攜手搜狗老搭檔茹立云正式開啟AI創(chuàng)業(yè)的新征程,將在下半年推出百川智能的大模型;
毫末發(fā)布首個自動駕駛大模型DriveGPT雪湖·海若,把人類反饋強(qiáng)化學(xué)習(xí)引入到駕駛領(lǐng)域。
就連游戲公司昆侖萬維也趕來湊熱鬧,宣稱“中國第一個真正實(shí)現(xiàn)智能涌現(xiàn)”的國產(chǎn)大語言模型將于17日啟動邀請測試,但隨后被媒體質(zhì)疑其借熱點(diǎn)炒作股價。
熱熱鬧鬧、真真假假,大模型一時竟然有點(diǎn)亂花漸欲迷人眼。中國的大模型怎么就一下子如雨后春筍般都冒了出來?如果不重復(fù)造輪子,大家還能干點(diǎn)什么?
雖然是摸著Open AI過河,但中國大模型也都邁入了無人區(qū)。
01、涌現(xiàn)之前:亦步亦趨,又分道揚(yáng)鑣
如果要為AI大模型找一個時間節(jié)點(diǎn),2019年應(yīng)該是關(guān)鍵的一個。
這一年2月,遠(yuǎn)在大洋彼岸的OpenAI推出了GPT-2,恰好也是這個時間點(diǎn),微軟慷慨的投入了10億美元,讓OpenAI從“非營利性”組織變成了“盈利上限”組織。
大概在一個月之后,太平洋的另一邊,百度發(fā)布了ERNIE1.0,成為中國第一個正式開放的預(yù)訓(xùn)練大模型。
但這種第一其實(shí)有很多,比如華為的盤古大模型,業(yè)界首個千億參數(shù)的中文語言預(yù)訓(xùn)練模型;比如阿里的M6,中國首個千億參數(shù)多模態(tài)大模型;再比如騰訊HunYuan,國內(nèi)首個低成本、可落地的NLP萬億大模型.....
總之,只要定語加的足夠多,就總能在某個領(lǐng)域當(dāng)?shù)谝弧D嵌螘r間,從硅谷到北京西二旗、再從五道口到上海臨港,包括華為、阿里、騰訊、商湯在內(nèi),凡是有能力的企業(yè),都開始涉足AI大模型的相關(guān)研究。
但中國第一波AI大模型的“涌現(xiàn)”卻是在兩年之后。
2021年,曾任職過微軟亞洲工程院院長、后被雷軍親自邀請到金山接替求伯君任CEO的張宏江,牽頭成立的智源研究院發(fā)布“悟道1.0”,包括國內(nèi)首個面向中文的NLP大模型、首個中文通用圖文多模態(tài)大模型和首個具有認(rèn)知能力的超大規(guī)模預(yù)訓(xùn)練的模型等等。
智源成立于2018年,也就是OpenAI發(fā)布GPT-1.0的前五個月,作為北京市和科技部牽頭成立,并集合學(xué)界和頭部科技企業(yè)資源的研究機(jī)構(gòu),智源其實(shí)是中國早期探索AI大模型的一個代表。
可以說,“悟道1.0”其實(shí)為中國后來所有AI大模型的一個樣本。除此之外,智源研究院還為中國構(gòu)建了大規(guī)模預(yù)訓(xùn)練模型技術(shù)體系,并建設(shè)開放了全球最大中文語料數(shù)據(jù)庫WuDaoCorpora,為后來其他企業(yè)發(fā)展AI大模型打下了基礎(chǔ)。
也正是在“悟道1.0”之后,中國大模型開始出現(xiàn)井噴的狀態(tài)。
2021年,華為基于昇騰AI與鵬城實(shí)驗(yàn)室聯(lián)合發(fā)布了鵬程盤古大模型。2022年,阿里發(fā)布了“通義”大模型系列,騰訊發(fā)布混元AI大模型......
在中國AI大模型如雨后春筍般涌現(xiàn)的同時,國外的AI大模型也走到了從量變到質(zhì)變的節(jié)點(diǎn)。
2022年11月,OpenAI發(fā)布了基于GPT-3.5的ChatGPT,徹底打開了人工智能的魔盒,然后就是席卷全球的AI 2.0浪潮。
事實(shí)上,如果以2018年GPT-1發(fā)布為節(jié)點(diǎn),中國的AI大模型的發(fā)展與國外的發(fā)展脈絡(luò)一直都亦步亦趨,但ChatGPT為什么并沒有出現(xiàn)在中國?
這其實(shí)和國內(nèi)外AI大模型兩種不同的發(fā)展路徑有關(guān)。
從目前國外具有代表性的AI大模型產(chǎn)品來看,比如ChatGPT、Midjourney、Notion AI或者Stable diffusion等等,都是以C端用戶為基礎(chǔ)的產(chǎn)品。
而反觀國內(nèi),目前大模型的主要應(yīng)用場景的都在B端。
比如阿里的“通義”大模型的典型應(yīng)用場景包括電商跨模態(tài)搜索、AI輔助設(shè)計(jì)、開放域人機(jī)對話、法律文書學(xué)習(xí)、醫(yī)療文本理解等等,而騰訊的HunYuan-NLP-1T大模型則應(yīng)用在騰訊廣告、搜索、對話等內(nèi)部產(chǎn)品落地,或者像商湯的大模型,為自動駕駛、機(jī)器人等通用場景任務(wù)提供感知和理解能力支持。
之所以選擇To B,一個重要的原因是,B端能夠更容易進(jìn)行商業(yè)化。
To B的行業(yè)特點(diǎn)導(dǎo)致中國的AI大模型并不需要做到非常大的參數(shù)規(guī)模,甚至于當(dāng)ChatGPT出來之后,國內(nèi)的公司討論的一個重要方向,是如何將已有的大模型規(guī)?!白鲂 ?,應(yīng)用到具體的行業(yè)上。
所以中國采用谷歌BERT路線的AI大模型會比較多,以更小的參數(shù),做更有效率,更適合垂類的場景。
所以某種程度上,從出生的第一天,中國大模型就帶著商業(yè)化的任務(wù)。
而國外To C的大模型則不同,如ChatGPT的用戶在短短兩個月就達(dá)到一億,其底層預(yù)訓(xùn)練大模型GPT-3.5作為通用大模型,“大”成為參數(shù)的一個基本要求。
這在某種程度上促進(jìn)OpenAI不停為GPT增加參數(shù),然后激發(fā)更強(qiáng)大的“涌現(xiàn)”現(xiàn)象,最終實(shí)現(xiàn)“大力出奇跡”的ChatGPT。
因此,To B和To C兩種完全不一樣的發(fā)展路徑,也將中國和美國的AI大模型引向了兩種完全不同的發(fā)展方向。
02、不要重復(fù)造輪子,但大家都想當(dāng)輪子
到目前為止,中國已經(jīng)發(fā)布的AI大模型產(chǎn)品已經(jīng)發(fā)布了5個,而這之后,還有5個AI大模型產(chǎn)品正在趕來的路上。
模型大亂斗已經(jīng)開始。
大部分國內(nèi)的大模型能力都在GPT-2的水平上,但關(guān)注度卻遠(yuǎn)遠(yuǎn)高于GPT-2推出時,這就造成了一種尷尬的局面——明知道還沒有完全準(zhǔn)備好,但卻不得不積極地在推進(jìn)模型發(fā)布,似乎稍微晚一點(diǎn)就會錯過整個市場。
的確,無論是市場還是技術(shù)本身,都在要求企業(yè)更快地將大模型推向市場。
從技術(shù)上講,越早進(jìn)入市場就能越早地獲得用戶的使用數(shù)據(jù),進(jìn)而推動模型優(yōu)化迭代。從市場角度而言,當(dāng)國外AI大模型與產(chǎn)業(yè)結(jié)合帶來更高效率的同時,國內(nèi)企業(yè)也存在同樣的需求。
比如目前,光錐智能向多個SaaS公司調(diào)研發(fā)現(xiàn),幾乎都已經(jīng)接入GPT-3.5,目前在同步測試文心一言中。
而對于推出大模型的企業(yè)來說,這個時候搶占市場先機(jī)就變得尤為重要。
某頭部機(jī)構(gòu)負(fù)責(zé)AI的投資人告訴光錐智能,“中國現(xiàn)在被排除在ChatGPT生態(tài)之外是非常危險的?!?/p>
他認(rèn)為,雖然應(yīng)用層存在更大的創(chuàng)業(yè)機(jī)會,但應(yīng)用層的所有應(yīng)用卻都依賴于大模型而存在。就像PC互聯(lián)網(wǎng)時代,所有的桌面應(yīng)用都基于Windows開發(fā),而移動互聯(lián)網(wǎng)時代所有APP又都基于Android或iOS系統(tǒng)一樣,在模型即服務(wù)的時代,也需要出現(xiàn)一些“操作系統(tǒng)”級別的底層大模型。
目前國外GPT-4已經(jīng)明確可以成為這樣的存在,但國內(nèi)還沒有相應(yīng)的大模型出現(xiàn)。因此,在底層大模型的格局還未明朗的情況下,一旦大模型的市場格局發(fā)生變化,建立在大模型之上的應(yīng)用也將付之東流。
這也成為許多投資人不愿意現(xiàn)在就下場的原因,他們想讓這個市場再跑一跑,等待一個明確能夠成為“操作系統(tǒng)”級別的底層大模型出現(xiàn)。
所以,無論是百度還是阿里,在推出大模型之后,第一件關(guān)心的事就是——是否有更多企業(yè)能夠達(dá)成合作。
比如,在2月份明確文心一言推出計(jì)劃后,百度就開始積極推進(jìn)不同行業(yè)的企業(yè)接入文心一言,到3月16日百度發(fā)布文心一言時,已有超過650家企業(yè)宣布接入文心一言生態(tài)。而在4月7日,阿里官宣“通義千問”之后,第一件事也是向企業(yè)開放測試邀請。
如今國內(nèi)的AI大模型正處在競爭“誰能成為底層操作系統(tǒng)”的階段,各家積極推出自己的大模型,開放內(nèi)測,引導(dǎo)企業(yè)入駐,一個核心目標(biāo)就是圍繞大模型建立起自己的模型生態(tài)。
這是大廠能否在下一個時代繼續(xù)成為大廠的關(guān)鍵。下一個AI時代的船票并不是大模型,而是圍繞大模型建立起來的生態(tài)。
因此,即便所有人都在口口聲聲表示不要重復(fù)造輪子,不要浪費(fèi)資源建立一個同樣的大模型,但機(jī)會當(dāng)前,所有人都在重復(fù)造輪子。
但如今從百度到阿里,再從華為到商湯,底層大模型的戰(zhàn)爭也才剛剛剛開始,畢竟不只是像騰訊、字節(jié)這樣的科技巨頭,還有像王小川、王慧文、李開復(fù)等創(chuàng)業(yè)大佬也在虎視眈眈。
王小川、王慧文都先后入駐搜狐網(wǎng)絡(luò)科技大廈,五道口似乎又恢復(fù)了之前的榮光。
畢竟,許多人都感覺到,“這是一次文藝復(fù)興”。
到目前為止,更多具有競爭力的玩家還沒有完全下場,但底層大模型的“百團(tuán)大戰(zhàn)”卻已經(jīng)一觸即發(fā)。
03、AI熱“兩極化”,中間真空
大模型讓AI公司越來越重。
4月10日,商湯在公布“日日新SenseNova”大模型體系的同時,其實(shí)還提到另一個關(guān)鍵點(diǎn),即依托于AI大裝置SenseCore實(shí)現(xiàn)“大模型+大算力”的研發(fā)體系。
為了滿足大模型海量數(shù)據(jù)訓(xùn)練的需求,原本可以輕裝上陣的算法公司,開始自己做云,也自建人工智能數(shù)據(jù)中心(AIDC)。
另一個案例就是毫末,這家自動駕駛公司為了用大模型訓(xùn)練數(shù)據(jù),也建了自己的智算中心。
這些垂類的AI巨頭和獨(dú)角獸,之所以要自己做的這么重,最重要的原因之一,就是市面上幾乎沒有高性能的現(xiàn)成產(chǎn)品可以滿足。
近年來,大模型參數(shù)量以指數(shù)級的速率提升,而數(shù)據(jù)量隨著多模態(tài)的引入也將大規(guī)模增長,因此就必然會導(dǎo)致對算力需求的劇增。例如,過去5年,超大參數(shù)AI大模型的參數(shù)量幾乎每一年提升一個數(shù)量級。過往的10年,最好的AI算法對于算力的需求增長超過了100萬倍。
一位商湯員工表示,商湯上海臨港AIDC的服務(wù)器機(jī)柜設(shè)計(jì)功耗10千瓦~25千瓦,最大可同時容納4臺左右英偉達(dá)A100服務(wù)器,但普通的服務(wù)器機(jī)柜普遍設(shè)計(jì)功耗以5千瓦居多,而單臺A100服務(wù)器的功耗即高達(dá)4.5千瓦左右。
科技巨頭就更是如此,每個巨頭都希望在自己的生態(tài)中形成閉環(huán),一定程度上也是因?yàn)檎麄€國內(nèi)開源的生態(tài)不夠強(qiáng)大。
目前,大模型產(chǎn)業(yè)鏈大致可以分為數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、模型產(chǎn)品三個層次。在國外,AI大模型的產(chǎn)業(yè)鏈比較成熟,形成了數(shù)量眾多的AI Infra(架構(gòu))公司,但這一塊市場在國內(nèi)還相對空白。
而在國內(nèi),巨頭們都有一套自己的訓(xùn)練架構(gòu)。
比如,華為的模型采用的是三層架構(gòu),其底層屬于通識性大模型,具備超強(qiáng)的魯棒性的泛化性,在這之上是行業(yè)大模型和針對具體場景和工作流程的部署模型。這種構(gòu)架的好處是,當(dāng)訓(xùn)練好的大模型部署到垂類行業(yè)時,可以不必再重復(fù)訓(xùn)練,成本僅是上一層的5%~7%。
阿里則是為AI打造了一個統(tǒng)一底座,無論是CV、NLP、還是文生圖大模型都可以放進(jìn)去這個統(tǒng)一底座中訓(xùn)練,阿里訓(xùn)練M6大模型需要的能耗僅是GPT-3的1%。
百度和騰訊也有相應(yīng)的布局,百度擁有覆蓋超50億實(shí)體的中文知識圖譜,騰訊的熱啟動課程學(xué)習(xí)可以將萬億大模型的訓(xùn)練成本降低到冷啟動的八分之一。
整體來看,各個大廠之間的側(cè)重點(diǎn)雖然有所不同,但主要特點(diǎn)就是降本增效,而能夠?qū)崿F(xiàn)這一點(diǎn),很大程度上就是受益于“一手包辦”的閉環(huán)訓(xùn)練體系。
這種模式在單一大廠內(nèi)部固然有優(yōu)勢,但從行業(yè)角度而言,也存在一些問題。
國外成熟的AI產(chǎn)業(yè)鏈形成了數(shù)量眾多的AI Infra公司,這些公司有的專門做數(shù)據(jù)標(biāo)注、做數(shù)據(jù)質(zhì)量、或者模型架構(gòu)等。
這些企業(yè)的專業(yè)性,能夠讓他們在某一個單一環(huán)節(jié)的效率、成本、質(zhì)量上都要比大廠親自下場做得更好。
比如,數(shù)據(jù)質(zhì)量公司Anomalo就是Google Cloud和Notion的供應(yīng)商,它可以通過ML自動評估和通用化數(shù)據(jù)質(zhì)量檢測能力,來實(shí)現(xiàn)數(shù)據(jù)深度觀察和數(shù)據(jù)質(zhì)量檢測。
這些公司就像汽車行業(yè)的Tier 1,通過專業(yè)的分工,能夠讓大模型企業(yè)不必重復(fù)造輪子,而只需要通過整合供應(yīng)商資源,就能快速地搭建起自己模型構(gòu)架,從而降低成本。
但國內(nèi)在這一方面并不成熟,原因在于:一方面國內(nèi)大模型的主要玩家都是大廠,他們都有一套自己的訓(xùn)練體系,外部供應(yīng)商幾乎沒有機(jī)會進(jìn)入;另一方面,國內(nèi)也缺乏足夠龐大的創(chuàng)業(yè)生態(tài)和中小企業(yè),AI供應(yīng)商也很難在大廠之外找到生存的空間。
以谷歌為例,谷歌愿意將自己訓(xùn)練的數(shù)據(jù)結(jié)果分享給它的數(shù)據(jù)質(zhì)量供應(yīng)商,幫助供應(yīng)商提高數(shù)據(jù)處理能力,供應(yīng)商能力提升之后,又會反過來給谷歌提供更多高質(zhì)量數(shù)據(jù),從而形成一種良性循環(huán)。
國內(nèi)AI Infra生態(tài)的不足,直接導(dǎo)致的就是大模型創(chuàng)業(yè)門檻的拔高。
王慧文剛下場做光年之外的時候曾提出5000萬美金的投入,這筆錢其實(shí)是李志飛為他算的,具體可以分為2000萬美金搞算力,2000萬美金找人,1000萬美金做數(shù)據(jù)。這體現(xiàn)出一個直接的問題,如果將在中國做大模型比喻成吃上一頓熱乎飯,那必須從挖地、種菜開始。
目前,在AI 2.0的熱潮中,一個重要的特點(diǎn)就是“兩極化”:最熱門的要么是大模型層、要么就是應(yīng)用層。而類似AI Infra(架構(gòu))的中間層,反而有很大的真空。
別都盯著造輪子,能造一顆好的螺絲也很重要。
04、結(jié)語:巨頭&創(chuàng)新者
王小川和百度的隔空口水戰(zhàn),成為最近大模型混戰(zhàn)中一個熱鬧的插曲。
“高富帥”李彥宏認(rèn)為,中國基本不會再出OpenAI,用巨頭的就可以了。
“直男”王小川說,行業(yè)中有些人(李彥宏)對未來的觀點(diǎn)從來就沒有判斷對過,一直活在平行宇宙里。
除了陳年恩怨,這大體上可以看作是巨頭和創(chuàng)業(yè)者之間的立場對立:巨頭都喜歡包攬一切,而創(chuàng)業(yè)者則喜歡打破常規(guī)。
而科技行業(yè)的成功似乎更依仗于創(chuàng)新。畢竟,從打造AlophaGo的DeepMind,到發(fā)布ChatGPT的OpenAI,沒有一個是從巨頭中孵化出來的。
這就是創(chuàng)新者的窘境。
對于科技巨頭而言,自己造輪子固然重要,但能找到、孵化出下一個OpenAI又何嘗不可呢?