文|互聯(lián)網(wǎng)怪盜團(tuán)
剛剛過去的周末,蘋果發(fā)表了一篇論文,公布了自己研發(fā)的MM1多態(tài)大語言模型(Multimodal LLM)。這注定是人工智能發(fā)展史上的又一個標(biāo)志性事件!很遺憾,我不是技術(shù)研發(fā)人員,對這篇論文只能粗略看懂一些基本信息。我的一些從事大模型研發(fā)的朋友,昨天已經(jīng)徹夜不眠地進(jìn)行深度研究了。
蘋果這次公布的MM1大模型分為三個參數(shù)規(guī)模,其中最大的擁有300億參數(shù),與市面上的主流競品相比,好像不是很大——要知道,谷歌PaLM大模型擁有5400億參數(shù),OpenAI的GPT-4更是擁有1.7萬億參數(shù)(注:OpenAI官方并未披露參數(shù)數(shù)量,僅有外界猜測)。
科技博客Daily Dev的評測顯示,MM1在GLUE-Score等多項(xiàng)評測指標(biāo)上要略優(yōu)于GPT-4V和Gemini Pro;不過眾所周知,這種評測的參考價值有限。MM1目前還沒有公測,官方也沒有公布上線時間表,要評估其具體的技術(shù)水平可能還需要很長一段時間。
蘋果發(fā)表的MM1大模型論文的標(biāo)題和作者列表
對于人工智能行業(yè)乃至全球科技行業(yè)而言,MM1大模型本身可能是一件小事,蘋果由此表現(xiàn)出的姿態(tài)則是一件大事。具體而言:
蘋果今后肯定會依賴自研大模型,而不是OpenAI等第三方的大模型或者開源大模型。大模型是一項(xiàng)基礎(chǔ)設(shè)施,沒有哪個科技巨頭愿意受制于人,都會投入盡可能多的資源實(shí)現(xiàn)自主。今后大模型賽道的競爭會更激烈。
根據(jù)蘋果一貫的作風(fēng),它肯定想實(shí)現(xiàn)“軟件-算法-芯片”三位一體的統(tǒng)一,今后肯定會建立自己的AI開發(fā)社區(qū),甚至在芯片領(lǐng)域挑戰(zhàn)一下英偉達(dá)。AMD和英特爾都沒有這個實(shí)力,但蘋果確實(shí)有一定希望。
在長期,最值得關(guān)注的話題是:蘋果會不會走邊緣計(jì)算、本地化推理的路線?這將直接決定“AI手機(jī)”有沒有市場。不過這個問題不是一兩年內(nèi)能解決的。
先說第一條。在ChatGPT剛剛發(fā)布時,業(yè)界的主流觀點(diǎn)是:世界上不需要那么多大模型,可能只需要3-5個,包括1-2個最先進(jìn)的閉源大模型,再加上幾個開源大模型?,F(xiàn)在的情況卻是人人都想做自己的大模型。此前很長一段時間,大家都覺得蘋果是一家消費(fèi)電子廠商,沒有必要押注于自研大模型,只需要租用市面上最先進(jìn)的大模型就可以了。
現(xiàn)實(shí)告訴我們,蘋果不是這么想的。就像我的一位從事大模型研發(fā)的朋友所說:“AGI時代,自己有控制權(quán)的大模型才是最好的。OpenAI不可能將模型參數(shù)開放給蘋果,蘋果也不會樂意受制于微軟生態(tài)。不管它做不做得好,它只能自己做!”
如果蘋果是這么想的,其他科技巨頭就更會這么想了。谷歌和亞馬遜都投資了Anthropic(除了OpenAI之外最炙手可熱的AI創(chuàng)業(yè)公司),Salesforce投資了Mistral;各家大廠收購的小型研發(fā)團(tuán)隊(duì)就更是數(shù)不勝數(shù)了。無論這個世界究竟需要多少大模型,每個科技巨頭都會做自己的大模型,而且肯定不止做一個——內(nèi)部孵化幾個、外部投資或并購幾個,才是常態(tài)。
前一段時間,市場上有消息稱,蘋果從鴻海訂購了2萬臺AI服務(wù)器,其中40-50%是英偉達(dá)H100服務(wù)器。當(dāng)時很多人(包括我在內(nèi))認(rèn)為這些服務(wù)器主要是用來推理的,不過用H100推理顯得過于奢侈了?,F(xiàn)在看來,這些服務(wù)器應(yīng)該既包括推理需求、也包括訓(xùn)練需求。蘋果最不缺的就是錢,既然它決定了押注自研大模型,就一定會把戰(zhàn)爭打到底。全球AI算力緊缺的局勢看樣子會雪上加霜。
再說第二條。雖然外界經(jīng)常低估蘋果的研發(fā)實(shí)力,但是在歷史上,蘋果經(jīng)常通過在消費(fèi)產(chǎn)品積累的資源去進(jìn)軍中上游、直至切入核心技術(shù)層面,這一點(diǎn)在民用芯片領(lǐng)域體現(xiàn)的最明顯:自從2021年以來,蘋果自研的M系列芯片已經(jīng)全面替代英特爾x86芯片,成為Mac電腦的標(biāo)配,乃至被“下放”到了iPad當(dāng)中。一位熟悉這個領(lǐng)域的朋友告訴我:“蘋果絕不會甘愿受制于CUDA。它熱衷于獨(dú)立掌握核心算法,對自研芯片進(jìn)行適配優(yōu)化,從而實(shí)現(xiàn)芯片-算法-軟件的整合。不過它一定會小心謹(jǐn)慎地行事?!?/p>
眾所周知,英偉達(dá)依托CUDA生態(tài),建立了牢不可破的競爭壁壘。但是,英偉達(dá)的驅(qū)動程序并不開源(注:有極少數(shù)開源過,但于事無補(bǔ)),CUDA也并不好用。AMD、英特爾等競爭對手已經(jīng)被甩出太遠(yuǎn)了,依靠它們?nèi)ヌ魬?zhàn)英偉達(dá)并不現(xiàn)實(shí)。蘋果則擁有這樣的實(shí)力,看樣子也擁有這樣的意愿。不過,就算它決定進(jìn)軍英偉達(dá)的地盤,這個過程也會持續(xù)相當(dāng)漫長的時間——要知道,從2006年Mac換用英特爾芯片到2020年轉(zhuǎn)向自研芯片,經(jīng)過了整整14年!
附帶說一句,哪怕英偉達(dá)的競爭對手(無論是不是蘋果)成功地奪走了一些市場份額,也不會解決當(dāng)前AI算力緊缺的問題,因?yàn)槠款i主要在制造環(huán)節(jié)。尤其是訓(xùn)練相關(guān)的芯片制造,在未來很長一段時間內(nèi)估計(jì)還是臺積電的天下。無論誰是AI芯片的王者,它都要依賴臺積電代工。這是一個工程問題,只能循序漸進(jìn)地解決。
最后,今后的AI推理主要在云端(數(shù)據(jù)中心)還是終端(手機(jī)、電腦)實(shí)現(xiàn),這是一個爭議很大的話題。我們看到各家手機(jī)廠商在爭先恐后地推出“AI手機(jī)”——很可惜,這些產(chǎn)品現(xiàn)在還沒什么用,消費(fèi)者沒有任何迫切的需求。當(dāng)年的云游戲概念,是希望把游戲算力從終端搬到云端;現(xiàn)在的AI手機(jī)概念,則是希望把推理算力從云端搬到終端。前者已經(jīng)被證明不切實(shí)際(至少現(xiàn)在是如此),后者則前途未卜。
作為全球最大、最賺錢的智能終端廠商,蘋果肯定會希望終端多承擔(dān)一些AI推理職責(zé),這也有助于iOS生態(tài)的進(jìn)一步擴(kuò)張。然而,技術(shù)進(jìn)步不會以任何科技巨頭的主觀愿望為轉(zhuǎn)移。很多人猜測,蘋果大模型的研發(fā)方向?qū)⒅赶蜻吘売?jì)算、本地化和小型化,其戰(zhàn)略目標(biāo)是開發(fā)出適合在移動端本地推理的模型。但是從目前的公開信息(主要就是那篇論文)中,我們尚不能獲得足夠的信息。
對于蘋果的投資者而言,最大的好消息是:蘋果注意到了自研大模型的重要性,不甘于在這個戰(zhàn)略性賽道上掉隊(duì),而且正在試圖利用自身資源稟賦去影響大模型技術(shù)的發(fā)展方向。資本市場可能會對此做出良好的反應(yīng)(尤其是考慮到今年以來蘋果衰落的股價),但是能否實(shí)現(xiàn)又是另一回事了。