文|新火種 一號(hào)
編輯|美美
長文本之后,Kimi能找到新的“護(hù)城河”嗎?
過去的一周,由AI技術(shù)天才楊植麟的大模型初創(chuàng)企業(yè)月之暗面及其產(chǎn)品Kimi所帶來的連鎖反應(yīng),從社交媒體一路沖向了A股,帶動(dòng)了一批“Kimi概念股”的大漲。這也是國內(nèi)AI創(chuàng)業(yè)公司第一次真正意義上的“破圈”。
資本市場(chǎng)的關(guān)注,也讓Kimi迎來了用戶量的飆升,根據(jù)“AI產(chǎn)品榜(aicpb.com)”的數(shù)據(jù),Kimi智能助手在2024年2月份的訪問量達(dá)到了305萬,比上個(gè)月增長了107.6%,3月8日至3月14日的周訪問量更是達(dá)到了183萬,環(huán)比增加了45%。流量的激增,也讓Kimi在3月20日出現(xiàn)了宕機(jī)等異?,F(xiàn)象。
而這一次的爆火始于3月18日,月之暗面宣布其自研的Kimi智能助手在大模型上下文窗口技術(shù)上取得了新的突破,已支持200萬字超長無損上下文,并即日起開始產(chǎn)品內(nèi)測(cè)。我們不禁要問,大模型能力這么多,為何長文本會(huì)成為引爆點(diǎn)?
為什么長文本是用戶的痛點(diǎn)?
對(duì)于大模型的長文本的能力,月之暗面的創(chuàng)始人楊植麟把它解讀為“新計(jì)算范式”,并認(rèn)為通用的世界模型,是需要“長文本”的。
想象一下,如果你把一個(gè)大模型當(dāng)做一個(gè)和你對(duì)話的人,它跟我們一樣,有短期記憶和長期記憶。而長期記憶就是它通過模型訓(xùn)練得到的向量和參數(shù),你可以把這當(dāng)成它的知識(shí)庫。而上下文就是它的短期記憶,當(dāng)你在和它對(duì)話的時(shí)候,你們之間的對(duì)話內(nèi)容就是以上下文窗口的形式提供給了大模型,要是你們的對(duì)話長度超過了這個(gè)它的上下文承載能力,那么超出的部分,大模型就會(huì)忘記。這從根本上就限制了大模型處理一些復(fù)雜多變的任務(wù)的可能。
為了讓大模型能夠完成更多的任務(wù),或者說讓它不會(huì)在跟你對(duì)話過程中突然就沒辦法跟你繼續(xù)對(duì)話下去了的問題,拓展上下文就成了一件必須解決的事情。也只有這樣,AI才能在面對(duì)一些描述非常復(fù)雜,需要舉例幫助模型進(jìn)行學(xué)習(xí)等的任務(wù)上表現(xiàn)得更好。如果以AGI為目標(biāo),那上下文長度的突破更是必須的。
而從市場(chǎng)上看,當(dāng)前使用大語言模型的大多數(shù)人群,無論是泛科技行業(yè),還是從業(yè)者、愛好者或者學(xué)生,解讀論文、深度研報(bào)還有會(huì)議摘要等這些明確的應(yīng)用場(chǎng)景,長文本能力都是剛需。因此,OpenAI的開發(fā)者關(guān)系經(jīng)歷Logan Kilpatrick就曾經(jīng)說過,“上下文就是大語言模型的下一個(gè)關(guān)鍵突破”。
因長文本而備受關(guān)注的Kimi
很明顯,月之暗面“登月”的第一步,從用戶需求的角度上來講,肯定是邁對(duì)了。早在2023年10月,Kimi剛剛上線的時(shí)候,它就以一個(gè)很有辨識(shí)度的方式進(jìn)行了亮相。他們?cè)诠傩恼碌臉?biāo)題上,別出心裁地用了“歡迎與Moonshot AI共同開啟Looooooooooong LLM時(shí)代”,通過加了很多個(gè)“o”的long,從視覺上就讓人印象深刻,明白這個(gè)大模型與“長”相關(guān),然后文章的第一句就是“今天,Moonshot AI 帶著首個(gè)支持輸入 20 萬漢字的智能助手產(chǎn)品Kimi Chat 與大家見面了”。
這些宣發(fā)內(nèi)容,都讓人能夠很快地將“長文本”和Kimi之間構(gòu)建起聯(lián)系,通過這樣的營銷方式,月之暗面輕松地占領(lǐng)了用戶心智,從此要是聊起“長文本”,“月之暗面”就成了一個(gè)很容易被提到的公司。
在當(dāng)時(shí)不?!熬怼钡拇竽P褪袌?chǎng)上,新模型不斷冒出,而絕大部分的模型介紹都有這么一套標(biāo)準(zhǔn)動(dòng)作:公布模型參數(shù)、模型是開源還是封閉的、公布測(cè)試集成績,體現(xiàn)自己成績有多好,然后就是一些業(yè)內(nèi)人士的介紹或評(píng)測(cè)文章。
雖然數(shù)據(jù)清晰,但如果是面向大眾市場(chǎng),顯然這些晦澀難懂的參數(shù)和技術(shù)詞語,只能是自嗨,遠(yuǎn)不及一個(gè)直白的特點(diǎn)更讓人印象深刻。因此月之暗面用這樣的具有辨識(shí)度的方式,很輕松地就從一眾大模型中脫穎而出,輕松地贏得了普通用戶的心。
而且在后續(xù)的宣發(fā)中,月之暗面也在不斷重復(fù)和強(qiáng)調(diào)kimi的長文本能力,直到最近,它所做的突破也是在長文本這個(gè)能力上。因此,當(dāng)用戶將長文本=Kimi的時(shí)候,除非競爭對(duì)手擁有碾壓級(jí)的實(shí)力,否則都很難威脅到Kimi在用戶心中的地位。
但“長文本”真的能保Kimi永久平安嗎?
長文本成不了Kimi的“護(hù)城河”
同樣在長文本上做文章的,在海外,還有一家名為Antropic的公司。作為被公認(rèn)的OpenAI最強(qiáng)大的對(duì)手,他們的大模型Claude的殺手锏就是長文本。在其初代模型推出時(shí),就支持100k token的上下文,可以直接處理5萬字,這也讓它一直在整體性能劣于OpenAI的情況下,也能保有一群核心粉絲。
然而這種優(yōu)勢(shì)也并未能保持太久。去年11月,OpenAI在Dev Day上發(fā)布了GPT-4 Turbo,支持128k的上下文,這讓Antropic陷入了危機(jī),不得不緊急推出Claude 2.1,將上下文從100k提升到了200k。但后來被人進(jìn)行了探針測(cè)試,顯示它只是支持了這樣的長度,但并未記住其中的內(nèi)容,使得它緊急打了補(bǔ)丁。而這個(gè)補(bǔ)丁,僅僅只是一句Prompt。
今年2月,谷歌的Gemini 1.5則直接將上下文推到了100萬。種種跡象都表明,長文本能力的“護(hù)城河”已經(jīng)在變淺。就在前段時(shí)間,Antropic號(hào)稱超越GPT-4的“世界最強(qiáng)大模型”Claude 3也放棄了在長文本上開卷,依然只支持200k的上下文,轉(zhuǎn)而在其他能力上進(jìn)行了升級(jí)。
同樣,在國內(nèi),Kimi爆火之后,“長文本”的需求也被大廠看到了。很快,阿里巴巴宣布通義千問重磅升級(jí),向所有人免費(fèi)開放1000萬字的長文檔處理功能,成為了全球文檔處理容量第一的AI應(yīng)用;緊接著,百度的文心一言將在下個(gè)月開放200萬-500萬字的長文本能力;360智腦也正式內(nèi)測(cè)500字長文本處理能力。
據(jù)新浪科技獲得的數(shù)據(jù),Kimi當(dāng)前每日獲客成本高達(dá)20萬元。面對(duì)大廠在長文本能力上的集體圍剿,作為AI創(chuàng)業(yè)公司的月之暗面,在資金還有算力資源上,都難以招架。因此,盡管當(dāng)前月之暗面仍有足夠的“忠粉”,但當(dāng)熱情褪去,若月之暗面還未挖出一條新的“護(hù)城河”,恐怕難逃困境。
作為“堅(jiān)定的AGI信徒”,楊植麟也有過這樣的判斷,“獨(dú)特價(jià)值是你增量的智能。要抓住這個(gè)點(diǎn),智能永遠(yuǎn)是最核心的增量價(jià)值。如果你這個(gè)產(chǎn)品最核心價(jià)值只有10%-20%來自于AI,就不成立”。
因此,究竟“智能”能否成為Kimi新的“護(hù)城河”,我們只能拭目以待。