正在閱讀:

異軍突起的小模型,有多大想象空間?

掃一掃下載界面新聞APP

異軍突起的小模型,有多大想象空間?

模型層進(jìn)入“平臺期”的當(dāng)下,小模型的出現(xiàn),無疑為市場打開了新的可能。

文|阿爾法工場

大模型之戰(zhàn)進(jìn)入到今日,許多開發(fā)者都面臨著一個(gè)共同的挑戰(zhàn):如何在保證高性能的同時(shí),降低資源和算力的需求?

這一困境在端側(cè)應(yīng)用尤為明顯,因?yàn)樵S多設(shè)備和應(yīng)用場景對計(jì)算能力和存儲空間有嚴(yán)格的限制。這無疑大大制約了大模型在各種設(shè)備和場景中的普及。

如何突破這一桎梏,實(shí)現(xiàn)性能與資源的完美平衡,從而打開潛在的市場?

近期,一些小型模型,如Mistral AI推出的Mixtral8x7B和微軟發(fā)布的Phi-2,提供了一個(gè)可能的解決方案。

這些小模型在參數(shù)規(guī)模上相對較小,但在性能上卻表現(xiàn)出了驚人的實(shí)力,甚至在某些方面超越了Llama2等規(guī)模更大的競爭對手。

而這也意味著,套在很多場景上的“參數(shù)枷鎖”,也將有望被打破。一個(gè)新的增量市場,已經(jīng)呼之欲出。

01 以小博大

從技術(shù)上說,Mistral 和Phi-2的特點(diǎn)就是一個(gè)詞:短小精悍。

Mistral 8x7B由來自歐洲的Mistral AI打造,采用了稀疏混合專家模型(SMoE)技術(shù),結(jié)合了多個(gè)針對特定任務(wù)訓(xùn)練的較小模型,提高了運(yùn)行效率。

在許多基準(zhǔn)測試中,Mistral 8x7B的性能已經(jīng)達(dá)到甚至超越了規(guī)模是其25倍的Llama2 70B。

而微軟推出的Phi-2雖然規(guī)模更小(僅27億參數(shù)),但得益于“教科書質(zhì)量”數(shù)據(jù)的訓(xùn)練,以及學(xué)習(xí)其他模型傳遞的洞見的技術(shù),目前已在某些基準(zhǔn)測試中超過了更大的模型,如 70億參數(shù)的Mistral和130億參數(shù)的Llama2。

Mistral 7B在所有基準(zhǔn)測試中超越了Llama2 13B

那么,這些異軍突起的小模型,將會給已進(jìn)入“平臺期”的模型層,帶來怎樣新的想象?

具體來說,針對目前大模型的種種局限,小模型至少在兩個(gè)方面實(shí)現(xiàn)了逆襲。

其中一個(gè)方面,就是其橫向擴(kuò)展了模型的使用范圍,打開了之前因資源、算力而被束縛的市場。

以手機(jī)市場為例,根據(jù)Statista的數(shù)據(jù),2021年全球智能手機(jī)用戶數(shù)量已達(dá)到約39億。

然而,小打開手機(jī)大模型的市場,卻絕非易事。

由于手機(jī)設(shè)備上的內(nèi)存和計(jì)算能力有限,為了平衡內(nèi)存占用、執(zhí)行速度和功耗,目前手機(jī)廠商普遍采用端云協(xié)同的解決方案,但這并非長遠(yuǎn)之計(jì)。

對于手機(jī)廠商來說,使用云端資源會產(chǎn)生額外的成本。隨著用戶規(guī)模的擴(kuò)大,這些成本可能會不斷增加,從而限制了其盈利規(guī)模的上限。

因此,最好的選擇,就是能讓手機(jī)在本地就能運(yùn)行一款參數(shù)不大,但性能又能與云端大模型媲美的小模型。

同樣地,在一些需要快速部署,實(shí)現(xiàn)實(shí)時(shí)響應(yīng)的邊緣場景,例如自動(dòng)駕駛、物聯(lián)網(wǎng)(IoT)中,實(shí)時(shí)決策和數(shù)據(jù)處理就顯得至關(guān)重要。

根據(jù)ResearchAndMarkets的報(bào)告,全球自動(dòng)駕駛汽車市場規(guī)模在2020年達(dá)到了約558億美元。預(yù)計(jì)到2027年,這一數(shù)字將增長至約5,260億美元。

目前的車載計(jì)算平臺,如英偉達(dá)的DRIVE AGX Orin,計(jì)算能力是254 TOPS(每秒254萬億次操作),在高速公路等相對簡單的場景中,由于數(shù)據(jù)量和計(jì)算復(fù)雜度較低,其算力并不是很吃緊。

然而,在更復(fù)雜的城市駕駛場景中,自動(dòng)駕駛系統(tǒng)需要處理更多、更復(fù)雜的數(shù)據(jù)和任務(wù),如實(shí)時(shí)檢測和識別各種障礙物、預(yù)測其他道路用戶的行為、規(guī)劃安全路徑等。

在這種情況下,有限的算力,就會限制自動(dòng)駕駛的進(jìn)一步普及。

Mistral和Phi-2這類小模型由于其較小的模型體積和較低的計(jì)算需求,可以在這些有限資源下高效運(yùn)行。

因?yàn)檐囕d系統(tǒng)需要在有限的能源和散熱條件下運(yùn)行,而較低的計(jì)算需求還有助于提高處理速度,實(shí)現(xiàn)實(shí)時(shí)決策和響應(yīng)。

這一點(diǎn)對于推動(dòng)自動(dòng)駕駛和智能座艙技術(shù)的發(fā)展具有重要意義。

02 通向Agent之路

除了打通原先被限制的市場外,Mistral和Phi-2這類小模型的另一大逆襲之處,就是其與Agent的關(guān)系。

Mistral AI的CEO Arthur Mensch曾言:讓模型變小一定會有助于Agents 的開發(fā)和應(yīng)用。

而在模型層鮮有重大突破的今天,越來越多的人已經(jīng)意識到:Agent就是大模型的未來。

對比AI與人類的交互模式,目前已從過去的嵌入式工具型AI(例如Siri)向助理型AI發(fā)展,目前的各類AI Copilot不再是機(jī)械地完成人類指令,而是可以自動(dòng)化地完成各種人類工作流,

如果說Copilot這類生成式AI是“副駕駛”,那么Agent則可以算得上一個(gè)初級的“主駕駛”。

比爾·蓋茨曾言:在計(jì)算行業(yè)中,平臺是應(yīng)用程序和服務(wù)構(gòu)建的基礎(chǔ)技術(shù)。Android、iOS 和Windows都是平臺的例子。而Agent將成為下一個(gè)平臺。

到了那時(shí),要?jiǎng)?chuàng)建一個(gè)新的應(yīng)用或服務(wù),你不需要掌握編程或圖形設(shè)計(jì)技能。Agent將能夠幫助處理幾乎所領(lǐng)域的事務(wù)。

那么Arthur Mensch為什么會斷言小模型一定會有助于Agents的開發(fā)和應(yīng)用?

這里主要有兩個(gè)原因:一是推理成本,二是模型復(fù)雜度。

在推理成本方面,除了絕對數(shù)值外(即每1000個(gè)Token的成本),更重要的,是模型的推理預(yù)算與實(shí)際效能之比。

從目前的情況來看,Mixtral擁有46.7B的總參數(shù)量,但每個(gè)token只使用 12.9B參數(shù),也就是說,Mixtral的實(shí)際執(zhí)行速度和所需的成本和一個(gè)12.9B的模型相當(dāng)。

下圖展示了官方公布的模型生成質(zhì)量與推理消耗成本的關(guān)系,與Llama2相比,Mistral7B和Mixtral8x7B表現(xiàn)出自己高能效的優(yōu)勢。

這意味著,與大模型相比,在保持高效能的情況下,Mixtral這類小模型通常需要更少的計(jì)算資源和時(shí)間來進(jìn)行推理,因此更加適合用于實(shí)時(shí)交互和在線學(xué)習(xí)。

其次,小模型也有助于Agents的開發(fā)和應(yīng)用,因?yàn)樗鼈兺ǔ>哂懈偷哪P蛷?fù)雜度,更容易被理解和調(diào)試。

Arthur Mensch對此談到:當(dāng)人們走向一個(gè)Agents和AI交互的世界,系統(tǒng)的復(fù)雜性也會因此大幅增加。這種高度復(fù)雜的情境可能導(dǎo)致崩潰(Collapse),即機(jī)器學(xué)習(xí)中的一種一切都停滯不前的狀態(tài),如果沒有足夠的自組織和解決問題的意愿,人們可能無法有效地應(yīng)對和管理這些挑戰(zhàn)。

為了解決這個(gè)問題,需要在設(shè)計(jì)和實(shí)現(xiàn)AI系統(tǒng)時(shí)充分考慮系統(tǒng)的可擴(kuò)展性、模塊化和可解釋性。

而小模型通常具有更簡單的結(jié)構(gòu)和更少的參數(shù),這使得具有更好的可調(diào)試性,從而便于讓開發(fā)人員更容易理解和控制模型的性能,從而更快地將Agents推向市場。

03 新的勝出者

在模型層市場被少數(shù)頭部企業(yè)左右的當(dāng)下,小模型的出現(xiàn),無疑為市場打開了新的可能。

從總的態(tài)勢來說,之后的模型層競爭中,小模型可能會對大模型形成一種“農(nóng)村包圍城市”的態(tài)勢。

“農(nóng)村”象征著小模型主要占據(jù)的應(yīng)用領(lǐng)域。這些領(lǐng)域通常包括資源受限的環(huán)境,如物聯(lián)網(wǎng)設(shè)備、智能家居、移動(dòng)設(shè)備和邊緣計(jì)算場景。

在這些領(lǐng)域,小模型的靈活性、低成本和低能耗等特點(diǎn)使它們具有競爭優(yōu)勢。此外,小模型在定制化和遷移學(xué)習(xí)方面的優(yōu)勢,使它們能夠更好地適應(yīng)各種細(xì)分市場和特定任務(wù)。

“城市”則象征著大模型主要占據(jù)的應(yīng)用領(lǐng)域。這些領(lǐng)域通常包括計(jì)算資源豐富、對性能要求較高的場景,如數(shù)據(jù)中心、云計(jì)算和高性能計(jì)算環(huán)境。

在這樣的態(tài)勢下,憑借著細(xì)分市場的優(yōu)勢,以及開源社區(qū)的協(xié)作和共創(chuàng),小模型在性能上會不斷迭代,并逐漸對大模型主導(dǎo)的領(lǐng)域形成一種“鉗制”的優(yōu)勢。

這種關(guān)系,類似于農(nóng)村為城市提供糧食等資源,維持城市的正常運(yùn)行。在AI領(lǐng)域,大模型在特定領(lǐng)域的優(yōu)化和提升,將愈發(fā)難以脫離小模型提供的實(shí)踐場景和技術(shù)支持。

而面對這樣的態(tài)勢,頭部的大模型企業(yè),自然也不甘被鉗制,因此,這些大廠可能的應(yīng)對之策之一,是通過蒸餾(Distillation)或者合成數(shù)據(jù)(Synthetic data generation)等技術(shù)來訓(xùn)練出質(zhì)量更高的小模型。

或者更簡單粗暴一些,直接將小模型團(tuán)隊(duì)收購、兼并,為己所用。

在這樣的情況下,未來小模型領(lǐng)域,怎樣的企業(yè)更有可能勝出?

就大小模型的差異而言,小模型并不像大模型一樣,需要龐大的算力、數(shù)據(jù)作為支撐,在這個(gè)領(lǐng)域,更考驗(yàn)的是對技術(shù)的理解,以及深厚的理論基礎(chǔ)。

因此,將來在小模型領(lǐng)域,更有可能脫穎而出的團(tuán)隊(duì),應(yīng)該會是那些具有強(qiáng)大學(xué)術(shù)、技術(shù)背景,且一線研究者、技術(shù)人員具有更大話語權(quán)的企業(yè)。

例如這次的Mixtral的團(tuán)隊(duì)Mixtral AI, 就是由DeepMind和Meta的三位青年科學(xué)家建立。

聯(lián)創(chuàng)三人,Arthur Mensch,CEO,前DeepMind研究科學(xué)家;Guillaume Lample,首席科學(xué)家,前Meta研究科學(xué)家,Llama項(xiàng)目帶頭;Timothee Lacroix,CTO,前Llama工程帶頭。

在創(chuàng)立Mistral前,Arthur Mensch在DeepMind任職,并主導(dǎo)了LLM、RAG、多模態(tài)三個(gè)領(lǐng)域最重要的論文,十分全能。

對一線研究者而言,唯有自由地踐行自己的技術(shù)構(gòu)想,在初期不過多地被資本干涉與左右,才更有可能做出亮眼的成果。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號

微博

異軍突起的小模型,有多大想象空間?

模型層進(jìn)入“平臺期”的當(dāng)下,小模型的出現(xiàn),無疑為市場打開了新的可能。

文|阿爾法工場

大模型之戰(zhàn)進(jìn)入到今日,許多開發(fā)者都面臨著一個(gè)共同的挑戰(zhàn):如何在保證高性能的同時(shí),降低資源和算力的需求?

這一困境在端側(cè)應(yīng)用尤為明顯,因?yàn)樵S多設(shè)備和應(yīng)用場景對計(jì)算能力和存儲空間有嚴(yán)格的限制。這無疑大大制約了大模型在各種設(shè)備和場景中的普及。

如何突破這一桎梏,實(shí)現(xiàn)性能與資源的完美平衡,從而打開潛在的市場?

近期,一些小型模型,如Mistral AI推出的Mixtral8x7B和微軟發(fā)布的Phi-2,提供了一個(gè)可能的解決方案。

這些小模型在參數(shù)規(guī)模上相對較小,但在性能上卻表現(xiàn)出了驚人的實(shí)力,甚至在某些方面超越了Llama2等規(guī)模更大的競爭對手。

而這也意味著,套在很多場景上的“參數(shù)枷鎖”,也將有望被打破。一個(gè)新的增量市場,已經(jīng)呼之欲出。

01 以小博大

從技術(shù)上說,Mistral 和Phi-2的特點(diǎn)就是一個(gè)詞:短小精悍。

Mistral 8x7B由來自歐洲的Mistral AI打造,采用了稀疏混合專家模型(SMoE)技術(shù),結(jié)合了多個(gè)針對特定任務(wù)訓(xùn)練的較小模型,提高了運(yùn)行效率。

在許多基準(zhǔn)測試中,Mistral 8x7B的性能已經(jīng)達(dá)到甚至超越了規(guī)模是其25倍的Llama2 70B。

而微軟推出的Phi-2雖然規(guī)模更?。▋H27億參數(shù)),但得益于“教科書質(zhì)量”數(shù)據(jù)的訓(xùn)練,以及學(xué)習(xí)其他模型傳遞的洞見的技術(shù),目前已在某些基準(zhǔn)測試中超過了更大的模型,如 70億參數(shù)的Mistral和130億參數(shù)的Llama2。

Mistral 7B在所有基準(zhǔn)測試中超越了Llama2 13B

那么,這些異軍突起的小模型,將會給已進(jìn)入“平臺期”的模型層,帶來怎樣新的想象?

具體來說,針對目前大模型的種種局限,小模型至少在兩個(gè)方面實(shí)現(xiàn)了逆襲。

其中一個(gè)方面,就是其橫向擴(kuò)展了模型的使用范圍,打開了之前因資源、算力而被束縛的市場。

以手機(jī)市場為例,根據(jù)Statista的數(shù)據(jù),2021年全球智能手機(jī)用戶數(shù)量已達(dá)到約39億。

然而,小打開手機(jī)大模型的市場,卻絕非易事。

由于手機(jī)設(shè)備上的內(nèi)存和計(jì)算能力有限,為了平衡內(nèi)存占用、執(zhí)行速度和功耗,目前手機(jī)廠商普遍采用端云協(xié)同的解決方案,但這并非長遠(yuǎn)之計(jì)。

對于手機(jī)廠商來說,使用云端資源會產(chǎn)生額外的成本。隨著用戶規(guī)模的擴(kuò)大,這些成本可能會不斷增加,從而限制了其盈利規(guī)模的上限。

因此,最好的選擇,就是能讓手機(jī)在本地就能運(yùn)行一款參數(shù)不大,但性能又能與云端大模型媲美的小模型。

同樣地,在一些需要快速部署,實(shí)現(xiàn)實(shí)時(shí)響應(yīng)的邊緣場景,例如自動(dòng)駕駛、物聯(lián)網(wǎng)(IoT)中,實(shí)時(shí)決策和數(shù)據(jù)處理就顯得至關(guān)重要。

根據(jù)ResearchAndMarkets的報(bào)告,全球自動(dòng)駕駛汽車市場規(guī)模在2020年達(dá)到了約558億美元。預(yù)計(jì)到2027年,這一數(shù)字將增長至約5,260億美元。

目前的車載計(jì)算平臺,如英偉達(dá)的DRIVE AGX Orin,計(jì)算能力是254 TOPS(每秒254萬億次操作),在高速公路等相對簡單的場景中,由于數(shù)據(jù)量和計(jì)算復(fù)雜度較低,其算力并不是很吃緊。

然而,在更復(fù)雜的城市駕駛場景中,自動(dòng)駕駛系統(tǒng)需要處理更多、更復(fù)雜的數(shù)據(jù)和任務(wù),如實(shí)時(shí)檢測和識別各種障礙物、預(yù)測其他道路用戶的行為、規(guī)劃安全路徑等。

在這種情況下,有限的算力,就會限制自動(dòng)駕駛的進(jìn)一步普及。

Mistral和Phi-2這類小模型由于其較小的模型體積和較低的計(jì)算需求,可以在這些有限資源下高效運(yùn)行。

因?yàn)檐囕d系統(tǒng)需要在有限的能源和散熱條件下運(yùn)行,而較低的計(jì)算需求還有助于提高處理速度,實(shí)現(xiàn)實(shí)時(shí)決策和響應(yīng)。

這一點(diǎn)對于推動(dòng)自動(dòng)駕駛和智能座艙技術(shù)的發(fā)展具有重要意義。

02 通向Agent之路

除了打通原先被限制的市場外,Mistral和Phi-2這類小模型的另一大逆襲之處,就是其與Agent的關(guān)系。

Mistral AI的CEO Arthur Mensch曾言:讓模型變小一定會有助于Agents 的開發(fā)和應(yīng)用。

而在模型層鮮有重大突破的今天,越來越多的人已經(jīng)意識到:Agent就是大模型的未來。

對比AI與人類的交互模式,目前已從過去的嵌入式工具型AI(例如Siri)向助理型AI發(fā)展,目前的各類AI Copilot不再是機(jī)械地完成人類指令,而是可以自動(dòng)化地完成各種人類工作流,

如果說Copilot這類生成式AI是“副駕駛”,那么Agent則可以算得上一個(gè)初級的“主駕駛”。

比爾·蓋茨曾言:在計(jì)算行業(yè)中,平臺是應(yīng)用程序和服務(wù)構(gòu)建的基礎(chǔ)技術(shù)。Android、iOS 和Windows都是平臺的例子。而Agent將成為下一個(gè)平臺。

到了那時(shí),要?jiǎng)?chuàng)建一個(gè)新的應(yīng)用或服務(wù),你不需要掌握編程或圖形設(shè)計(jì)技能。Agent將能夠幫助處理幾乎所領(lǐng)域的事務(wù)。

那么Arthur Mensch為什么會斷言小模型一定會有助于Agents的開發(fā)和應(yīng)用?

這里主要有兩個(gè)原因:一是推理成本,二是模型復(fù)雜度。

在推理成本方面,除了絕對數(shù)值外(即每1000個(gè)Token的成本),更重要的,是模型的推理預(yù)算與實(shí)際效能之比。

從目前的情況來看,Mixtral擁有46.7B的總參數(shù)量,但每個(gè)token只使用 12.9B參數(shù),也就是說,Mixtral的實(shí)際執(zhí)行速度和所需的成本和一個(gè)12.9B的模型相當(dāng)。

下圖展示了官方公布的模型生成質(zhì)量與推理消耗成本的關(guān)系,與Llama2相比,Mistral7B和Mixtral8x7B表現(xiàn)出自己高能效的優(yōu)勢。

這意味著,與大模型相比,在保持高效能的情況下,Mixtral這類小模型通常需要更少的計(jì)算資源和時(shí)間來進(jìn)行推理,因此更加適合用于實(shí)時(shí)交互和在線學(xué)習(xí)。

其次,小模型也有助于Agents的開發(fā)和應(yīng)用,因?yàn)樗鼈兺ǔ>哂懈偷哪P蛷?fù)雜度,更容易被理解和調(diào)試。

Arthur Mensch對此談到:當(dāng)人們走向一個(gè)Agents和AI交互的世界,系統(tǒng)的復(fù)雜性也會因此大幅增加。這種高度復(fù)雜的情境可能導(dǎo)致崩潰(Collapse),即機(jī)器學(xué)習(xí)中的一種一切都停滯不前的狀態(tài),如果沒有足夠的自組織和解決問題的意愿,人們可能無法有效地應(yīng)對和管理這些挑戰(zhàn)。

為了解決這個(gè)問題,需要在設(shè)計(jì)和實(shí)現(xiàn)AI系統(tǒng)時(shí)充分考慮系統(tǒng)的可擴(kuò)展性、模塊化和可解釋性。

而小模型通常具有更簡單的結(jié)構(gòu)和更少的參數(shù),這使得具有更好的可調(diào)試性,從而便于讓開發(fā)人員更容易理解和控制模型的性能,從而更快地將Agents推向市場。

03 新的勝出者

在模型層市場被少數(shù)頭部企業(yè)左右的當(dāng)下,小模型的出現(xiàn),無疑為市場打開了新的可能。

從總的態(tài)勢來說,之后的模型層競爭中,小模型可能會對大模型形成一種“農(nóng)村包圍城市”的態(tài)勢。

“農(nóng)村”象征著小模型主要占據(jù)的應(yīng)用領(lǐng)域。這些領(lǐng)域通常包括資源受限的環(huán)境,如物聯(lián)網(wǎng)設(shè)備、智能家居、移動(dòng)設(shè)備和邊緣計(jì)算場景。

在這些領(lǐng)域,小模型的靈活性、低成本和低能耗等特點(diǎn)使它們具有競爭優(yōu)勢。此外,小模型在定制化和遷移學(xué)習(xí)方面的優(yōu)勢,使它們能夠更好地適應(yīng)各種細(xì)分市場和特定任務(wù)。

“城市”則象征著大模型主要占據(jù)的應(yīng)用領(lǐng)域。這些領(lǐng)域通常包括計(jì)算資源豐富、對性能要求較高的場景,如數(shù)據(jù)中心、云計(jì)算和高性能計(jì)算環(huán)境。

在這樣的態(tài)勢下,憑借著細(xì)分市場的優(yōu)勢,以及開源社區(qū)的協(xié)作和共創(chuàng),小模型在性能上會不斷迭代,并逐漸對大模型主導(dǎo)的領(lǐng)域形成一種“鉗制”的優(yōu)勢。

這種關(guān)系,類似于農(nóng)村為城市提供糧食等資源,維持城市的正常運(yùn)行。在AI領(lǐng)域,大模型在特定領(lǐng)域的優(yōu)化和提升,將愈發(fā)難以脫離小模型提供的實(shí)踐場景和技術(shù)支持。

而面對這樣的態(tài)勢,頭部的大模型企業(yè),自然也不甘被鉗制,因此,這些大廠可能的應(yīng)對之策之一,是通過蒸餾(Distillation)或者合成數(shù)據(jù)(Synthetic data generation)等技術(shù)來訓(xùn)練出質(zhì)量更高的小模型。

或者更簡單粗暴一些,直接將小模型團(tuán)隊(duì)收購、兼并,為己所用。

在這樣的情況下,未來小模型領(lǐng)域,怎樣的企業(yè)更有可能勝出?

就大小模型的差異而言,小模型并不像大模型一樣,需要龐大的算力、數(shù)據(jù)作為支撐,在這個(gè)領(lǐng)域,更考驗(yàn)的是對技術(shù)的理解,以及深厚的理論基礎(chǔ)。

因此,將來在小模型領(lǐng)域,更有可能脫穎而出的團(tuán)隊(duì),應(yīng)該會是那些具有強(qiáng)大學(xué)術(shù)、技術(shù)背景,且一線研究者、技術(shù)人員具有更大話語權(quán)的企業(yè)。

例如這次的Mixtral的團(tuán)隊(duì)Mixtral AI, 就是由DeepMind和Meta的三位青年科學(xué)家建立。

聯(lián)創(chuàng)三人,Arthur Mensch,CEO,前DeepMind研究科學(xué)家;Guillaume Lample,首席科學(xué)家,前Meta研究科學(xué)家,Llama項(xiàng)目帶頭;Timothee Lacroix,CTO,前Llama工程帶頭。

在創(chuàng)立Mistral前,Arthur Mensch在DeepMind任職,并主導(dǎo)了LLM、RAG、多模態(tài)三個(gè)領(lǐng)域最重要的論文,十分全能。

對一線研究者而言,唯有自由地踐行自己的技術(shù)構(gòu)想,在初期不過多地被資本干涉與左右,才更有可能做出亮眼的成果。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。