正在閱讀:

深度報告:大模型驅(qū)動 AI 全面提速,黃金十年開啟

掃一掃下載界面新聞APP

深度報告:大模型驅(qū)動 AI 全面提速,黃金十年開啟

“三起三落”后,AI行業(yè)能否一飛沖天?

編輯 | 智東西內(nèi)參

經(jīng)歷過去 70 年的“三起兩落”,伴隨底層芯片、算力、數(shù)據(jù)等基礎(chǔ)設(shè)施的完善&進步,全球 AI 產(chǎn)業(yè)正逐步從運算智能走向感知智能、認知智能,并相應(yīng)形成“芯片、算力設(shè)施、AI 框架&算法模型、應(yīng)用場景”的產(chǎn)業(yè)分工、協(xié)作體系。

2019年以來,AI 大模型帶來問題泛化求解能力大幅提升,“大模型+小模型”逐步成為產(chǎn)業(yè)主流技術(shù)路線,驅(qū)動全球 AI 產(chǎn)業(yè)發(fā)展全面加速,并形成“芯片+算力基礎(chǔ)設(shè)施+AI 框架&算法庫+應(yīng)用場景”的穩(wěn)定產(chǎn)業(yè)價值鏈結(jié)構(gòu)。

來源:中信證券

原標題:《大模型驅(qū)動 AI 全面提速,產(chǎn)業(yè)黃金十年投資周期開啟》

作者:陳俊云 許英博 廖原 劉銳 賈凱方

01.人工智能“三起三落”

自 1956 年“人工智能”概念&理論首次被提出,AI 產(chǎn)業(yè)&技術(shù)發(fā)展主要經(jīng)歷三大發(fā)展階段。

1)20 世紀 50 年代~20 世紀 70 年代:受制于算力性能、數(shù)據(jù)量等,更多停留在理論 層面。1956 年達特茅斯會議推動了全球第一次人工智能浪潮的出現(xiàn),當(dāng)時樂觀的氣氛彌漫著整個學(xué)界,在算法方面出現(xiàn)了很多世界級的發(fā)明,其中包括一種叫做增強學(xué)習(xí)的雛形,增強學(xué)習(xí)就是谷歌 AlphaGo 算法核心思想內(nèi)容。而 70 年代初,AI 遭遇了瓶頸:人們發(fā)現(xiàn)邏輯證明器、感知器、增強學(xué)習(xí)等只能做很簡單、用途狹隘的任務(wù),稍微超出范圍就無法應(yīng)對。當(dāng)時的計算機有限的內(nèi)存和處理速度不足以解決任何實際的 AI 問題。這些計算復(fù)雜度以指數(shù)程度增加,成為了不可能完成的計算任務(wù)。

2)20 世紀 80 年代~20 世紀 90 年代:專家系統(tǒng)是人工智能的第一次商業(yè)化嘗試,高昂的硬件成本、有限的適用場景限制了市場的進一步向前發(fā)展。在 80 年代,專家系統(tǒng) AI程序開始為全世界的公司所采納,而“知識處理”成為了主流 AI 研究的焦點。專家系統(tǒng)的能力來自于它們存儲的專業(yè)知識,知識庫系統(tǒng)和知識工程成為了 80 年代 AI 研究的主要方向。

但是專家系統(tǒng)的實用性僅僅局限于某些特定情景,不久后人們對專家系統(tǒng)的狂熱追捧轉(zhuǎn)向巨大的失望。另一方面,1987 年到 1993 年現(xiàn)代 PC 的出現(xiàn),其費用遠遠低于專家系統(tǒng)所使用的 Symbolics 和 Lisp 等機器。相比于現(xiàn)代 PC,專家系統(tǒng)被認為古老陳舊而非常難以維護。于是,政府經(jīng)費開始下降,寒冬又一次來臨。

3)2015 年至今:逐步形成完整的產(chǎn)業(yè)鏈分工、協(xié)作體系。人工智能第三起的標志性事件發(fā)生在 2016 年 3 月,谷歌 DeepMind 研發(fā)的 AlphaGo 在圍棋人機大戰(zhàn)中擊敗韓國職業(yè)九段棋手李世石。隨后,大眾開始熟知人工智能,各個領(lǐng)域的熱情都被調(diào)動起來。這次事件確立了以 DNN 神經(jīng)網(wǎng)絡(luò)算法為基礎(chǔ)的統(tǒng)計分類深度學(xué)習(xí)模型,這類模型相比于過往更加泛化,通過不同的特征值提取可以適用于不同的應(yīng)用場景中。

同時,2010 年-2015 年移動互聯(lián)網(wǎng)的普及也為深度學(xué)習(xí)算法帶來了前所未有的數(shù)據(jù)養(yǎng)料。得益于數(shù)據(jù)量的上漲、運算力的提升和機器學(xué)習(xí)新算法的出現(xiàn),人工智能開始大調(diào)整。人工智能的研究領(lǐng)域也在不斷擴大,包括專家系統(tǒng)、機器學(xué)習(xí)、進化計算、模糊邏輯、計算機視覺、自然語言處理、推薦系統(tǒng)等。深度學(xué)習(xí)的發(fā)展,讓人工智能進入新的發(fā)展高潮。

▲人工智能發(fā)展的三次浪潮

人工智能第三次浪潮帶給我們一批能給商業(yè)化落地的場景,DNN 算法的出色表現(xiàn)讓語音識別與圖像識別在安防、教育領(lǐng)域貢獻了第一批成功的商業(yè)案例。而近年來基于神經(jīng)網(wǎng)絡(luò)算法之上的 Transformer 等算法的開發(fā)讓 NLP(自然語言處理)的商業(yè)化也提上了日程,有望在未來 3-5 年看到成熟的商業(yè)化場景。

▲人工智能技術(shù)產(chǎn)業(yè)化所需年數(shù)

02.分工逐步完整,落地場景不斷拓展

經(jīng)歷過去 5~6 年的發(fā)展,全球 AI 產(chǎn)業(yè)正逐步形成分工協(xié)作、完整的產(chǎn)業(yè)鏈結(jié)構(gòu),并開始在部分領(lǐng)域形成典型應(yīng)用場景。

1、AI 芯片:從 GPU 到 FPGA 、ASIC 等,性能不斷提升

芯片是 AI 產(chǎn)業(yè)的制高點。本輪人工智能產(chǎn)業(yè)繁榮,緣于大幅提升的 AI 算力,使得深度學(xué)習(xí)和多層神經(jīng)網(wǎng)絡(luò)算法成為可能。人工智能在各個行業(yè)迅速滲透,數(shù)據(jù)隨之海量增長,這導(dǎo)致算法模型極其復(fù)雜,處理對象異構(gòu),計算性能要求高。因此人工智能深度學(xué)習(xí)需要異常強大的并行處理能力,與 CPU 相比,AI 芯片擁有更多邏輯運算單元(ALU)用于數(shù)據(jù)處理,適合對密集型數(shù)據(jù)進行并行處理,主要類型包括圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)、專用集成電路(ASIC)等。

從使用場景來看,相關(guān)硬件包括:云側(cè)推理芯片、云側(cè)測試芯片、終端處理芯片、IP 核心等。在云端的“訓(xùn)練”或“學(xué)習(xí)”環(huán)節(jié),英偉達 GPU 具備較強競爭優(yōu)勢,谷歌 TPU 亦在積極拓展市場和應(yīng)用。在終端的“推理”應(yīng)用領(lǐng)域 FPGA 和 ASIC 可能具備優(yōu)勢。美國在 GPU 和 FPGA 領(lǐng)域具有較強優(yōu)勢,擁有英偉達、賽靈思、AMD 等優(yōu)勢企業(yè),谷歌、亞馬遜亦在積極開發(fā) AI 芯片。

▲芯片在不同 AI 環(huán)節(jié)的應(yīng)用

▲人工智能神經(jīng)網(wǎng)絡(luò)算法模型復(fù)雜度

▲芯片廠商布局

在高性能計算市場,借助 AI 芯片的并行運算能力實現(xiàn)對復(fù)雜問題的求解是目前的主流方案。據(jù) Tractica 數(shù)據(jù)顯示,2019 年全球 AI HPC市場規(guī)模約 13.6 億美元,預(yù)計到 2025 年市場規(guī)模達 111.9 億美元,7 年 CAGR 為 35.1%。AI HPC 市場規(guī)模占比由 2019 年的 13.2%提高至 2025 年的 35.5%。同時 Tractica 數(shù)據(jù)顯示,2019 年全球 AI 芯片市場規(guī)模為 64 億美元,預(yù)計到 2023 年市場規(guī)模達 510 億美元,市場空間增長近 10 倍。

▲邊緣計算芯片出貨量(百萬,按終端設(shè)備)

▲全球人工智能芯片市場規(guī)模(億美元)

近兩年內(nèi),國內(nèi)涌現(xiàn)了大量自研的芯片類公司,以自研 GPU 的摩爾線程、自研自動駕駛芯片的寒武紀等為代表。摩爾線程于 2022 年 3 月發(fā)布了 MUSA 統(tǒng)一系統(tǒng)架構(gòu)及第一代芯片“蘇堤”,摩爾線程的新架構(gòu)支持英偉達的 cuda 架構(gòu)。根據(jù) IDC 數(shù)據(jù),在 2021 年上半年中國人工智能芯片中,GPU 一直是市場首選,占有 90%以上的市場份額,但隨其他芯片的穩(wěn)步發(fā)展,預(yù)計到 2025 年 GPU 占比將逐步降低至 80%。

▲GPU 芯片主要玩家及技術(shù)路線情況

2、算力設(shè)施:借助云計算、自建等方式,算力規(guī)模、單位成本等指標不斷改善

過去算力發(fā)展有效緩解了人工智能的發(fā)展瓶頸。人工智能作為一個年代久遠的概念,過去的發(fā)展一直受限于算力不足,其算力需求的主要來源于兩個方面:1)人工智能最大挑戰(zhàn)之一是識別度與準確度不高,而要提高準確度就需要提高模型的規(guī)模和精確度,這就需要更強的算力支撐。

2)隨著人工智能的應(yīng)用場景逐漸落地,圖像、語音、機器視覺和游戲等領(lǐng)域的數(shù)據(jù)呈現(xiàn)爆發(fā)性增長,也對算力提出了更高的要求,使得計算技術(shù)進入新一輪高速創(chuàng)新期。而過去十幾年算力的發(fā)展有效緩解了人工智能的發(fā)展瓶頸,未來智能計算將呈現(xiàn)出需求更大、性能要求更高、需求隨時隨地且多樣化的特點。

由于接近物理極限,算力增長的摩爾定律逐步失效,算力行業(yè)正處于多要素綜合創(chuàng)新階段。過去算力供應(yīng)提升主要通過工藝制程微縮,即在同一芯片內(nèi)增加晶體管堆疊的數(shù)量來提高計算性能。但隨著工藝制程不斷逼近物理極限,成本不斷提高,使得摩爾定律逐漸失效,算力產(chǎn)業(yè)進入后摩爾時代,算力供應(yīng)需要通過多要素綜合創(chuàng)新提高。

當(dāng)前算力供給有四個層面:單芯片算力、整機算力、數(shù)據(jù)中心算力和網(wǎng)絡(luò)化算力,分別通過不同技術(shù)進行持續(xù)演進升級,以滿足智能時代多樣化算力的供給需求。此外,通過軟硬件系統(tǒng)的深度融合與算法優(yōu)化提升計算系統(tǒng)整體性能,也是算力產(chǎn)業(yè)演進的重要方向。

算力規(guī)模:根據(jù)中國信通院 2021 年發(fā)布的《中國算力發(fā)展指數(shù)白皮書》,2020 年全球算力總規(guī)模依舊保持增長態(tài)勢,總規(guī)模達 429EFlops,同比增長 39%,其中基礎(chǔ)算力規(guī)模 313EFlops、智能算力規(guī)模 107EFlops、超算算力規(guī)模 9EFlops,智能算力占比有所提高。我國算力發(fā)展節(jié)奏與全球相似,2020 年我國算力總規(guī)模達到 135EFlops,占全球算力規(guī)模的 39%,實現(xiàn) 55%的高位增長,并實現(xiàn)連續(xù)三年增速保持 40%以上。

▲全球算力規(guī)模變化

算力結(jié)構(gòu):我國與全球發(fā)展情況相似,智能算力增長迅速,占比從 2016 年的 3%提升至 2020 年的 41%。而基礎(chǔ)算力占比由 2016 年的 95%下降至 2020 年的 57%,在下游需求驅(qū)動下,以智能計算中心為代表的人工智能算力基礎(chǔ)設(shè)施發(fā)展迅猛。同時在未來需求方面,根據(jù)華為 2020 年發(fā)布的《泛在算力:智能社會的基石》報告,隨著人工智能的普及,預(yù)計到 2030 年,人工智能算力的需求將相當(dāng)于 1600 億顆高通驍龍 855 內(nèi)置 AI 芯片,相當(dāng)于 2018 年的約 390 倍、2020 年的約 120 倍。

▲預(yù)計 2030 年人工智能算力需求(EFlops)

數(shù)據(jù)存儲:非關(guān)系型數(shù)據(jù)庫以及用于儲存、治理非結(jié)構(gòu)數(shù)據(jù)的數(shù)據(jù)湖迎來需求爆發(fā)。近年來全球數(shù)據(jù)量呈現(xiàn)爆發(fā)式增長,據(jù) IDC 統(tǒng)計,2019 年全球產(chǎn)生的數(shù)據(jù)量為 41ZB,過去十年的 CAGR 接近 50%,預(yù)計到 2025 年全球數(shù)據(jù)量或高達 175ZB,2019-2025 年仍將維持近 30%的復(fù)合增速,其中超過 80%的數(shù)據(jù)都將是處理難度較大的文本、圖像、音視頻等非結(jié)構(gòu)化數(shù)據(jù)。

數(shù)據(jù)量(尤其是非結(jié)構(gòu)化數(shù)據(jù))的激增使得關(guān)系型數(shù)據(jù)庫的弱點愈加凸顯,面對幾何指數(shù)增長的數(shù)據(jù),傳統(tǒng)為結(jié)構(gòu)型數(shù)據(jù)設(shè)計的關(guān)系型數(shù)據(jù)庫縱向疊加的數(shù)據(jù)延展模式難以滿足。非關(guān)系型數(shù)據(jù)庫以及用于儲存、治理非結(jié)構(gòu)數(shù)據(jù)的數(shù)據(jù)湖,因其靈活性以及易延展性逐漸占據(jù)市場中越來越多的份額。根據(jù) IDC,2020 年全球 Nosql 數(shù)據(jù)庫的市場規(guī)模為 56 億美元,預(yù)計 2025 年將增長至 190 億美元,2020-2025 年復(fù)合增速為 27.6%。同時,根據(jù) IDC,2020 年全球數(shù)據(jù)湖市場規(guī)模為 62 億美元,2020 年市場規(guī)模增速為 34.4%。

▲全球數(shù)據(jù)量及同比增速(ZB,%)

3、AI 框架:相對趨于成熟,少數(shù)巨頭主導(dǎo)

Tensorflow(產(chǎn)業(yè)界)、PyTorch(學(xué)術(shù)界)逐步實現(xiàn)主導(dǎo)。谷歌推出的 Tensorflow為主流與其他開源模塊如 Keras(Tensorflow2 集成了 Keras 模塊)、Facebook 開源的PyTorch 等一起構(gòu)成了目前 AI 學(xué)習(xí)的主流框架。Google Brain 自 2011 年成立起開展了面向科學(xué)研究和谷歌產(chǎn)品開發(fā)的大規(guī)模深度學(xué)習(xí)應(yīng)用研究,其早期工作即是 TensorFlow 的前身 DistBelief。

DistBelief 在谷歌和 Alphabet 旗下其他公司的產(chǎn)品開發(fā)中被改進和廣泛使用。2015 年 11 月,在 DistBelief 的基礎(chǔ)上,谷歌大腦完成了對“第二代機器學(xué)習(xí)系統(tǒng)”TensorFlow 的開發(fā)并對代碼開源。相比于前作,TensorFlow 在性能上有顯著改進、構(gòu)架靈活性和可移植性也得到增強。

Tensorflow 與 Pytorch 雖然本身是開源模塊,但因為深度學(xué)習(xí)框架龐大的模型與復(fù)雜度導(dǎo)致其修改與更新基本完全是由谷歌完成,從而谷歌與 Facebook 也通過對 Tensorflow與 PyTorch 的更新方向直接主導(dǎo)了產(chǎn)業(yè)界對人工智能的開發(fā)模式。

▲全球商用人工智能框架市場份額結(jié)構(gòu)(2021)

Microsoft 在 2020 年以 10 億美元注資 OpenAI,獲得 GPT-3 語言模型的獨家許可。GPT-3 是目前在自然語言生成中最為成功的應(yīng)用,不僅可以用于寫“論文”,也可以應(yīng)用于“自動生成代碼”,自今年 7 月發(fā)布后,也被業(yè)界視為最強大的人工智能語言模型。而Facebook 早在 2013 年創(chuàng)立了 AI 研究院,F(xiàn)AIR 本身并沒有像 AlphaGo 和 GPT-3 那樣著名的模型和應(yīng)用,但是它的團隊已經(jīng)在 Facebook 本身感興趣的領(lǐng)域發(fā)表了學(xué)術(shù)論文,包括計算機視覺、自然語言處理和對話型 AI 等。2021 年,谷歌有 177 篇論文被 NeurIPS(目前人工智能算法的最高期刊)接收并發(fā)表,Microsoft 有 116 篇,DeepMind 有 81 篇,F(xiàn)acebook 有 78 篇,IBM 有 36 篇,而亞馬遜只有 35 篇。

4、算法模型:神經(jīng)網(wǎng)絡(luò)算法為主要理論基礎(chǔ)

深度學(xué)習(xí)正在向深度神經(jīng)網(wǎng)絡(luò)過渡。機器學(xué)習(xí)是通過多層非線性的特征學(xué)習(xí)和分層特征提取,對圖像、聲音等數(shù)據(jù)進行預(yù)測的計算機算法。深度學(xué)習(xí)為一種進階的機器學(xué)習(xí),又稱深度神經(jīng)網(wǎng)絡(luò)(DNN:Deep Neural Networks )。針對不同場景(信息)進行的訓(xùn)練和推斷,建立不同的神經(jīng)網(wǎng)絡(luò)與訓(xùn)練方式,而訓(xùn)練即是通過海量數(shù)據(jù)推演,優(yōu)化每個神經(jīng)元的權(quán)重與傳遞方向的過程。而卷積神經(jīng)網(wǎng)絡(luò),能考慮單一像素與周邊環(huán)境變量,并簡化數(shù)據(jù)提取數(shù)量,進一步提高神經(jīng)網(wǎng)絡(luò)算法的效率。

神經(jīng)網(wǎng)絡(luò)算法成為大數(shù)據(jù)處理核心。AI 通過海量標簽數(shù)據(jù)進行深度學(xué)習(xí),優(yōu)化神經(jīng)網(wǎng)絡(luò)與模型,并導(dǎo)入推理決策的應(yīng)用環(huán)節(jié)。90 年代是機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)算法快速崛起的時期,算法在算力支持下得到商用。90 年代以后,AI 技術(shù)的實際應(yīng)用領(lǐng)域包括了數(shù)據(jù)挖掘、工業(yè)機器人、物流、語音識別、銀行業(yè)軟件、醫(yī)療診斷和搜索引擎等。相關(guān)算法的框架成為科技巨頭的布局重點。

▲主要科技巨頭算法平臺框架

技術(shù)方向上,計算機視覺與機器學(xué)習(xí)為主要的技術(shù)研發(fā)方向。根據(jù) ARXIV 數(shù)據(jù),從理論研究的角度看,計算機視覺和機器學(xué)習(xí)兩個領(lǐng)域在 2015-2020 年發(fā)展迅速,其次是機器人領(lǐng)域。2020 年,ARXIV 上 AI 相關(guān)出版物中,計算機視覺領(lǐng)域出版物數(shù)量超過 11000,位于 AI 相關(guān)出版物數(shù)量之首。

▲2015-2020 年 ARXIV 上 AI 相關(guān)出版物數(shù)量

在過去五年,我們觀察到以 CNN 與 DNN 為主的神經(jīng)網(wǎng)絡(luò)算法是近年來發(fā)展最快的機器學(xué)習(xí)算法,因其在計算機視覺、自然語言處理等領(lǐng)域中的優(yōu)異表現(xiàn),大幅加快了人工智能應(yīng)用的落地速度,是計算機視覺、決策智能迅速邁向成熟的關(guān)鍵因素。從側(cè)視圖可以看出,在語音識別任務(wù)上,標準的 DNN 方法相較于傳統(tǒng)的 KNN、SVM 與隨機森林等方法都有著明顯的優(yōu)勢。

▲卷積算法突破了傳統(tǒng)圖像處理的準確度瓶頸,首次實現(xiàn)工業(yè)化可用

訓(xùn)練成本上看,神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練人工智能的成本明顯降低。ImageNet 是一個包含超過 1400 萬張圖像的數(shù)據(jù)集,用于訓(xùn)練人工智能算法。根據(jù)斯坦福 DAWNBench 團隊的測試,2020 年訓(xùn)練一個現(xiàn)代的圖像識別系統(tǒng)僅需約 7.5 美元,比 2017 年的 1100 美元下降了 99%以上,這主要受益于算法設(shè)計的優(yōu)化、算力成本的下降,以及大規(guī)模人工智能訓(xùn)練基礎(chǔ)設(shè)施的進步。訓(xùn)練系統(tǒng)的速度越快,評估并用新數(shù)據(jù)更新系統(tǒng)的速度就越快,這將進一步加快 ImageNet 系統(tǒng)的訓(xùn)練速度,提高開發(fā)和部署人工智能系統(tǒng)的生產(chǎn)力。

訓(xùn)練時間分布上看,神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練所需時間全面降低。通過分析每個時期的訓(xùn)練時間分布,發(fā)現(xiàn)在過去幾年中,訓(xùn)練時間大大縮短,且訓(xùn)練時間的分布更加集中,這主要受益于加速器芯片的廣泛使用。

▲ImageNet 訓(xùn)練時間分布(分鐘)

在卷積神經(jīng)網(wǎng)絡(luò)的推動下,計算機視覺準確率測試成績明顯提升,正處于產(chǎn)業(yè)化階段。計算機視覺準確率在過去的十年中取得了巨大的進步,這主要歸功于機器學(xué)習(xí)技術(shù)的應(yīng)用。Top-1 準確度測試人工智能系統(tǒng)為圖像分配正確標簽的能力越強,那么其預(yù)測結(jié)果(在所有可能的標簽中)與目標標簽越相同。

在有額外的訓(xùn)練數(shù)據(jù)(例如來自社交媒體的照片)的情況下,2021 年 1 月在 Top-1 準確度測試上每 10 次嘗試中會出現(xiàn) 1 次錯誤,而 2012年 12 月每 10 次嘗試中會出現(xiàn) 4 次錯誤。而另一項精確率測試 Top-5 會讓計算機回答目標標簽是否在分類器的前五個預(yù)測中,其準確率從 2013 年的 85%提高到 2021 年的 99%,超過了代表人類水平的成績 94.9%。

▲TOP-1 準確率變化

▲TOP-5準確率變化

在神經(jīng)網(wǎng)絡(luò)算法發(fā)展的過程中,Transformer 模型在過去五年里成為了主流,整合了過去各種零散的小模型。Transformer 模型是谷歌在 2017 年推出的 NLP 經(jīng)典模型(Bert就是用的 Transformer)。模型的核心部分通常由兩大部分組成,分別是編碼器與解碼器。編/解碼器主要由兩個模塊組合成:前饋神經(jīng)網(wǎng)絡(luò)(圖中藍色的部分)和注意力機制(圖中玫紅色的部分),解碼器通常多一個(交叉)注意力機制。編碼器和解碼器通過模仿神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進行分類與再次聚焦,在機器翻譯任務(wù)上模型表現(xiàn)超過了 RNN 和 CNN,只需要編/解碼器就能達到很好的效果,可以高效地并行化。

AI 大模型化是過去兩年內(nèi)興起的新潮流,自監(jiān)督學(xué)習(xí)+預(yù)訓(xùn)練模型微調(diào)適配方案逐漸成為主流,AI 模型走向大數(shù)據(jù)支撐下的泛化成為可能。傳統(tǒng)的小模型用特定領(lǐng)域有標注的數(shù)據(jù)訓(xùn)練,通用性差,換到另外一個應(yīng)用場景中往往不適用,需要重新訓(xùn)練。而 AI 大模型通常是在大規(guī)模無標注數(shù)據(jù)上進行訓(xùn)練,將大模型進行微調(diào)就可以滿足多種應(yīng)用任務(wù)的需要。以 OpenAI、谷歌、微軟、Facebook、NVIDIA 等機構(gòu)為代表,布局大規(guī)模智能模型已成為全球引領(lǐng)性趨勢,并形成了 GPT-3、Switch Transformer 等大參數(shù)量的基礎(chǔ)模型。

2021 年底英偉達與微軟聯(lián)合開發(fā)的 Megatron-LM 擁有 83 億條參數(shù),而 Facebook 開發(fā)的Megatron 擁有 110 億條參數(shù)。這些參數(shù)大多來自于 reddit、wikipedia、新聞網(wǎng)站等,對大量數(shù)據(jù)存儲及分析所需的數(shù)據(jù)湖等工具將會是下一步研發(fā)的焦點之一。

5、應(yīng)用場景:逐步在安防、互聯(lián)網(wǎng)、零售等領(lǐng)域?qū)崿F(xiàn)落地

目前在應(yīng)用端最成熟的技術(shù)是語音識別、圖像識別等,圍繞這些領(lǐng)域,國內(nèi)、美國都有大量的企業(yè)上市,并形成一定的產(chǎn)業(yè)集群。在語音識別領(lǐng)域,比較成熟的上市企業(yè)包括科大訊飛與此前被微軟以 290 億美元收購的 Nuance。

智慧醫(yī)療:AI+醫(yī)療多應(yīng)用于醫(yī)療輔助場景。在醫(yī)療健康領(lǐng)域的 AI 產(chǎn)品涉及智能問診、病史采集、語音電子病歷、醫(yī)療語音錄入、醫(yī)學(xué)影像診斷、智能隨訪、醫(yī)療云平臺等多類應(yīng)用場景。從醫(yī)院就醫(yī)流程來看,診前產(chǎn)品多為語音助理產(chǎn)品,如導(dǎo)診、病史采集等,診中產(chǎn)品多為語音電子病例、影像輔助診斷,診后產(chǎn)品以隨訪跟蹤類為主。

綜合整個就診流程中的不同產(chǎn)品,當(dāng)前 AI+醫(yī)療的主要應(yīng)用領(lǐng)域仍以輔助場景為主,取代醫(yī)生的體力及重復(fù)性勞動。AI+醫(yī)療的海外龍頭企業(yè)是 Nuance,公司 50%的業(yè)務(wù)來自智能醫(yī)療解決方案,而病歷等臨床醫(yī)療文獻轉(zhuǎn)寫方案是醫(yī)療業(yè)務(wù)的主要收入來源。

智慧城市:大城市病和新型城鎮(zhèn)化給城市治理帶來新挑戰(zhàn),刺激 AI+城市治理的需求。大中型城市隨著人口和機動車數(shù)量的增加,城市擁堵等問題比較突出。隨著新型城鎮(zhèn)化的推進,智慧城市將會成為中國城市的主要發(fā)展模式。而智慧城市涉及的 AI+安防、AI+交通治理將會成為 G 端的主要落地方案。

2016 年杭州首次進行城市數(shù)據(jù)大腦改造,高峰擁堵指數(shù)下降至 1.7 以下。目前以阿里為代表的城市數(shù)據(jù)大腦已經(jīng)進行了超過 15 億元的投資,主要集中在智能安防、智能交通等領(lǐng)域。我國智慧城市產(chǎn)業(yè)規(guī)模持續(xù)擴大,前瞻產(chǎn)業(yè)研究院預(yù)計 2022 年可達 25 萬億元,2014 年至 2022 年的年均復(fù)合增長率為 55.27%。

▲2014-2022 年智慧城市市場規(guī)模及預(yù)測(單位:萬億元)

智慧物流 2020 年市場規(guī)模高達 5710 億元,智能倉儲迎來千億市場。物流行業(yè)成本居高不下及數(shù)字化轉(zhuǎn)型的背景下,倉儲物流及產(chǎn)品制造環(huán)節(jié)面臨著自動化、數(shù)字化、智能化轉(zhuǎn)型的迫切需求,以提升制造和流通效率。根據(jù)中國物流與采購聯(lián)合會的數(shù)據(jù),2020年中國智慧物流市場高達5710億元,2013-2020年的年均復(fù)合增長率為21.61%。物聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、人工智能等新一代信息技術(shù)既促進了智慧物流行業(yè)的發(fā)展,又對智慧物流行業(yè)提出了更高的服務(wù)要求,智慧物流市場規(guī)模有望持續(xù)擴大。據(jù) GGII 測算,2019 年中國智能倉儲市場規(guī)模近 900 億元,而前瞻研究院預(yù)計這一數(shù)字將在 2025 年達到 1500億以上。

▲2013-2020 年中國智慧物流市場規(guī)模及增速

新零售:人工智能將帶來人力成本的縮減與運營效率的提升。Amazon Go 為亞馬遜提出的無人商店概念,無人商店于 2018 年 1 月 22 日在美國西雅圖正式對外營運。AmazonGo 結(jié)合了云計算和機器學(xué)習(xí),應(yīng)用拿了就走技術(shù)(Just Walk Out Technology)和智能識別技術(shù)(Amazon Rekognition)。店內(nèi)的相機、感應(yīng)監(jiān)測器以及背后的機器算法會辨識消費者拿走的商品品項,并且在顧客走出店時將自動結(jié)賬,是零售商業(yè)領(lǐng)域的全新變革。

云化的人工智能模塊組件是各大互聯(lián)網(wǎng)巨頭目前在人工智能商業(yè)化的主要發(fā)力方向, 將人工智能技術(shù)集成在公有云服務(wù)中進行出售。Google Cloud Platform 的 AI 技術(shù)一直走在行業(yè)的最前沿,并致力于將先進的 AI 技術(shù)融入云計算服務(wù)中心。近年來,谷歌收購多家AI 公司,并發(fā)布 AI 專用芯片 TPU、云服務(wù) Cloud AutoML 等產(chǎn)品完善布局。目前谷歌的AI 能力已經(jīng)覆蓋認知服務(wù)、機器學(xué)習(xí)、機器人、數(shù)據(jù)分析&協(xié)作等領(lǐng)域。區(qū)別于部分云廠商在 AI 領(lǐng)域相對分散的產(chǎn)品,谷歌在 AI 產(chǎn)品的運營上更加完整和體系化,將垂直應(yīng)用整合為 AI 基礎(chǔ)組件,將 Tensorflow 與 TPU 運算整合為基礎(chǔ)設(shè)施,形成了一個完整的 AI 平臺服務(wù)。

百度是中國 AI 能力最強的公有云廠商,百度 AI 的核心戰(zhàn)略是開放賦能。百度搭建以DuerOS、Apollo 為代表的 AI 平臺,開放生態(tài),形成數(shù)據(jù)與場景的正向迭代?;诎俣然ヂ?lián)網(wǎng)搜索的數(shù)據(jù)基礎(chǔ),自然語言處理、知識圖譜和用戶畫像技術(shù)逐步成熟。在平臺以及生態(tài)層,百度云是很大的計算平臺,開放給所有的合作伙伴,變成基礎(chǔ)的支撐平臺,上面有百度大腦的各種能力。同時還有一些垂直的解決方案,比如基于自然語言的人機交互的新一代操作系統(tǒng),以及與智能駕駛相關(guān)的 Apollo。整車廠商可以調(diào)用其中他們需要的能力,汽車電子廠商也可以調(diào)用他們需要的相應(yīng)能力,共建整個平臺和生態(tài)。

03.大模型逐步成為主流,產(chǎn)業(yè)有望全面提速

最近幾年來,AI 產(chǎn)業(yè)的技術(shù)演進路線主要呈現(xiàn)如下特征:底層模塊性能的不斷提升,注重模型的泛化能力,從而幫助 AI 算法的通用性優(yōu)化,并反哺數(shù)據(jù)收集。AI 技術(shù)的持續(xù)發(fā)展依靠底層算法的突破,這同時需要以算力為核心的基礎(chǔ)能力建設(shè)以及有大數(shù)據(jù)支撐進行知識和經(jīng)驗學(xué)習(xí)的環(huán)境。

大模型在產(chǎn)業(yè)內(nèi)的快速流行,大模型+小模型的運作模式,以及芯片、算力基礎(chǔ)設(shè)施等底層環(huán)節(jié)能力的不斷改善,以及由此帶來的應(yīng)用場景類別、場景深度的持續(xù)提升,并最終帶來產(chǎn)業(yè)基礎(chǔ)能力、應(yīng)用場景之間的不斷相互促進,并在正向循環(huán)邏輯下,驅(qū)動全球 AI 產(chǎn)業(yè)發(fā)展不斷提速。

大模型帶來較強的通用問題求解能力。當(dāng)前大部分人工智能正處于“手工作坊式”,面對各類行業(yè)的下游應(yīng)用,AI 逐漸展現(xiàn)出碎片化、多樣化的特點,模型通用性不高。為提高通用求解能力,大模型提供了一種可行方案,即“預(yù)訓(xùn)練大模型+下游任務(wù)微調(diào)”。該方案指從大量標記和未標記的數(shù)據(jù)中捕獲知識,通過將知識存儲到大量的參數(shù)中并對特定任務(wù)進行微調(diào),提高模型泛化能力。

大模型有望進一步突破現(xiàn)有模型結(jié)構(gòu)的精度局限,結(jié)合嵌套小模型訓(xùn)練,進一步提升特定場景下的模型效率。過去十年中,模型精度提升主要依賴網(wǎng)絡(luò)在結(jié)構(gòu)上的變革,但隨著神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計技術(shù)逐漸成熟并趨于收斂,精度提升達到瓶頸,而大模型的應(yīng)用有望突破這一瓶頸。以谷歌的視覺遷移模型 Big Transfer,BiT 為例,使用 ILSVRC-2012(128萬張圖片,1000 個類別)和 JFT-300M(3 億張圖片,18291 個類別)兩個數(shù)據(jù)集來訓(xùn)練ResNet50,精度分別是 77%和 79%,大模型的使用使得處于瓶頸的精度進一步提高。另外使用 JFT-300M 訓(xùn)練 ResNet152x4,精度可以上升到 87.5%,相比 ILSVRC-2012+ResNet50 結(jié)構(gòu)提升了 10.5%。

大模型+小模型:泛化大模型人工智能的推廣并結(jié)合特定場景下的數(shù)據(jù)優(yōu)化將成為中期人工智能產(chǎn)業(yè)商業(yè)化的關(guān)鍵。原先針對特定場景重新提取數(shù)據(jù)訓(xùn)練的模式,已經(jīng)被實踐證明難以盈利,重新訓(xùn)練模型的成本過高,而獲得的模型泛用性低下,難以重復(fù)利用。而在芯片算力性能不斷提高的大背景下,大模型嵌套小模型的嘗試提供給了廠商另一個思路,通過分析海量數(shù)據(jù)獲得泛用模型,再通過嵌套特定小模型的方式為不同場景進行優(yōu)化,節(jié)省了大量成本。阿里云、華為云、騰訊云等公有云廠商都在積極開發(fā)自研的大模型平臺,提升模型的通用型。

以英偉達為代表的 AI 芯片巨頭,在新一代芯片中針對產(chǎn)業(yè)中常用的 AI 模型,特別設(shè)計了新引擎以大幅提升計算能力。英偉達的 Hopper 架構(gòu)引入了 Transformer 引擎,大幅加速了 AI 訓(xùn)練。Transformer 引擎采用軟件和自定義 NVIDIA Hopper Tensor Core 技術(shù),該技術(shù)旨在加速訓(xùn)練基于常見 AI 模型構(gòu)建模塊(即 Transformer)構(gòu)建的模型。這些Tensor Core 能夠應(yīng)用 FP8 和 FP16 混合精度,以大幅加速 Transformer 模型的 AI計算。

采用 FP8 的 Tensor Core 運算在吞吐量方面是 16 位運算的兩倍。Transformer引擎利用定制的、經(jīng) NVIDIA 調(diào)優(yōu)的啟發(fā)式算法來解決上述挑戰(zhàn),該算法可在 FP8 與FP16 計算之間動態(tài)選擇,并自動處理每層中這些精度之間的重新投射和縮放。根據(jù)英偉達提供的數(shù)據(jù),Hopper 架構(gòu)在訓(xùn)練 Transformer 模型時,效率可以達到安培模型的 9 倍。

在大模型技術(shù)趨勢下,云廠商正在逐步成為算力市場中的核心玩家,在人工智能技術(shù)框架通過大模型往泛用化發(fā)展后,云廠商也能夠借助 PaaS 能力把底層 IaaS 能力與 PaaS結(jié)合,為市場提供通用性解決方案。我們看到隨著大模型的出現(xiàn),人工智能需要處理與分析的數(shù)據(jù)量日漸上升,同時這部分數(shù)據(jù)從過去的專業(yè)性數(shù)據(jù)集轉(zhuǎn)化為通用型大數(shù)據(jù)。云計算巨頭可以通過本身強大的 PaaS 能力與底層 IaaS 基礎(chǔ)相結(jié)合,為人工智能廠商提供一站式的數(shù)據(jù)處理,這也幫助云計算巨頭成為本輪人工智能浪潮的主要受益者之一。

▲國內(nèi)云計算市場規(guī)模

目前 AWS、Azure 等國際主流云廠商與阿里云、騰訊云、華為云等國內(nèi)頭部云廠商都已開始在數(shù)據(jù)儲存、數(shù)據(jù)處理等 PaaS 能力上重點發(fā)力。存儲能力方面,NoSQL 類型數(shù)據(jù)庫與在數(shù)據(jù)種類日益繁雜的未來會涌現(xiàn)更多機會,如 Google Cloud 就已經(jīng)在對象類、傳統(tǒng)的關(guān)系型數(shù)據(jù)庫以及 NoSQL 類型數(shù)據(jù)庫分散布局。而在數(shù)據(jù)處理方面,Data Lake與 Data Warehouse 的重要性愈發(fā)凸顯,云計算巨頭通過完善這部分產(chǎn)品線,構(gòu)建了一個完整的數(shù)據(jù)循環(huán)模式,并結(jié)合其底層的 IaaS 基礎(chǔ)能力。完整的產(chǎn)品線與閉合的數(shù)據(jù)循環(huán)模式將是未來云計算巨頭在 AI 中間層競爭的最大優(yōu)勢。

伴隨 AI 產(chǎn)業(yè)鏈結(jié)構(gòu)的逐步清晰,以及大模型帶來的產(chǎn)業(yè)運作效率、技術(shù)深度的大幅改善,中期維度,假設(shè) AI技術(shù)不發(fā)生跳變式躍遷前提下,我們判斷 AI 產(chǎn)業(yè)鏈價值有望逐步向兩端靠攏,中間環(huán)節(jié)價值有望持續(xù)減弱,并逐步形成“芯片+算力基礎(chǔ)設(shè)施+AI 框架&算法庫+應(yīng)用場景”的典型產(chǎn)業(yè)鏈結(jié)構(gòu),同時在這樣的產(chǎn)業(yè)結(jié)構(gòu)安排下,我們預(yù)計上游的芯片企業(yè)、云基礎(chǔ)設(shè)施廠商,以及下游的應(yīng)用廠商有望逐步成為 AI 產(chǎn)業(yè)快速發(fā)展的核心受益者。

大模型帶來 AI 底層基礎(chǔ)技術(shù)架構(gòu)的統(tǒng)一,以及對算力的龐大需求等特征,天然有利于云計算公司在此過程中發(fā)揮基礎(chǔ)性角色:云計算具有全球分布最為廣泛、最為強大的硬件算力設(shè)施,同時 AI 框架、通用算法最為一種典型 PaaS 能力,亦傾向于被整合到云廠商的平臺能力當(dāng)中。

因此從技術(shù)通用性、實際商業(yè)需求等維度,在大模型的推動下,云計算巨頭有望逐步成為算力設(shè)施+基礎(chǔ)算法框架環(huán)節(jié)能力的主要提供商,并不斷侵蝕現(xiàn)有的 AI 算法平臺商的商業(yè)空間。從過去云廠商各類產(chǎn)品的報價中可以發(fā)現(xiàn),以 AWS 與 Google 產(chǎn)品為例,美國東部地區(qū)的 Linus按需使用價格正在階梯式降低。

從圖中可以看到,具有 2 個 vCPU,2 個 ECU 和 7.5GiB的 m1.large 產(chǎn)品價格從 2008 年的約 0.4 美元/小時持續(xù)下降到了 2022 年約 0.18 美元/小時。而 Google Cloud 具有 8 個 vCPU 與 30GB 內(nèi)存的 n1-standard-8 產(chǎn)品的按需使用價格也從 2014 年的 0.5 美元/小時下降到 2022 年的 0.38 美元/小時,可見云計算價格呈全面下降趨勢。

在未來 3-5 年,我們將看到更多的 AI 即服務(wù)(AIaaS)產(chǎn)品。此前提到的大模型趨勢,尤其是 GPT-3 的誕生掀起了這個潮流,由于 GPT-3 龐大的參數(shù)量,必須要在龐大的公有云算力如 Azure 規(guī)模的計算設(shè)施上才能運行,于是微軟將它打造成了能夠通過web API 獲取的服務(wù),這也會促使更多的大模型出現(xiàn)。

▲AWS EC2 歷史標準化價格(美元/小時)

在目前的算力條件與可展望的技術(shù)能力支持下,應(yīng)用端將繼續(xù)通過數(shù)據(jù)獲取實現(xiàn)算法迭代與優(yōu)化,完善目前認知智能當(dāng)中仍存在的不足(圖像識別方向),并嘗試往決策智能發(fā)展。根據(jù)目前的技術(shù)能力以及硬件算力支持,實現(xiàn)完全決策智能仍需較長時間;現(xiàn)有場景的繼續(xù)深化的基礎(chǔ)上做出局部性的智能化將是 3-5 年內(nèi)的主要方向。

目前的 AI 應(yīng)用層面仍然過于單點化,而完成局部性的串聯(lián)將成為實現(xiàn)決策智能的第一步。人工智能的軟件類應(yīng)用將包括從底層的驅(qū)動程序,到上層的應(yīng)用程序、算法框架,從面向商業(yè)(制造、金融、物流、零售、地產(chǎn)等),到人(元宇宙、醫(yī)療、人形機器人等)、自動駕駛等領(lǐng)域。

智東西認為,伴隨 AI 芯片、算力設(shè)施、數(shù)據(jù)等基礎(chǔ)要素的不斷完善,以及大模型帶來的問題泛化求解能力的大幅提升,AI 產(chǎn)業(yè)正形成“芯片+算力基礎(chǔ)設(shè)施+AI 框架&算法庫+應(yīng)用場景”的穩(wěn)定產(chǎn)業(yè)價值鏈結(jié)構(gòu),AI 芯片廠商、云計算廠商(算力設(shè)施+算法框架)、AI+應(yīng)用場景廠商、平臺型算法框架廠商等有望持續(xù)成為產(chǎn)業(yè)核心受益者。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

深度報告:大模型驅(qū)動 AI 全面提速,黃金十年開啟

“三起三落”后,AI行業(yè)能否一飛沖天?

編輯 | 智東西內(nèi)參

經(jīng)歷過去 70 年的“三起兩落”,伴隨底層芯片、算力、數(shù)據(jù)等基礎(chǔ)設(shè)施的完善&進步,全球 AI 產(chǎn)業(yè)正逐步從運算智能走向感知智能、認知智能,并相應(yīng)形成“芯片、算力設(shè)施、AI 框架&算法模型、應(yīng)用場景”的產(chǎn)業(yè)分工、協(xié)作體系。

2019年以來,AI 大模型帶來問題泛化求解能力大幅提升,“大模型+小模型”逐步成為產(chǎn)業(yè)主流技術(shù)路線,驅(qū)動全球 AI 產(chǎn)業(yè)發(fā)展全面加速,并形成“芯片+算力基礎(chǔ)設(shè)施+AI 框架&算法庫+應(yīng)用場景”的穩(wěn)定產(chǎn)業(yè)價值鏈結(jié)構(gòu)。

來源:中信證券

原標題:《大模型驅(qū)動 AI 全面提速,產(chǎn)業(yè)黃金十年投資周期開啟》

作者:陳俊云 許英博 廖原 劉銳 賈凱方

01.人工智能“三起三落”

自 1956 年“人工智能”概念&理論首次被提出,AI 產(chǎn)業(yè)&技術(shù)發(fā)展主要經(jīng)歷三大發(fā)展階段。

1)20 世紀 50 年代~20 世紀 70 年代:受制于算力性能、數(shù)據(jù)量等,更多停留在理論 層面。1956 年達特茅斯會議推動了全球第一次人工智能浪潮的出現(xiàn),當(dāng)時樂觀的氣氛彌漫著整個學(xué)界,在算法方面出現(xiàn)了很多世界級的發(fā)明,其中包括一種叫做增強學(xué)習(xí)的雛形,增強學(xué)習(xí)就是谷歌 AlphaGo 算法核心思想內(nèi)容。而 70 年代初,AI 遭遇了瓶頸:人們發(fā)現(xiàn)邏輯證明器、感知器、增強學(xué)習(xí)等只能做很簡單、用途狹隘的任務(wù),稍微超出范圍就無法應(yīng)對。當(dāng)時的計算機有限的內(nèi)存和處理速度不足以解決任何實際的 AI 問題。這些計算復(fù)雜度以指數(shù)程度增加,成為了不可能完成的計算任務(wù)。

2)20 世紀 80 年代~20 世紀 90 年代:專家系統(tǒng)是人工智能的第一次商業(yè)化嘗試,高昂的硬件成本、有限的適用場景限制了市場的進一步向前發(fā)展。在 80 年代,專家系統(tǒng) AI程序開始為全世界的公司所采納,而“知識處理”成為了主流 AI 研究的焦點。專家系統(tǒng)的能力來自于它們存儲的專業(yè)知識,知識庫系統(tǒng)和知識工程成為了 80 年代 AI 研究的主要方向。

但是專家系統(tǒng)的實用性僅僅局限于某些特定情景,不久后人們對專家系統(tǒng)的狂熱追捧轉(zhuǎn)向巨大的失望。另一方面,1987 年到 1993 年現(xiàn)代 PC 的出現(xiàn),其費用遠遠低于專家系統(tǒng)所使用的 Symbolics 和 Lisp 等機器。相比于現(xiàn)代 PC,專家系統(tǒng)被認為古老陳舊而非常難以維護。于是,政府經(jīng)費開始下降,寒冬又一次來臨。

3)2015 年至今:逐步形成完整的產(chǎn)業(yè)鏈分工、協(xié)作體系。人工智能第三起的標志性事件發(fā)生在 2016 年 3 月,谷歌 DeepMind 研發(fā)的 AlphaGo 在圍棋人機大戰(zhàn)中擊敗韓國職業(yè)九段棋手李世石。隨后,大眾開始熟知人工智能,各個領(lǐng)域的熱情都被調(diào)動起來。這次事件確立了以 DNN 神經(jīng)網(wǎng)絡(luò)算法為基礎(chǔ)的統(tǒng)計分類深度學(xué)習(xí)模型,這類模型相比于過往更加泛化,通過不同的特征值提取可以適用于不同的應(yīng)用場景中。

同時,2010 年-2015 年移動互聯(lián)網(wǎng)的普及也為深度學(xué)習(xí)算法帶來了前所未有的數(shù)據(jù)養(yǎng)料。得益于數(shù)據(jù)量的上漲、運算力的提升和機器學(xué)習(xí)新算法的出現(xiàn),人工智能開始大調(diào)整。人工智能的研究領(lǐng)域也在不斷擴大,包括專家系統(tǒng)、機器學(xué)習(xí)、進化計算、模糊邏輯、計算機視覺、自然語言處理、推薦系統(tǒng)等。深度學(xué)習(xí)的發(fā)展,讓人工智能進入新的發(fā)展高潮。

▲人工智能發(fā)展的三次浪潮

人工智能第三次浪潮帶給我們一批能給商業(yè)化落地的場景,DNN 算法的出色表現(xiàn)讓語音識別與圖像識別在安防、教育領(lǐng)域貢獻了第一批成功的商業(yè)案例。而近年來基于神經(jīng)網(wǎng)絡(luò)算法之上的 Transformer 等算法的開發(fā)讓 NLP(自然語言處理)的商業(yè)化也提上了日程,有望在未來 3-5 年看到成熟的商業(yè)化場景。

▲人工智能技術(shù)產(chǎn)業(yè)化所需年數(shù)

02.分工逐步完整,落地場景不斷拓展

經(jīng)歷過去 5~6 年的發(fā)展,全球 AI 產(chǎn)業(yè)正逐步形成分工協(xié)作、完整的產(chǎn)業(yè)鏈結(jié)構(gòu),并開始在部分領(lǐng)域形成典型應(yīng)用場景。

1、AI 芯片:從 GPU 到 FPGA 、ASIC 等,性能不斷提升

芯片是 AI 產(chǎn)業(yè)的制高點。本輪人工智能產(chǎn)業(yè)繁榮,緣于大幅提升的 AI 算力,使得深度學(xué)習(xí)和多層神經(jīng)網(wǎng)絡(luò)算法成為可能。人工智能在各個行業(yè)迅速滲透,數(shù)據(jù)隨之海量增長,這導(dǎo)致算法模型極其復(fù)雜,處理對象異構(gòu),計算性能要求高。因此人工智能深度學(xué)習(xí)需要異常強大的并行處理能力,與 CPU 相比,AI 芯片擁有更多邏輯運算單元(ALU)用于數(shù)據(jù)處理,適合對密集型數(shù)據(jù)進行并行處理,主要類型包括圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)、專用集成電路(ASIC)等。

從使用場景來看,相關(guān)硬件包括:云側(cè)推理芯片、云側(cè)測試芯片、終端處理芯片、IP 核心等。在云端的“訓(xùn)練”或“學(xué)習(xí)”環(huán)節(jié),英偉達 GPU 具備較強競爭優(yōu)勢,谷歌 TPU 亦在積極拓展市場和應(yīng)用。在終端的“推理”應(yīng)用領(lǐng)域 FPGA 和 ASIC 可能具備優(yōu)勢。美國在 GPU 和 FPGA 領(lǐng)域具有較強優(yōu)勢,擁有英偉達、賽靈思、AMD 等優(yōu)勢企業(yè),谷歌、亞馬遜亦在積極開發(fā) AI 芯片。

▲芯片在不同 AI 環(huán)節(jié)的應(yīng)用

▲人工智能神經(jīng)網(wǎng)絡(luò)算法模型復(fù)雜度

▲芯片廠商布局

在高性能計算市場,借助 AI 芯片的并行運算能力實現(xiàn)對復(fù)雜問題的求解是目前的主流方案。據(jù) Tractica 數(shù)據(jù)顯示,2019 年全球 AI HPC市場規(guī)模約 13.6 億美元,預(yù)計到 2025 年市場規(guī)模達 111.9 億美元,7 年 CAGR 為 35.1%。AI HPC 市場規(guī)模占比由 2019 年的 13.2%提高至 2025 年的 35.5%。同時 Tractica 數(shù)據(jù)顯示,2019 年全球 AI 芯片市場規(guī)模為 64 億美元,預(yù)計到 2023 年市場規(guī)模達 510 億美元,市場空間增長近 10 倍。

▲邊緣計算芯片出貨量(百萬,按終端設(shè)備)

▲全球人工智能芯片市場規(guī)模(億美元)

近兩年內(nèi),國內(nèi)涌現(xiàn)了大量自研的芯片類公司,以自研 GPU 的摩爾線程、自研自動駕駛芯片的寒武紀等為代表。摩爾線程于 2022 年 3 月發(fā)布了 MUSA 統(tǒng)一系統(tǒng)架構(gòu)及第一代芯片“蘇堤”,摩爾線程的新架構(gòu)支持英偉達的 cuda 架構(gòu)。根據(jù) IDC 數(shù)據(jù),在 2021 年上半年中國人工智能芯片中,GPU 一直是市場首選,占有 90%以上的市場份額,但隨其他芯片的穩(wěn)步發(fā)展,預(yù)計到 2025 年 GPU 占比將逐步降低至 80%。

▲GPU 芯片主要玩家及技術(shù)路線情況

2、算力設(shè)施:借助云計算、自建等方式,算力規(guī)模、單位成本等指標不斷改善

過去算力發(fā)展有效緩解了人工智能的發(fā)展瓶頸。人工智能作為一個年代久遠的概念,過去的發(fā)展一直受限于算力不足,其算力需求的主要來源于兩個方面:1)人工智能最大挑戰(zhàn)之一是識別度與準確度不高,而要提高準確度就需要提高模型的規(guī)模和精確度,這就需要更強的算力支撐。

2)隨著人工智能的應(yīng)用場景逐漸落地,圖像、語音、機器視覺和游戲等領(lǐng)域的數(shù)據(jù)呈現(xiàn)爆發(fā)性增長,也對算力提出了更高的要求,使得計算技術(shù)進入新一輪高速創(chuàng)新期。而過去十幾年算力的發(fā)展有效緩解了人工智能的發(fā)展瓶頸,未來智能計算將呈現(xiàn)出需求更大、性能要求更高、需求隨時隨地且多樣化的特點。

由于接近物理極限,算力增長的摩爾定律逐步失效,算力行業(yè)正處于多要素綜合創(chuàng)新階段。過去算力供應(yīng)提升主要通過工藝制程微縮,即在同一芯片內(nèi)增加晶體管堆疊的數(shù)量來提高計算性能。但隨著工藝制程不斷逼近物理極限,成本不斷提高,使得摩爾定律逐漸失效,算力產(chǎn)業(yè)進入后摩爾時代,算力供應(yīng)需要通過多要素綜合創(chuàng)新提高。

當(dāng)前算力供給有四個層面:單芯片算力、整機算力、數(shù)據(jù)中心算力和網(wǎng)絡(luò)化算力,分別通過不同技術(shù)進行持續(xù)演進升級,以滿足智能時代多樣化算力的供給需求。此外,通過軟硬件系統(tǒng)的深度融合與算法優(yōu)化提升計算系統(tǒng)整體性能,也是算力產(chǎn)業(yè)演進的重要方向。

算力規(guī)模:根據(jù)中國信通院 2021 年發(fā)布的《中國算力發(fā)展指數(shù)白皮書》,2020 年全球算力總規(guī)模依舊保持增長態(tài)勢,總規(guī)模達 429EFlops,同比增長 39%,其中基礎(chǔ)算力規(guī)模 313EFlops、智能算力規(guī)模 107EFlops、超算算力規(guī)模 9EFlops,智能算力占比有所提高。我國算力發(fā)展節(jié)奏與全球相似,2020 年我國算力總規(guī)模達到 135EFlops,占全球算力規(guī)模的 39%,實現(xiàn) 55%的高位增長,并實現(xiàn)連續(xù)三年增速保持 40%以上。

▲全球算力規(guī)模變化

算力結(jié)構(gòu):我國與全球發(fā)展情況相似,智能算力增長迅速,占比從 2016 年的 3%提升至 2020 年的 41%。而基礎(chǔ)算力占比由 2016 年的 95%下降至 2020 年的 57%,在下游需求驅(qū)動下,以智能計算中心為代表的人工智能算力基礎(chǔ)設(shè)施發(fā)展迅猛。同時在未來需求方面,根據(jù)華為 2020 年發(fā)布的《泛在算力:智能社會的基石》報告,隨著人工智能的普及,預(yù)計到 2030 年,人工智能算力的需求將相當(dāng)于 1600 億顆高通驍龍 855 內(nèi)置 AI 芯片,相當(dāng)于 2018 年的約 390 倍、2020 年的約 120 倍。

▲預(yù)計 2030 年人工智能算力需求(EFlops)

數(shù)據(jù)存儲:非關(guān)系型數(shù)據(jù)庫以及用于儲存、治理非結(jié)構(gòu)數(shù)據(jù)的數(shù)據(jù)湖迎來需求爆發(fā)。近年來全球數(shù)據(jù)量呈現(xiàn)爆發(fā)式增長,據(jù) IDC 統(tǒng)計,2019 年全球產(chǎn)生的數(shù)據(jù)量為 41ZB,過去十年的 CAGR 接近 50%,預(yù)計到 2025 年全球數(shù)據(jù)量或高達 175ZB,2019-2025 年仍將維持近 30%的復(fù)合增速,其中超過 80%的數(shù)據(jù)都將是處理難度較大的文本、圖像、音視頻等非結(jié)構(gòu)化數(shù)據(jù)。

數(shù)據(jù)量(尤其是非結(jié)構(gòu)化數(shù)據(jù))的激增使得關(guān)系型數(shù)據(jù)庫的弱點愈加凸顯,面對幾何指數(shù)增長的數(shù)據(jù),傳統(tǒng)為結(jié)構(gòu)型數(shù)據(jù)設(shè)計的關(guān)系型數(shù)據(jù)庫縱向疊加的數(shù)據(jù)延展模式難以滿足。非關(guān)系型數(shù)據(jù)庫以及用于儲存、治理非結(jié)構(gòu)數(shù)據(jù)的數(shù)據(jù)湖,因其靈活性以及易延展性逐漸占據(jù)市場中越來越多的份額。根據(jù) IDC,2020 年全球 Nosql 數(shù)據(jù)庫的市場規(guī)模為 56 億美元,預(yù)計 2025 年將增長至 190 億美元,2020-2025 年復(fù)合增速為 27.6%。同時,根據(jù) IDC,2020 年全球數(shù)據(jù)湖市場規(guī)模為 62 億美元,2020 年市場規(guī)模增速為 34.4%。

▲全球數(shù)據(jù)量及同比增速(ZB,%)

3、AI 框架:相對趨于成熟,少數(shù)巨頭主導(dǎo)

Tensorflow(產(chǎn)業(yè)界)、PyTorch(學(xué)術(shù)界)逐步實現(xiàn)主導(dǎo)。谷歌推出的 Tensorflow為主流與其他開源模塊如 Keras(Tensorflow2 集成了 Keras 模塊)、Facebook 開源的PyTorch 等一起構(gòu)成了目前 AI 學(xué)習(xí)的主流框架。Google Brain 自 2011 年成立起開展了面向科學(xué)研究和谷歌產(chǎn)品開發(fā)的大規(guī)模深度學(xué)習(xí)應(yīng)用研究,其早期工作即是 TensorFlow 的前身 DistBelief。

DistBelief 在谷歌和 Alphabet 旗下其他公司的產(chǎn)品開發(fā)中被改進和廣泛使用。2015 年 11 月,在 DistBelief 的基礎(chǔ)上,谷歌大腦完成了對“第二代機器學(xué)習(xí)系統(tǒng)”TensorFlow 的開發(fā)并對代碼開源。相比于前作,TensorFlow 在性能上有顯著改進、構(gòu)架靈活性和可移植性也得到增強。

Tensorflow 與 Pytorch 雖然本身是開源模塊,但因為深度學(xué)習(xí)框架龐大的模型與復(fù)雜度導(dǎo)致其修改與更新基本完全是由谷歌完成,從而谷歌與 Facebook 也通過對 Tensorflow與 PyTorch 的更新方向直接主導(dǎo)了產(chǎn)業(yè)界對人工智能的開發(fā)模式。

▲全球商用人工智能框架市場份額結(jié)構(gòu)(2021)

Microsoft 在 2020 年以 10 億美元注資 OpenAI,獲得 GPT-3 語言模型的獨家許可。GPT-3 是目前在自然語言生成中最為成功的應(yīng)用,不僅可以用于寫“論文”,也可以應(yīng)用于“自動生成代碼”,自今年 7 月發(fā)布后,也被業(yè)界視為最強大的人工智能語言模型。而Facebook 早在 2013 年創(chuàng)立了 AI 研究院,F(xiàn)AIR 本身并沒有像 AlphaGo 和 GPT-3 那樣著名的模型和應(yīng)用,但是它的團隊已經(jīng)在 Facebook 本身感興趣的領(lǐng)域發(fā)表了學(xué)術(shù)論文,包括計算機視覺、自然語言處理和對話型 AI 等。2021 年,谷歌有 177 篇論文被 NeurIPS(目前人工智能算法的最高期刊)接收并發(fā)表,Microsoft 有 116 篇,DeepMind 有 81 篇,F(xiàn)acebook 有 78 篇,IBM 有 36 篇,而亞馬遜只有 35 篇。

4、算法模型:神經(jīng)網(wǎng)絡(luò)算法為主要理論基礎(chǔ)

深度學(xué)習(xí)正在向深度神經(jīng)網(wǎng)絡(luò)過渡。機器學(xué)習(xí)是通過多層非線性的特征學(xué)習(xí)和分層特征提取,對圖像、聲音等數(shù)據(jù)進行預(yù)測的計算機算法。深度學(xué)習(xí)為一種進階的機器學(xué)習(xí),又稱深度神經(jīng)網(wǎng)絡(luò)(DNN:Deep Neural Networks )。針對不同場景(信息)進行的訓(xùn)練和推斷,建立不同的神經(jīng)網(wǎng)絡(luò)與訓(xùn)練方式,而訓(xùn)練即是通過海量數(shù)據(jù)推演,優(yōu)化每個神經(jīng)元的權(quán)重與傳遞方向的過程。而卷積神經(jīng)網(wǎng)絡(luò),能考慮單一像素與周邊環(huán)境變量,并簡化數(shù)據(jù)提取數(shù)量,進一步提高神經(jīng)網(wǎng)絡(luò)算法的效率。

神經(jīng)網(wǎng)絡(luò)算法成為大數(shù)據(jù)處理核心。AI 通過海量標簽數(shù)據(jù)進行深度學(xué)習(xí),優(yōu)化神經(jīng)網(wǎng)絡(luò)與模型,并導(dǎo)入推理決策的應(yīng)用環(huán)節(jié)。90 年代是機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)算法快速崛起的時期,算法在算力支持下得到商用。90 年代以后,AI 技術(shù)的實際應(yīng)用領(lǐng)域包括了數(shù)據(jù)挖掘、工業(yè)機器人、物流、語音識別、銀行業(yè)軟件、醫(yī)療診斷和搜索引擎等。相關(guān)算法的框架成為科技巨頭的布局重點。

▲主要科技巨頭算法平臺框架

技術(shù)方向上,計算機視覺與機器學(xué)習(xí)為主要的技術(shù)研發(fā)方向。根據(jù) ARXIV 數(shù)據(jù),從理論研究的角度看,計算機視覺和機器學(xué)習(xí)兩個領(lǐng)域在 2015-2020 年發(fā)展迅速,其次是機器人領(lǐng)域。2020 年,ARXIV 上 AI 相關(guān)出版物中,計算機視覺領(lǐng)域出版物數(shù)量超過 11000,位于 AI 相關(guān)出版物數(shù)量之首。

▲2015-2020 年 ARXIV 上 AI 相關(guān)出版物數(shù)量

在過去五年,我們觀察到以 CNN 與 DNN 為主的神經(jīng)網(wǎng)絡(luò)算法是近年來發(fā)展最快的機器學(xué)習(xí)算法,因其在計算機視覺、自然語言處理等領(lǐng)域中的優(yōu)異表現(xiàn),大幅加快了人工智能應(yīng)用的落地速度,是計算機視覺、決策智能迅速邁向成熟的關(guān)鍵因素。從側(cè)視圖可以看出,在語音識別任務(wù)上,標準的 DNN 方法相較于傳統(tǒng)的 KNN、SVM 與隨機森林等方法都有著明顯的優(yōu)勢。

▲卷積算法突破了傳統(tǒng)圖像處理的準確度瓶頸,首次實現(xiàn)工業(yè)化可用

訓(xùn)練成本上看,神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練人工智能的成本明顯降低。ImageNet 是一個包含超過 1400 萬張圖像的數(shù)據(jù)集,用于訓(xùn)練人工智能算法。根據(jù)斯坦福 DAWNBench 團隊的測試,2020 年訓(xùn)練一個現(xiàn)代的圖像識別系統(tǒng)僅需約 7.5 美元,比 2017 年的 1100 美元下降了 99%以上,這主要受益于算法設(shè)計的優(yōu)化、算力成本的下降,以及大規(guī)模人工智能訓(xùn)練基礎(chǔ)設(shè)施的進步。訓(xùn)練系統(tǒng)的速度越快,評估并用新數(shù)據(jù)更新系統(tǒng)的速度就越快,這將進一步加快 ImageNet 系統(tǒng)的訓(xùn)練速度,提高開發(fā)和部署人工智能系統(tǒng)的生產(chǎn)力。

訓(xùn)練時間分布上看,神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練所需時間全面降低。通過分析每個時期的訓(xùn)練時間分布,發(fā)現(xiàn)在過去幾年中,訓(xùn)練時間大大縮短,且訓(xùn)練時間的分布更加集中,這主要受益于加速器芯片的廣泛使用。

▲ImageNet 訓(xùn)練時間分布(分鐘)

在卷積神經(jīng)網(wǎng)絡(luò)的推動下,計算機視覺準確率測試成績明顯提升,正處于產(chǎn)業(yè)化階段。計算機視覺準確率在過去的十年中取得了巨大的進步,這主要歸功于機器學(xué)習(xí)技術(shù)的應(yīng)用。Top-1 準確度測試人工智能系統(tǒng)為圖像分配正確標簽的能力越強,那么其預(yù)測結(jié)果(在所有可能的標簽中)與目標標簽越相同。

在有額外的訓(xùn)練數(shù)據(jù)(例如來自社交媒體的照片)的情況下,2021 年 1 月在 Top-1 準確度測試上每 10 次嘗試中會出現(xiàn) 1 次錯誤,而 2012年 12 月每 10 次嘗試中會出現(xiàn) 4 次錯誤。而另一項精確率測試 Top-5 會讓計算機回答目標標簽是否在分類器的前五個預(yù)測中,其準確率從 2013 年的 85%提高到 2021 年的 99%,超過了代表人類水平的成績 94.9%。

▲TOP-1 準確率變化

▲TOP-5準確率變化

在神經(jīng)網(wǎng)絡(luò)算法發(fā)展的過程中,Transformer 模型在過去五年里成為了主流,整合了過去各種零散的小模型。Transformer 模型是谷歌在 2017 年推出的 NLP 經(jīng)典模型(Bert就是用的 Transformer)。模型的核心部分通常由兩大部分組成,分別是編碼器與解碼器。編/解碼器主要由兩個模塊組合成:前饋神經(jīng)網(wǎng)絡(luò)(圖中藍色的部分)和注意力機制(圖中玫紅色的部分),解碼器通常多一個(交叉)注意力機制。編碼器和解碼器通過模仿神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進行分類與再次聚焦,在機器翻譯任務(wù)上模型表現(xiàn)超過了 RNN 和 CNN,只需要編/解碼器就能達到很好的效果,可以高效地并行化。

AI 大模型化是過去兩年內(nèi)興起的新潮流,自監(jiān)督學(xué)習(xí)+預(yù)訓(xùn)練模型微調(diào)適配方案逐漸成為主流,AI 模型走向大數(shù)據(jù)支撐下的泛化成為可能。傳統(tǒng)的小模型用特定領(lǐng)域有標注的數(shù)據(jù)訓(xùn)練,通用性差,換到另外一個應(yīng)用場景中往往不適用,需要重新訓(xùn)練。而 AI 大模型通常是在大規(guī)模無標注數(shù)據(jù)上進行訓(xùn)練,將大模型進行微調(diào)就可以滿足多種應(yīng)用任務(wù)的需要。以 OpenAI、谷歌、微軟、Facebook、NVIDIA 等機構(gòu)為代表,布局大規(guī)模智能模型已成為全球引領(lǐng)性趨勢,并形成了 GPT-3、Switch Transformer 等大參數(shù)量的基礎(chǔ)模型。

2021 年底英偉達與微軟聯(lián)合開發(fā)的 Megatron-LM 擁有 83 億條參數(shù),而 Facebook 開發(fā)的Megatron 擁有 110 億條參數(shù)。這些參數(shù)大多來自于 reddit、wikipedia、新聞網(wǎng)站等,對大量數(shù)據(jù)存儲及分析所需的數(shù)據(jù)湖等工具將會是下一步研發(fā)的焦點之一。

5、應(yīng)用場景:逐步在安防、互聯(lián)網(wǎng)、零售等領(lǐng)域?qū)崿F(xiàn)落地

目前在應(yīng)用端最成熟的技術(shù)是語音識別、圖像識別等,圍繞這些領(lǐng)域,國內(nèi)、美國都有大量的企業(yè)上市,并形成一定的產(chǎn)業(yè)集群。在語音識別領(lǐng)域,比較成熟的上市企業(yè)包括科大訊飛與此前被微軟以 290 億美元收購的 Nuance。

智慧醫(yī)療:AI+醫(yī)療多應(yīng)用于醫(yī)療輔助場景。在醫(yī)療健康領(lǐng)域的 AI 產(chǎn)品涉及智能問診、病史采集、語音電子病歷、醫(yī)療語音錄入、醫(yī)學(xué)影像診斷、智能隨訪、醫(yī)療云平臺等多類應(yīng)用場景。從醫(yī)院就醫(yī)流程來看,診前產(chǎn)品多為語音助理產(chǎn)品,如導(dǎo)診、病史采集等,診中產(chǎn)品多為語音電子病例、影像輔助診斷,診后產(chǎn)品以隨訪跟蹤類為主。

綜合整個就診流程中的不同產(chǎn)品,當(dāng)前 AI+醫(yī)療的主要應(yīng)用領(lǐng)域仍以輔助場景為主,取代醫(yī)生的體力及重復(fù)性勞動。AI+醫(yī)療的海外龍頭企業(yè)是 Nuance,公司 50%的業(yè)務(wù)來自智能醫(yī)療解決方案,而病歷等臨床醫(yī)療文獻轉(zhuǎn)寫方案是醫(yī)療業(yè)務(wù)的主要收入來源。

智慧城市:大城市病和新型城鎮(zhèn)化給城市治理帶來新挑戰(zhàn),刺激 AI+城市治理的需求。大中型城市隨著人口和機動車數(shù)量的增加,城市擁堵等問題比較突出。隨著新型城鎮(zhèn)化的推進,智慧城市將會成為中國城市的主要發(fā)展模式。而智慧城市涉及的 AI+安防、AI+交通治理將會成為 G 端的主要落地方案。

2016 年杭州首次進行城市數(shù)據(jù)大腦改造,高峰擁堵指數(shù)下降至 1.7 以下。目前以阿里為代表的城市數(shù)據(jù)大腦已經(jīng)進行了超過 15 億元的投資,主要集中在智能安防、智能交通等領(lǐng)域。我國智慧城市產(chǎn)業(yè)規(guī)模持續(xù)擴大,前瞻產(chǎn)業(yè)研究院預(yù)計 2022 年可達 25 萬億元,2014 年至 2022 年的年均復(fù)合增長率為 55.27%。

▲2014-2022 年智慧城市市場規(guī)模及預(yù)測(單位:萬億元)

智慧物流 2020 年市場規(guī)模高達 5710 億元,智能倉儲迎來千億市場。物流行業(yè)成本居高不下及數(shù)字化轉(zhuǎn)型的背景下,倉儲物流及產(chǎn)品制造環(huán)節(jié)面臨著自動化、數(shù)字化、智能化轉(zhuǎn)型的迫切需求,以提升制造和流通效率。根據(jù)中國物流與采購聯(lián)合會的數(shù)據(jù),2020年中國智慧物流市場高達5710億元,2013-2020年的年均復(fù)合增長率為21.61%。物聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、人工智能等新一代信息技術(shù)既促進了智慧物流行業(yè)的發(fā)展,又對智慧物流行業(yè)提出了更高的服務(wù)要求,智慧物流市場規(guī)模有望持續(xù)擴大。據(jù) GGII 測算,2019 年中國智能倉儲市場規(guī)模近 900 億元,而前瞻研究院預(yù)計這一數(shù)字將在 2025 年達到 1500億以上。

▲2013-2020 年中國智慧物流市場規(guī)模及增速

新零售:人工智能將帶來人力成本的縮減與運營效率的提升。Amazon Go 為亞馬遜提出的無人商店概念,無人商店于 2018 年 1 月 22 日在美國西雅圖正式對外營運。AmazonGo 結(jié)合了云計算和機器學(xué)習(xí),應(yīng)用拿了就走技術(shù)(Just Walk Out Technology)和智能識別技術(shù)(Amazon Rekognition)。店內(nèi)的相機、感應(yīng)監(jiān)測器以及背后的機器算法會辨識消費者拿走的商品品項,并且在顧客走出店時將自動結(jié)賬,是零售商業(yè)領(lǐng)域的全新變革。

云化的人工智能模塊組件是各大互聯(lián)網(wǎng)巨頭目前在人工智能商業(yè)化的主要發(fā)力方向, 將人工智能技術(shù)集成在公有云服務(wù)中進行出售。Google Cloud Platform 的 AI 技術(shù)一直走在行業(yè)的最前沿,并致力于將先進的 AI 技術(shù)融入云計算服務(wù)中心。近年來,谷歌收購多家AI 公司,并發(fā)布 AI 專用芯片 TPU、云服務(wù) Cloud AutoML 等產(chǎn)品完善布局。目前谷歌的AI 能力已經(jīng)覆蓋認知服務(wù)、機器學(xué)習(xí)、機器人、數(shù)據(jù)分析&協(xié)作等領(lǐng)域。區(qū)別于部分云廠商在 AI 領(lǐng)域相對分散的產(chǎn)品,谷歌在 AI 產(chǎn)品的運營上更加完整和體系化,將垂直應(yīng)用整合為 AI 基礎(chǔ)組件,將 Tensorflow 與 TPU 運算整合為基礎(chǔ)設(shè)施,形成了一個完整的 AI 平臺服務(wù)。

百度是中國 AI 能力最強的公有云廠商,百度 AI 的核心戰(zhàn)略是開放賦能。百度搭建以DuerOS、Apollo 為代表的 AI 平臺,開放生態(tài),形成數(shù)據(jù)與場景的正向迭代。基于百度互聯(lián)網(wǎng)搜索的數(shù)據(jù)基礎(chǔ),自然語言處理、知識圖譜和用戶畫像技術(shù)逐步成熟。在平臺以及生態(tài)層,百度云是很大的計算平臺,開放給所有的合作伙伴,變成基礎(chǔ)的支撐平臺,上面有百度大腦的各種能力。同時還有一些垂直的解決方案,比如基于自然語言的人機交互的新一代操作系統(tǒng),以及與智能駕駛相關(guān)的 Apollo。整車廠商可以調(diào)用其中他們需要的能力,汽車電子廠商也可以調(diào)用他們需要的相應(yīng)能力,共建整個平臺和生態(tài)。

03.大模型逐步成為主流,產(chǎn)業(yè)有望全面提速

最近幾年來,AI 產(chǎn)業(yè)的技術(shù)演進路線主要呈現(xiàn)如下特征:底層模塊性能的不斷提升,注重模型的泛化能力,從而幫助 AI 算法的通用性優(yōu)化,并反哺數(shù)據(jù)收集。AI 技術(shù)的持續(xù)發(fā)展依靠底層算法的突破,這同時需要以算力為核心的基礎(chǔ)能力建設(shè)以及有大數(shù)據(jù)支撐進行知識和經(jīng)驗學(xué)習(xí)的環(huán)境。

大模型在產(chǎn)業(yè)內(nèi)的快速流行,大模型+小模型的運作模式,以及芯片、算力基礎(chǔ)設(shè)施等底層環(huán)節(jié)能力的不斷改善,以及由此帶來的應(yīng)用場景類別、場景深度的持續(xù)提升,并最終帶來產(chǎn)業(yè)基礎(chǔ)能力、應(yīng)用場景之間的不斷相互促進,并在正向循環(huán)邏輯下,驅(qū)動全球 AI 產(chǎn)業(yè)發(fā)展不斷提速。

大模型帶來較強的通用問題求解能力。當(dāng)前大部分人工智能正處于“手工作坊式”,面對各類行業(yè)的下游應(yīng)用,AI 逐漸展現(xiàn)出碎片化、多樣化的特點,模型通用性不高。為提高通用求解能力,大模型提供了一種可行方案,即“預(yù)訓(xùn)練大模型+下游任務(wù)微調(diào)”。該方案指從大量標記和未標記的數(shù)據(jù)中捕獲知識,通過將知識存儲到大量的參數(shù)中并對特定任務(wù)進行微調(diào),提高模型泛化能力。

大模型有望進一步突破現(xiàn)有模型結(jié)構(gòu)的精度局限,結(jié)合嵌套小模型訓(xùn)練,進一步提升特定場景下的模型效率。過去十年中,模型精度提升主要依賴網(wǎng)絡(luò)在結(jié)構(gòu)上的變革,但隨著神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計技術(shù)逐漸成熟并趨于收斂,精度提升達到瓶頸,而大模型的應(yīng)用有望突破這一瓶頸。以谷歌的視覺遷移模型 Big Transfer,BiT 為例,使用 ILSVRC-2012(128萬張圖片,1000 個類別)和 JFT-300M(3 億張圖片,18291 個類別)兩個數(shù)據(jù)集來訓(xùn)練ResNet50,精度分別是 77%和 79%,大模型的使用使得處于瓶頸的精度進一步提高。另外使用 JFT-300M 訓(xùn)練 ResNet152x4,精度可以上升到 87.5%,相比 ILSVRC-2012+ResNet50 結(jié)構(gòu)提升了 10.5%。

大模型+小模型:泛化大模型人工智能的推廣并結(jié)合特定場景下的數(shù)據(jù)優(yōu)化將成為中期人工智能產(chǎn)業(yè)商業(yè)化的關(guān)鍵。原先針對特定場景重新提取數(shù)據(jù)訓(xùn)練的模式,已經(jīng)被實踐證明難以盈利,重新訓(xùn)練模型的成本過高,而獲得的模型泛用性低下,難以重復(fù)利用。而在芯片算力性能不斷提高的大背景下,大模型嵌套小模型的嘗試提供給了廠商另一個思路,通過分析海量數(shù)據(jù)獲得泛用模型,再通過嵌套特定小模型的方式為不同場景進行優(yōu)化,節(jié)省了大量成本。阿里云、華為云、騰訊云等公有云廠商都在積極開發(fā)自研的大模型平臺,提升模型的通用型。

以英偉達為代表的 AI 芯片巨頭,在新一代芯片中針對產(chǎn)業(yè)中常用的 AI 模型,特別設(shè)計了新引擎以大幅提升計算能力。英偉達的 Hopper 架構(gòu)引入了 Transformer 引擎,大幅加速了 AI 訓(xùn)練。Transformer 引擎采用軟件和自定義 NVIDIA Hopper Tensor Core 技術(shù),該技術(shù)旨在加速訓(xùn)練基于常見 AI 模型構(gòu)建模塊(即 Transformer)構(gòu)建的模型。這些Tensor Core 能夠應(yīng)用 FP8 和 FP16 混合精度,以大幅加速 Transformer 模型的 AI計算。

采用 FP8 的 Tensor Core 運算在吞吐量方面是 16 位運算的兩倍。Transformer引擎利用定制的、經(jīng) NVIDIA 調(diào)優(yōu)的啟發(fā)式算法來解決上述挑戰(zhàn),該算法可在 FP8 與FP16 計算之間動態(tài)選擇,并自動處理每層中這些精度之間的重新投射和縮放。根據(jù)英偉達提供的數(shù)據(jù),Hopper 架構(gòu)在訓(xùn)練 Transformer 模型時,效率可以達到安培模型的 9 倍。

在大模型技術(shù)趨勢下,云廠商正在逐步成為算力市場中的核心玩家,在人工智能技術(shù)框架通過大模型往泛用化發(fā)展后,云廠商也能夠借助 PaaS 能力把底層 IaaS 能力與 PaaS結(jié)合,為市場提供通用性解決方案。我們看到隨著大模型的出現(xiàn),人工智能需要處理與分析的數(shù)據(jù)量日漸上升,同時這部分數(shù)據(jù)從過去的專業(yè)性數(shù)據(jù)集轉(zhuǎn)化為通用型大數(shù)據(jù)。云計算巨頭可以通過本身強大的 PaaS 能力與底層 IaaS 基礎(chǔ)相結(jié)合,為人工智能廠商提供一站式的數(shù)據(jù)處理,這也幫助云計算巨頭成為本輪人工智能浪潮的主要受益者之一。

▲國內(nèi)云計算市場規(guī)模

目前 AWS、Azure 等國際主流云廠商與阿里云、騰訊云、華為云等國內(nèi)頭部云廠商都已開始在數(shù)據(jù)儲存、數(shù)據(jù)處理等 PaaS 能力上重點發(fā)力。存儲能力方面,NoSQL 類型數(shù)據(jù)庫與在數(shù)據(jù)種類日益繁雜的未來會涌現(xiàn)更多機會,如 Google Cloud 就已經(jīng)在對象類、傳統(tǒng)的關(guān)系型數(shù)據(jù)庫以及 NoSQL 類型數(shù)據(jù)庫分散布局。而在數(shù)據(jù)處理方面,Data Lake與 Data Warehouse 的重要性愈發(fā)凸顯,云計算巨頭通過完善這部分產(chǎn)品線,構(gòu)建了一個完整的數(shù)據(jù)循環(huán)模式,并結(jié)合其底層的 IaaS 基礎(chǔ)能力。完整的產(chǎn)品線與閉合的數(shù)據(jù)循環(huán)模式將是未來云計算巨頭在 AI 中間層競爭的最大優(yōu)勢。

伴隨 AI 產(chǎn)業(yè)鏈結(jié)構(gòu)的逐步清晰,以及大模型帶來的產(chǎn)業(yè)運作效率、技術(shù)深度的大幅改善,中期維度,假設(shè) AI技術(shù)不發(fā)生跳變式躍遷前提下,我們判斷 AI 產(chǎn)業(yè)鏈價值有望逐步向兩端靠攏,中間環(huán)節(jié)價值有望持續(xù)減弱,并逐步形成“芯片+算力基礎(chǔ)設(shè)施+AI 框架&算法庫+應(yīng)用場景”的典型產(chǎn)業(yè)鏈結(jié)構(gòu),同時在這樣的產(chǎn)業(yè)結(jié)構(gòu)安排下,我們預(yù)計上游的芯片企業(yè)、云基礎(chǔ)設(shè)施廠商,以及下游的應(yīng)用廠商有望逐步成為 AI 產(chǎn)業(yè)快速發(fā)展的核心受益者。

大模型帶來 AI 底層基礎(chǔ)技術(shù)架構(gòu)的統(tǒng)一,以及對算力的龐大需求等特征,天然有利于云計算公司在此過程中發(fā)揮基礎(chǔ)性角色:云計算具有全球分布最為廣泛、最為強大的硬件算力設(shè)施,同時 AI 框架、通用算法最為一種典型 PaaS 能力,亦傾向于被整合到云廠商的平臺能力當(dāng)中。

因此從技術(shù)通用性、實際商業(yè)需求等維度,在大模型的推動下,云計算巨頭有望逐步成為算力設(shè)施+基礎(chǔ)算法框架環(huán)節(jié)能力的主要提供商,并不斷侵蝕現(xiàn)有的 AI 算法平臺商的商業(yè)空間。從過去云廠商各類產(chǎn)品的報價中可以發(fā)現(xiàn),以 AWS 與 Google 產(chǎn)品為例,美國東部地區(qū)的 Linus按需使用價格正在階梯式降低。

從圖中可以看到,具有 2 個 vCPU,2 個 ECU 和 7.5GiB的 m1.large 產(chǎn)品價格從 2008 年的約 0.4 美元/小時持續(xù)下降到了 2022 年約 0.18 美元/小時。而 Google Cloud 具有 8 個 vCPU 與 30GB 內(nèi)存的 n1-standard-8 產(chǎn)品的按需使用價格也從 2014 年的 0.5 美元/小時下降到 2022 年的 0.38 美元/小時,可見云計算價格呈全面下降趨勢。

在未來 3-5 年,我們將看到更多的 AI 即服務(wù)(AIaaS)產(chǎn)品。此前提到的大模型趨勢,尤其是 GPT-3 的誕生掀起了這個潮流,由于 GPT-3 龐大的參數(shù)量,必須要在龐大的公有云算力如 Azure 規(guī)模的計算設(shè)施上才能運行,于是微軟將它打造成了能夠通過web API 獲取的服務(wù),這也會促使更多的大模型出現(xiàn)。

▲AWS EC2 歷史標準化價格(美元/小時)

在目前的算力條件與可展望的技術(shù)能力支持下,應(yīng)用端將繼續(xù)通過數(shù)據(jù)獲取實現(xiàn)算法迭代與優(yōu)化,完善目前認知智能當(dāng)中仍存在的不足(圖像識別方向),并嘗試往決策智能發(fā)展。根據(jù)目前的技術(shù)能力以及硬件算力支持,實現(xiàn)完全決策智能仍需較長時間;現(xiàn)有場景的繼續(xù)深化的基礎(chǔ)上做出局部性的智能化將是 3-5 年內(nèi)的主要方向。

目前的 AI 應(yīng)用層面仍然過于單點化,而完成局部性的串聯(lián)將成為實現(xiàn)決策智能的第一步。人工智能的軟件類應(yīng)用將包括從底層的驅(qū)動程序,到上層的應(yīng)用程序、算法框架,從面向商業(yè)(制造、金融、物流、零售、地產(chǎn)等),到人(元宇宙、醫(yī)療、人形機器人等)、自動駕駛等領(lǐng)域。

智東西認為,伴隨 AI 芯片、算力設(shè)施、數(shù)據(jù)等基礎(chǔ)要素的不斷完善,以及大模型帶來的問題泛化求解能力的大幅提升,AI 產(chǎn)業(yè)正形成“芯片+算力基礎(chǔ)設(shè)施+AI 框架&算法庫+應(yīng)用場景”的穩(wěn)定產(chǎn)業(yè)價值鏈結(jié)構(gòu),AI 芯片廠商、云計算廠商(算力設(shè)施+算法框架)、AI+應(yīng)用場景廠商、平臺型算法框架廠商等有望持續(xù)成為產(chǎn)業(yè)核心受益者。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。