正在閱讀:

Meta開發(fā)AI“讀心術(shù)”系統(tǒng),仿真大腦模型,大腦活動(dòng)直接轉(zhuǎn)文字

掃一掃下載界面新聞APP

Meta開發(fā)AI“讀心術(shù)”系統(tǒng),仿真大腦模型,大腦活動(dòng)直接轉(zhuǎn)文字

這項(xiàng)技術(shù)證明科學(xué)界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

編譯 | 智東西 吳菲凝

編輯 | 李水青

智東西4月3日消息,據(jù)《華爾街日報(bào)》報(bào)道,Meta正在開發(fā)一個(gè)系統(tǒng)來讀取人腦中的想法,該項(xiàng)目利用AI來幫助科學(xué)家們研究大腦中神經(jīng)元,通過一個(gè)仿真人腦模型,就能實(shí)現(xiàn)人的大腦活動(dòng)在無需打字、語音輸入的情況下直接轉(zhuǎn)文字。

智東西發(fā)現(xiàn),去年,Meta AI實(shí)驗(yàn)室曾公開了一項(xiàng)名為“大腦信號(hào)讀心術(shù)(Brain Signal Reading)”的研究成果。研究人員利用腦電圖和腦磁圖兩種非侵入式技術(shù)獲取數(shù)據(jù),讓自主監(jiān)督學(xué)習(xí)AI工具wave2vec 2.0在開源錄音上進(jìn)行訓(xùn)練,訓(xùn)練數(shù)據(jù)集中包含169名志愿者在聽到有聲讀物和單句時(shí)的大腦活動(dòng)錄音。

通過近150個(gè)小時(shí)的錄音,算法像懂讀心術(shù)一樣能夠推斷出人們最有可能聽到的詞。這項(xiàng)技術(shù)證明科學(xué)界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

01.Meta研究“讀心術(shù)”,構(gòu)建仿真大腦模型

每年有近7千萬人遭受創(chuàng)傷性腦損傷,導(dǎo)致其今后無法再通過語言、打字甚至是手勢交流。研究人員正努力從無創(chuàng)大腦活動(dòng)中解碼語言來改善這部分人的生活。

據(jù)悉,大腦解碼技術(shù)可以通過不同的方法來實(shí)現(xiàn),主要有三類:一是侵入式腦機(jī)接口,二是非侵入式腦機(jī)接口,三是用于研究神經(jīng)元活動(dòng)的大腦解碼技術(shù)。Meta在研究中主要通過非侵入式腦機(jī)接口來實(shí)現(xiàn)腦電波讀取。在這項(xiàng)研究中,研究人員們使用的是從被試者那里收集來的大腦信號(hào)數(shù)據(jù),被試者坐在非侵入式腦部掃描儀前聽單詞和短語,然后掃描儀來捕捉他們的腦電波數(shù)據(jù)。

掃描儀可以分為兩種:一種是為人熟知的嵌入式電極,被稱為“EEG(腦電圖Electroencephalogram)”;另一種是MEG(腦磁圖Magnetoencephalography),兩種掃描儀分別測量由神經(jīng)元活動(dòng)引起的電場和磁場的波動(dòng)。在實(shí)踐中,這兩個(gè)系統(tǒng)使用數(shù)百個(gè)傳感器,每秒鐘可以拍攝大約1000張宏觀大腦活動(dòng)的快照,研究人員再將這些EEG和MEG數(shù)據(jù)記錄輸入到一個(gè)仿真大腦模型中。

由于個(gè)人的大腦解剖結(jié)構(gòu)、各腦區(qū)神經(jīng)功能的位置和時(shí)間的差異,以及記錄過程中傳感器的位置的不同,每個(gè)人的腦電圖記錄也完全不同。在實(shí)踐中,分析大腦數(shù)據(jù)通常需要在仿真大腦上重新調(diào)整信號(hào),這是一個(gè)較復(fù)雜的工程管道。在以前的研究中,大腦解碼器是在少量的錄音中訓(xùn)練,然后預(yù)測一組有限的語音特征,如部分語音類別或單詞。

在這次研究中,研究人員設(shè)計(jì)了一個(gè)新主體嵌入層,該層經(jīng)過端到端的訓(xùn)練,可以將所有腦電波記錄對齊在一個(gè)公共空間當(dāng)中。為了分析這些腦信號(hào)數(shù)據(jù),研究人員使用了自我監(jiān)督學(xué)習(xí)的AI模型wave2vec 2.0,該模型不用指示就能從巨大的數(shù)據(jù)池中抓取數(shù)據(jù),可從噪音中識(shí)別正確的語音,還能解析動(dòng)物對話的含義。為了從非侵入式大腦信號(hào)中解碼語音,研究人員訓(xùn)練出了一個(gè)可對比學(xué)習(xí)的模型,把大腦活動(dòng)與相似的語音對齊,當(dāng)兩者保持大體一致時(shí),就能找出仿真大腦模型輸出的對應(yīng)語音。

02.打造通用腦語言解碼器,大腦活動(dòng)直接轉(zhuǎn)文字

Meta AI團(tuán)隊(duì)在之前的工作中用wave2vec 2.0證明了該算法可以生成與大腦類似的語音電波。據(jù)Meta研究團(tuán)隊(duì)稱,在訓(xùn)練中系統(tǒng)執(zhí)行的是零樣本分類,只要提供一個(gè)大腦活動(dòng)片段,系統(tǒng)就能從眾多音頻片段中確定這個(gè)人實(shí)際聽到的是哪一個(gè)片段,算法就能推斷人們最有可能聽到的詞。

Meta的科學(xué)家亞歷山大·德福塞斯(Alexandre Défossez)是這項(xiàng)研究的團(tuán)隊(duì)成員之一,他說這項(xiàng)工作的最終目標(biāo)是創(chuàng)建一個(gè)通用腦語言解碼器,它可以直接將我們的大腦活動(dòng)轉(zhuǎn)化為文字。最終的研究結(jié)果表明,訓(xùn)練有素的自我學(xué)習(xí)AI模型可以成功從無創(chuàng)大腦的活動(dòng)記錄中解碼感知到的語音。但這還只是第一步,目前的研究專注于解碼語音感知,但最終的現(xiàn)實(shí)目標(biāo)是要實(shí)現(xiàn)與患者的交流,將研究擴(kuò)展到語音生成。

在可見的未來,人們只要戴著一個(gè)腦電圖帽,就能夠給朋友發(fā)短信。德福塞斯補(bǔ)充說,這項(xiàng)技術(shù)可能會(huì)徹底改變那些無法交流的患者的生活,他們目前已公開分享這項(xiàng)研究,并加快進(jìn)展來應(yīng)對未來的挑戰(zhàn)。Meta這項(xiàng)研究充分證明了AI可以在合理應(yīng)用下讓人類更好地了解自己,不僅是進(jìn)一步推動(dòng)技術(shù)的進(jìn)步,還可以創(chuàng)造出人類與計(jì)算機(jī)交互的新方式。

03.基于強(qiáng)大數(shù)據(jù)處理能力,AI助人類了解大腦機(jī)制

神經(jīng)科學(xué)推動(dòng)AI發(fā)展在未來將釋放出巨大的潛力,但大多數(shù)AI工程師都不知道如何借助神經(jīng)科學(xué)來助力AI發(fā)展,也不明白人工神經(jīng)元網(wǎng)絡(luò)和動(dòng)物神經(jīng)元網(wǎng)絡(luò)的行為特征有何分別。加州大學(xué)伯克利分校心理學(xué)教授塞萊斯特·基德(Celeste Kidd)通過一項(xiàng)實(shí)驗(yàn)幫助工程師們更好理解了神經(jīng)科學(xué)、計(jì)算科學(xué)等領(lǐng)域是如何協(xié)同推進(jìn)AI發(fā)展的。

在研究中,通過一系列關(guān)聯(lián)測試,基德積累了一個(gè)數(shù)據(jù)池,把人們對于一個(gè)問題的不同看法進(jìn)行了分類?;峦ㄟ^研究人們對某些政治家的看法,得出一個(gè)結(jié)論:人們最容易在一些帶有道德評判色彩的詞語中產(chǎn)生意見分歧,這本是人類特有的思考行為,但那些已經(jīng)通過具身圖靈測試(The Embodied Turing Test )的AI也能達(dá)到。

基德及其團(tuán)隊(duì)總結(jié)出,人們往往不會(huì)對常見物體的基本特征達(dá)成一致。即使對于雞、鯨魚和鮭魚這樣常見的動(dòng)物,人們對它們的看法也不盡相同。這個(gè)研究結(jié)果由“聚類模型”輔助得出,該模型是多個(gè)AI模型的實(shí)現(xiàn)基礎(chǔ)。雖然這個(gè)觀察看上去并不深刻,但結(jié)果表明,AI大腦解碼研究的可信度遠(yuǎn)高于心理學(xué)家們之前所認(rèn)為的。

基德稱,AI最重要的能力就是使諸如OpenAI的聊天機(jī)器人ChatGPT、谷歌聊天機(jī)器人Bard和微軟的新版搜索引擎Bing等新研究成為可能。在她看來,現(xiàn)代計(jì)算機(jī)系統(tǒng)擁有遠(yuǎn)超過去的數(shù)據(jù)處理能力,這讓一切研究都有機(jī)會(huì)成為現(xiàn)實(shí),這種能力開辟了很多的可能性,無論是在生物學(xué)、醫(yī)學(xué)還是認(rèn)知科學(xué)領(lǐng)域。

普林斯頓大學(xué)神經(jīng)科學(xué)助理教授塔蒂亞娜·恩格爾(Tatiana Engel)使用了與大多數(shù)AI同類型的人工神經(jīng)元網(wǎng)絡(luò)。她的團(tuán)隊(duì)用這些人工神經(jīng)元網(wǎng)絡(luò)來解釋動(dòng)物大腦中數(shù)百個(gè)神經(jīng)元的電信號(hào),并訓(xùn)練人工神經(jīng)元網(wǎng)絡(luò)模仿動(dòng)物神經(jīng)元網(wǎng)絡(luò)行為特征,讓它們做動(dòng)物的動(dòng)作,比如游泳和蠕動(dòng)。

在研究中,團(tuán)隊(duì)發(fā)現(xiàn),這些人工神經(jīng)元網(wǎng)絡(luò)會(huì)通過模擬來不斷接近動(dòng)物神經(jīng)元的組織方式。恩格爾博士稱,大腦的神經(jīng)網(wǎng)絡(luò)要更加復(fù)雜,但人工神經(jīng)元網(wǎng)絡(luò)作為一種模擬系統(tǒng),既足夠簡單,也能夠無限接近動(dòng)物神經(jīng)元的生物學(xué)價(jià)值,可以通過模仿來告訴我們真實(shí)大腦是如何工作的。這就說明,思考是腦電波向大腦發(fā)送信號(hào),形成一個(gè)由神經(jīng)元構(gòu)成的復(fù)雜代碼來影響我們的行為。

這種結(jié)論與神經(jīng)科學(xué)家之前的結(jié)論相反:他們曾認(rèn)為存在影響我們應(yīng)該如何做決定的神經(jīng)元。但實(shí)際上,并不存在“吃巧克力”和“不吃巧克力”的神經(jīng)元。恩格爾博士稱,AI能幫助人們知道大腦的內(nèi)部構(gòu)造和運(yùn)作情況。

04.結(jié)語:機(jī)器解碼大腦信號(hào),“讀心專家”成現(xiàn)實(shí)

當(dāng)大量的腦電波圖像數(shù)據(jù)用于訓(xùn)練通用腦模型時(shí),我們將會(huì)更好地理解人類思維的形成過程和內(nèi)部發(fā)展變化,并將其用于改進(jìn)人工智能算法的性能和其他領(lǐng)域。

在可見的未來,大腦解碼技術(shù)的研究和發(fā)展將對認(rèn)知科學(xué)和人工智能產(chǎn)生深遠(yuǎn)影響,不僅為神經(jīng)系統(tǒng)疾病治療提供新發(fā)展機(jī)遇,而且能為深受語言困擾的患者帶來交流的可能性。但與此同時(shí),EEG、MEG等數(shù)據(jù)獲取困難、大腦數(shù)據(jù)整合難度大以及腦數(shù)據(jù)的隱私保護(hù)問題等挑戰(zhàn)接踵而來,同樣需要多加關(guān)注。

來源:《華爾街日報(bào)》、Meta AI官網(wǎng)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

Facebook

5.4k
  • Meta宣布將重啟面部識(shí)別技術(shù),以打擊詐騙
  • 美股三大指數(shù)均錄得周線六連漲,標(biāo)普500指數(shù)、道指均續(xù)創(chuàng)歷史收盤新高

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

Meta開發(fā)AI“讀心術(shù)”系統(tǒng),仿真大腦模型,大腦活動(dòng)直接轉(zhuǎn)文字

這項(xiàng)技術(shù)證明科學(xué)界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

編譯 | 智東西 吳菲凝

編輯 | 李水青

智東西4月3日消息,據(jù)《華爾街日報(bào)》報(bào)道,Meta正在開發(fā)一個(gè)系統(tǒng)來讀取人腦中的想法,該項(xiàng)目利用AI來幫助科學(xué)家們研究大腦中神經(jīng)元,通過一個(gè)仿真人腦模型,就能實(shí)現(xiàn)人的大腦活動(dòng)在無需打字、語音輸入的情況下直接轉(zhuǎn)文字。

智東西發(fā)現(xiàn),去年,Meta AI實(shí)驗(yàn)室曾公開了一項(xiàng)名為“大腦信號(hào)讀心術(shù)(Brain Signal Reading)”的研究成果。研究人員利用腦電圖和腦磁圖兩種非侵入式技術(shù)獲取數(shù)據(jù),讓自主監(jiān)督學(xué)習(xí)AI工具wave2vec 2.0在開源錄音上進(jìn)行訓(xùn)練,訓(xùn)練數(shù)據(jù)集中包含169名志愿者在聽到有聲讀物和單句時(shí)的大腦活動(dòng)錄音。

通過近150個(gè)小時(shí)的錄音,算法像懂讀心術(shù)一樣能夠推斷出人們最有可能聽到的詞。這項(xiàng)技術(shù)證明科學(xué)界正努力借助AI來了解人類大腦,Meta的研究目前仍在繼續(xù)。

01.Meta研究“讀心術(shù)”,構(gòu)建仿真大腦模型

每年有近7千萬人遭受創(chuàng)傷性腦損傷,導(dǎo)致其今后無法再通過語言、打字甚至是手勢交流。研究人員正努力從無創(chuàng)大腦活動(dòng)中解碼語言來改善這部分人的生活。

據(jù)悉,大腦解碼技術(shù)可以通過不同的方法來實(shí)現(xiàn),主要有三類:一是侵入式腦機(jī)接口,二是非侵入式腦機(jī)接口,三是用于研究神經(jīng)元活動(dòng)的大腦解碼技術(shù)。Meta在研究中主要通過非侵入式腦機(jī)接口來實(shí)現(xiàn)腦電波讀取。在這項(xiàng)研究中,研究人員們使用的是從被試者那里收集來的大腦信號(hào)數(shù)據(jù),被試者坐在非侵入式腦部掃描儀前聽單詞和短語,然后掃描儀來捕捉他們的腦電波數(shù)據(jù)。

掃描儀可以分為兩種:一種是為人熟知的嵌入式電極,被稱為“EEG(腦電圖Electroencephalogram)”;另一種是MEG(腦磁圖Magnetoencephalography),兩種掃描儀分別測量由神經(jīng)元活動(dòng)引起的電場和磁場的波動(dòng)。在實(shí)踐中,這兩個(gè)系統(tǒng)使用數(shù)百個(gè)傳感器,每秒鐘可以拍攝大約1000張宏觀大腦活動(dòng)的快照,研究人員再將這些EEG和MEG數(shù)據(jù)記錄輸入到一個(gè)仿真大腦模型中。

由于個(gè)人的大腦解剖結(jié)構(gòu)、各腦區(qū)神經(jīng)功能的位置和時(shí)間的差異,以及記錄過程中傳感器的位置的不同,每個(gè)人的腦電圖記錄也完全不同。在實(shí)踐中,分析大腦數(shù)據(jù)通常需要在仿真大腦上重新調(diào)整信號(hào),這是一個(gè)較復(fù)雜的工程管道。在以前的研究中,大腦解碼器是在少量的錄音中訓(xùn)練,然后預(yù)測一組有限的語音特征,如部分語音類別或單詞。

在這次研究中,研究人員設(shè)計(jì)了一個(gè)新主體嵌入層,該層經(jīng)過端到端的訓(xùn)練,可以將所有腦電波記錄對齊在一個(gè)公共空間當(dāng)中。為了分析這些腦信號(hào)數(shù)據(jù),研究人員使用了自我監(jiān)督學(xué)習(xí)的AI模型wave2vec 2.0,該模型不用指示就能從巨大的數(shù)據(jù)池中抓取數(shù)據(jù),可從噪音中識(shí)別正確的語音,還能解析動(dòng)物對話的含義。為了從非侵入式大腦信號(hào)中解碼語音,研究人員訓(xùn)練出了一個(gè)可對比學(xué)習(xí)的模型,把大腦活動(dòng)與相似的語音對齊,當(dāng)兩者保持大體一致時(shí),就能找出仿真大腦模型輸出的對應(yīng)語音。

02.打造通用腦語言解碼器,大腦活動(dòng)直接轉(zhuǎn)文字

Meta AI團(tuán)隊(duì)在之前的工作中用wave2vec 2.0證明了該算法可以生成與大腦類似的語音電波。據(jù)Meta研究團(tuán)隊(duì)稱,在訓(xùn)練中系統(tǒng)執(zhí)行的是零樣本分類,只要提供一個(gè)大腦活動(dòng)片段,系統(tǒng)就能從眾多音頻片段中確定這個(gè)人實(shí)際聽到的是哪一個(gè)片段,算法就能推斷人們最有可能聽到的詞。

Meta的科學(xué)家亞歷山大·德福塞斯(Alexandre Défossez)是這項(xiàng)研究的團(tuán)隊(duì)成員之一,他說這項(xiàng)工作的最終目標(biāo)是創(chuàng)建一個(gè)通用腦語言解碼器,它可以直接將我們的大腦活動(dòng)轉(zhuǎn)化為文字。最終的研究結(jié)果表明,訓(xùn)練有素的自我學(xué)習(xí)AI模型可以成功從無創(chuàng)大腦的活動(dòng)記錄中解碼感知到的語音。但這還只是第一步,目前的研究專注于解碼語音感知,但最終的現(xiàn)實(shí)目標(biāo)是要實(shí)現(xiàn)與患者的交流,將研究擴(kuò)展到語音生成。

在可見的未來,人們只要戴著一個(gè)腦電圖帽,就能夠給朋友發(fā)短信。德福塞斯補(bǔ)充說,這項(xiàng)技術(shù)可能會(huì)徹底改變那些無法交流的患者的生活,他們目前已公開分享這項(xiàng)研究,并加快進(jìn)展來應(yīng)對未來的挑戰(zhàn)。Meta這項(xiàng)研究充分證明了AI可以在合理應(yīng)用下讓人類更好地了解自己,不僅是進(jìn)一步推動(dòng)技術(shù)的進(jìn)步,還可以創(chuàng)造出人類與計(jì)算機(jī)交互的新方式。

03.基于強(qiáng)大數(shù)據(jù)處理能力,AI助人類了解大腦機(jī)制

神經(jīng)科學(xué)推動(dòng)AI發(fā)展在未來將釋放出巨大的潛力,但大多數(shù)AI工程師都不知道如何借助神經(jīng)科學(xué)來助力AI發(fā)展,也不明白人工神經(jīng)元網(wǎng)絡(luò)和動(dòng)物神經(jīng)元網(wǎng)絡(luò)的行為特征有何分別。加州大學(xué)伯克利分校心理學(xué)教授塞萊斯特·基德(Celeste Kidd)通過一項(xiàng)實(shí)驗(yàn)幫助工程師們更好理解了神經(jīng)科學(xué)、計(jì)算科學(xué)等領(lǐng)域是如何協(xié)同推進(jìn)AI發(fā)展的。

在研究中,通過一系列關(guān)聯(lián)測試,基德積累了一個(gè)數(shù)據(jù)池,把人們對于一個(gè)問題的不同看法進(jìn)行了分類。基德通過研究人們對某些政治家的看法,得出一個(gè)結(jié)論:人們最容易在一些帶有道德評判色彩的詞語中產(chǎn)生意見分歧,這本是人類特有的思考行為,但那些已經(jīng)通過具身圖靈測試(The Embodied Turing Test )的AI也能達(dá)到。

基德及其團(tuán)隊(duì)總結(jié)出,人們往往不會(huì)對常見物體的基本特征達(dá)成一致。即使對于雞、鯨魚和鮭魚這樣常見的動(dòng)物,人們對它們的看法也不盡相同。這個(gè)研究結(jié)果由“聚類模型”輔助得出,該模型是多個(gè)AI模型的實(shí)現(xiàn)基礎(chǔ)。雖然這個(gè)觀察看上去并不深刻,但結(jié)果表明,AI大腦解碼研究的可信度遠(yuǎn)高于心理學(xué)家們之前所認(rèn)為的。

基德稱,AI最重要的能力就是使諸如OpenAI的聊天機(jī)器人ChatGPT、谷歌聊天機(jī)器人Bard和微軟的新版搜索引擎Bing等新研究成為可能。在她看來,現(xiàn)代計(jì)算機(jī)系統(tǒng)擁有遠(yuǎn)超過去的數(shù)據(jù)處理能力,這讓一切研究都有機(jī)會(huì)成為現(xiàn)實(shí),這種能力開辟了很多的可能性,無論是在生物學(xué)、醫(yī)學(xué)還是認(rèn)知科學(xué)領(lǐng)域。

普林斯頓大學(xué)神經(jīng)科學(xué)助理教授塔蒂亞娜·恩格爾(Tatiana Engel)使用了與大多數(shù)AI同類型的人工神經(jīng)元網(wǎng)絡(luò)。她的團(tuán)隊(duì)用這些人工神經(jīng)元網(wǎng)絡(luò)來解釋動(dòng)物大腦中數(shù)百個(gè)神經(jīng)元的電信號(hào),并訓(xùn)練人工神經(jīng)元網(wǎng)絡(luò)模仿動(dòng)物神經(jīng)元網(wǎng)絡(luò)行為特征,讓它們做動(dòng)物的動(dòng)作,比如游泳和蠕動(dòng)。

在研究中,團(tuán)隊(duì)發(fā)現(xiàn),這些人工神經(jīng)元網(wǎng)絡(luò)會(huì)通過模擬來不斷接近動(dòng)物神經(jīng)元的組織方式。恩格爾博士稱,大腦的神經(jīng)網(wǎng)絡(luò)要更加復(fù)雜,但人工神經(jīng)元網(wǎng)絡(luò)作為一種模擬系統(tǒng),既足夠簡單,也能夠無限接近動(dòng)物神經(jīng)元的生物學(xué)價(jià)值,可以通過模仿來告訴我們真實(shí)大腦是如何工作的。這就說明,思考是腦電波向大腦發(fā)送信號(hào),形成一個(gè)由神經(jīng)元構(gòu)成的復(fù)雜代碼來影響我們的行為。

這種結(jié)論與神經(jīng)科學(xué)家之前的結(jié)論相反:他們曾認(rèn)為存在影響我們應(yīng)該如何做決定的神經(jīng)元。但實(shí)際上,并不存在“吃巧克力”和“不吃巧克力”的神經(jīng)元。恩格爾博士稱,AI能幫助人們知道大腦的內(nèi)部構(gòu)造和運(yùn)作情況。

04.結(jié)語:機(jī)器解碼大腦信號(hào),“讀心專家”成現(xiàn)實(shí)

當(dāng)大量的腦電波圖像數(shù)據(jù)用于訓(xùn)練通用腦模型時(shí),我們將會(huì)更好地理解人類思維的形成過程和內(nèi)部發(fā)展變化,并將其用于改進(jìn)人工智能算法的性能和其他領(lǐng)域。

在可見的未來,大腦解碼技術(shù)的研究和發(fā)展將對認(rèn)知科學(xué)和人工智能產(chǎn)生深遠(yuǎn)影響,不僅為神經(jīng)系統(tǒng)疾病治療提供新發(fā)展機(jī)遇,而且能為深受語言困擾的患者帶來交流的可能性。但與此同時(shí),EEG、MEG等數(shù)據(jù)獲取困難、大腦數(shù)據(jù)整合難度大以及腦數(shù)據(jù)的隱私保護(hù)問題等挑戰(zhàn)接踵而來,同樣需要多加關(guān)注。

來源:《華爾街日報(bào)》、Meta AI官網(wǎng)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。