文|Will Douglas Heaven
編譯|巴比特資訊
就在杰弗里 - 辛頓(Geoffrey Hinton)宣布退出谷歌這一重磅消息的四天前,我在倫敦北部一條街道的房子里見到了他。辛頓是深度學(xué)習(xí)的先驅(qū),他幫助開發(fā)了現(xiàn)代人工智能核心的一些最重要的技術(shù),但在谷歌工作了十年后,他選擇辭職,專注于他目前對人工智能的新關(guān)注。
被 GPT-4 等新的大型語言模型的能力所震驚,辛頓希望提高公眾對他現(xiàn)在認(rèn)為可能伴隨其開創(chuàng)技術(shù)的嚴(yán)重風(fēng)險(xiǎn)的認(rèn)識。
在我們的談話開始時(shí),我在廚房的桌子旁坐下來,辛頓開始踱步。多年來因慢性背痛的困擾,他幾乎從不坐下。在接下來的一個(gè)小時(shí)里,我看著他從房間的一端走到另一端,我注視著他。他有很多話要說。
這位 75 歲的計(jì)算機(jī)科學(xué)家因其在深度學(xué)習(xí)方面的工作,與 Yann LeCun 和 Yoshua Bengio 共同獲得了 2018 年圖靈獎(jiǎng),他說他已經(jīng)準(zhǔn)備好轉(zhuǎn)變方向。“我太老了,無法從事需要記住大量細(xì)節(jié)的技術(shù)工作,”他告訴我?!拔疫€好,但已大不如前,這令人煩惱?!?/p>
但這并不是他離開谷歌的唯一原因。辛頓想把時(shí)間花在他所說的“更多哲學(xué)工作”上,一個(gè)微小但對他而言非常真實(shí)的危險(xiǎn)上,即人工智能將變成一場災(zāi)難。
離開谷歌可以讓他暢所欲言,而不用像谷歌高管那樣必須進(jìn)行自我審查。他說:“我想談?wù)撊斯ぶ悄艿陌踩珕栴},而不必?fù)?dān)心與谷歌業(yè)務(wù)的關(guān)聯(lián)?!薄爸灰雀韪段倚匠辏揖筒荒苓@么做?!?/p>
當(dāng)然,這并不意味著辛頓對谷歌有任何不滿意?!斑@可能會(huì)讓你大吃一驚,”他說?!拔蚁雮鬟_(dá)很多關(guān)于 Google 的優(yōu)點(diǎn),但如果我不在 Google 了,它們會(huì)更可信。”
辛頓說,新一代的大型語言模型 -- 特別是 OpenAI 在 3 月發(fā)布的 GPT-4-- 讓他意識到,機(jī)器正朝著比他想象的要聰明得多的方向發(fā)展。而他對這一情況可能發(fā)生的事情感到害怕。
“這些東西與我們完全不同,”他說?!坝袝r(shí)我覺得這就像外星人登陸了,而人們卻沒有意識到,因?yàn)樗麄兊挠⒄Z說得很好?!?/p>
基石
辛頓最出名的是他在 1980 年代(與兩位同事)提出的一種叫做反向傳播的技術(shù)。簡而言之,這是一種允許機(jī)器學(xué)習(xí)的算法。它支撐著今天幾乎所有的神經(jīng)網(wǎng)絡(luò),從計(jì)算機(jī)視覺系統(tǒng)到大型語言模型。
直到 2010 年代,通過反向傳播訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的力量才真正產(chǎn)生了影響。辛頓與幾個(gè)研究生合作,表明該技術(shù)在讓計(jì)算機(jī)識別圖像中的物體方面比其他任何技術(shù)都好。此外,他們還訓(xùn)練了一個(gè)神經(jīng)網(wǎng)絡(luò)來預(yù)測一個(gè)句子中的下一個(gè)字母,這也是今天大型語言模型的前身。
其中一名研究生是 Ilya Sutskever,他后來共同創(chuàng)立了 OpenAI 并領(lǐng)導(dǎo)了 ChatGPT 的開發(fā)。辛頓說:“我們最初意識到,這種東西可能會(huì)很神奇?!薄暗藗兓撕荛L時(shí)間才意識到,這需要大規(guī)模進(jìn)行才能取得成功?!痹缭?20 世紀(jì) 80 年代,神經(jīng)網(wǎng)絡(luò)就是個(gè)笑話。當(dāng)時(shí)的主流觀點(diǎn)是符號人工智能,即智能涉及處理符號,如文字或數(shù)字。
但辛頓并不相信。他研究了神經(jīng)網(wǎng)絡(luò),即大腦的軟件抽象,其中的神經(jīng)元和它們之間的連接由代碼表示。通過改變這些神經(jīng)元的連接方式 -- 改變用來表示它們的數(shù)字 -- 神經(jīng)網(wǎng)絡(luò)可以在飛行中重新接線。換句話說,它可以被用來學(xué)習(xí)。
“我父親是一名生物學(xué)家,所以我從生物學(xué)的角度思考問題,”辛頓說?!岸柾评盹@然不是生物智能的核心?!?/p>
“烏鴉可以解決難題,但它們沒有語言。它們不是通過存儲(chǔ)符號串并操縱它們來完成的。它們是通過改變大腦中神經(jīng)元之間的連接強(qiáng)度來實(shí)現(xiàn)的。因此,通過改變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)中的連接強(qiáng)度來學(xué)習(xí)復(fù)雜的東西是可能的?!?/p>
一種新的智能
40 年來,辛頓一直將人工神經(jīng)網(wǎng)絡(luò)視為模仿生物神經(jīng)網(wǎng)絡(luò)的拙劣嘗試?,F(xiàn)在他認(rèn)為情況發(fā)生了變化:他認(rèn)為,在試圖模仿生物大腦的過程中,我們已經(jīng)想出了更好的辦法。他說:“當(dāng)你看到這一點(diǎn)時(shí)是很可怕的?!薄斑@是一個(gè)突然的翻轉(zhuǎn)。”
辛頓的擔(dān)心會(huì)讓很多人覺得是科幻小說的內(nèi)容。但他是這樣思考的。
正如它們的名字所示,大型語言模型是由具有大量連接的大規(guī)模神經(jīng)網(wǎng)絡(luò)制成的。但與大腦相比,它們是微小的。“我們的大腦有 100 萬億個(gè)連接,”辛頓說。“大型語言模型最多只有 5000 億,最多一萬億。然而,GPT-4 的知識比任何人都多數(shù)百倍。所以也許它實(shí)際上有比我們更好的學(xué)習(xí)算法。”
與大腦相比,人們普遍認(rèn)為神經(jīng)網(wǎng)絡(luò)不善于學(xué)習(xí):需要大量的數(shù)據(jù)和能量來訓(xùn)練它們。另一方面,大腦可以迅速掌握新的想法和技能,使用的能量只有神經(jīng)網(wǎng)絡(luò)的一小部分。
“人們似乎擁有某種魔力,”辛頓說?!暗灰惆堰@些大型語言模型中的一個(gè)拿出來,并訓(xùn)練它做一些新的事情,這個(gè)論點(diǎn)就會(huì)不成立。它可以極快地學(xué)習(xí)新的任務(wù)?!?/p>
辛頓指的是“少樣本學(xué)習(xí)”,在這種情況下,經(jīng)過預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò),如大型語言模型,只需給幾個(gè)例子就可以訓(xùn)練它做一些新事情。例如,他指出,其中一些語言模型可以將一系列的邏輯語句串成一個(gè)論點(diǎn),即使它們從未接受過直接這么做的訓(xùn)練。
他說,在學(xué)習(xí)這樣一項(xiàng)任務(wù)的速度上,將預(yù)先訓(xùn)練好的大型語言模型與人類進(jìn)行比較,人類毫無優(yōu)勢。
大型語言模型制造了這么多東西,這又是怎么回事?人工智能研究人員將其稱為“幻覺”(盡管辛頓更喜歡“虛構(gòu)”一詞,因?yàn)樗切睦韺W(xué)的正確術(shù)語),這些錯(cuò)誤通常被視為技術(shù)的致命缺陷。產(chǎn)生這些錯(cuò)誤的趨勢使聊天機(jī)器人變得不可信,而且,許多人認(rèn)為,這表明這些模型沒有真正理解他們所說的話。
對此,辛頓的答案是:胡說八道是一個(gè)特點(diǎn),而不是一個(gè)錯(cuò)誤?!叭藗兛偸窃谔摌?gòu),”他說。半真半假和錯(cuò)誤記憶的細(xì)節(jié)是人類談話的標(biāo)志:“虛構(gòu)是人類記憶的標(biāo)志。這些模型所做的與人一樣”
辛頓說,不同之處在于人類通?;蚨嗷蛏贂?huì)正確地構(gòu)思。對 他來說,編造東西不是問題。計(jì)算機(jī)只需要多一點(diǎn)練習(xí)。
我們還期望計(jì)算機(jī)要么對,要么錯(cuò),而不是介于兩者之間?!拔覀儾黄谕鼈兿袢艘粯余┼┎恍?,”辛頓說?!爱?dāng)一臺(tái)計(jì)算機(jī)這么做時(shí),我們認(rèn)為它犯了錯(cuò)誤。但換成人類,這就是人們工作的方式。問題是大多數(shù)人對人類的工作方式有著無可奈何的錯(cuò)誤看法。”
當(dāng)然,大腦仍然比計(jì)算機(jī)做得更好:駕駛汽車、學(xué)習(xí)走路、想象未來。而且大腦可以靠一杯咖啡和一片吐司上完成這些任務(wù)。他說:“當(dāng)生物智能在進(jìn)化時(shí),它無法使用核電站?!?/p>
但辛頓的觀點(diǎn)是,如果我們愿意支付更高的計(jì)算成本,有一些關(guān)鍵的方法可以讓神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)方面擊敗生物。(值得停下來考慮一下這些成本在能源和碳方面意味著什么)。
學(xué)習(xí)只是辛頓論證的第一條線。第二條是交流。他說:“如果你或我學(xué)到了一些東西,并想把這些知識傳授給其他人,我們不能只是給他們發(fā)送一份副本?!薄暗铱梢杂幸蝗f個(gè)神經(jīng)網(wǎng)絡(luò),每個(gè)都有自己的經(jīng)驗(yàn),它們中的任何一個(gè)都可以立即分享它們所學(xué)到的東西。這是巨大的區(qū)別。就好像我們有一萬個(gè)人,只要有一個(gè)人學(xué)到了什么,我們所有人就都會(huì)知道?!?/p>
所有這些加起來是什么?辛頓現(xiàn)在認(rèn)為世界上有兩種類型的智能:動(dòng)物大腦和神經(jīng)網(wǎng)絡(luò)?!斑@是一種完全不同的智能形式,”他說?!耙环N新的、更好的智能形式?!?/p>
這是一個(gè)巨大的主張。人工智能是一個(gè)兩極分化的領(lǐng)域:嘲笑的人大有所在,而同意的人也比比皆是。
對于這種新型智能(如果存在)的后果是有益的還是災(zāi)難性的,人們也存在分歧。他說:“你認(rèn)為超級智能是好是壞在很大程度上取決于你是一個(gè)樂觀主義者還是一個(gè)悲觀主義者?!薄叭绻阕屓藗児烙?jì)壞事發(fā)生的風(fēng)險(xiǎn),比如你家里有人得重病或被車撞的幾率是多少,樂觀主義者可能會(huì)說 5%,悲觀主義者可能會(huì)說 100%。而輕度抑郁癥患者會(huì)說幾率可能在 40% 左右,而且他們通常是對的”。
辛頓是哪種人?“我有輕微的抑郁癥,”他說。“這就是為什么我很害怕的原因?!?/p>
為什么會(huì)出錯(cuò)
辛頓擔(dān)心,這些工具能夠找出方法來操縱或殺死那些沒有為新技術(shù)做好準(zhǔn)備的人。
“我突然改變了對這些東西是否會(huì)比我們更聰明的看法?!彼f:“我認(rèn)為它們現(xiàn)在已經(jīng)非常接近了,它們在未來會(huì)比我們更聰明?!薄拔覀?nèi)绾卧谶@種情況下生存?”
他特別擔(dān)心,人們可以利用他親自注入生命的工具來傾斜一些最重要的人類經(jīng)歷的天平,特別是選舉和戰(zhàn)爭。
辛頓認(rèn)為,智能機(jī)器的下一步是有能力創(chuàng)建自己的子目標(biāo),即執(zhí)行一項(xiàng)任務(wù)所需的臨時(shí)步驟。他問道,當(dāng)這種能力被應(yīng)用于本質(zhì)上不道德的東西時(shí)會(huì)發(fā)生什么?
目前,已經(jīng)有一些實(shí)驗(yàn)性項(xiàng)目,如 BabyAGI 和 AutoGPT,將聊天機(jī)器人與其他程序(如網(wǎng)絡(luò)瀏覽器或文字處理器)連接起來,使它們能夠?qū)⒑唵蔚娜蝿?wù)串聯(lián)起來。當(dāng)然,這些步驟很微小,但它們預(yù)示著一些人想把這項(xiàng)技術(shù)帶入的方向。辛頓說,即使壞人沒有奪取機(jī)器,子目標(biāo)也存在其他問題。
“好吧,這里有一個(gè)幾乎總是對生物學(xué)有幫助的子目標(biāo):獲得更多能量。因此,可能發(fā)生的第一件事就是這些機(jī)器人會(huì)說,‘讓我們獲得更多能量吧。讓我們將所有電力重新路由到我的芯片?!硪粋€(gè)重要的子目標(biāo)是復(fù)制更多的自己。聽起來如何?”
Meta 公司的首席人工智能科學(xué)家 Yann LeCun 同意這個(gè)前提,但并不同意 Hinton 的擔(dān)心。LeCun 說:“毫無疑問,機(jī)器將在未來變得比人類更聰明 -- 在所有人類智能的領(lǐng)域?!薄斑@是一個(gè)關(guān)于何時(shí)和如何的問題,而不是一個(gè)關(guān)于是否的問題?!?/p>
但他對事情的發(fā)展方向有完全不同的看法?!蔽蚁嘈?,智能機(jī)器將為人類帶來新的復(fù)興,一個(gè)新的啟蒙時(shí)代,“LeCun 說。“我完全不同意機(jī)器會(huì)僅僅因?yàn)楦斆骶徒y(tǒng)治人類的想法,更不用說毀滅人類了?!?/p>
“即使在人類中,我們當(dāng)中最聰明的人也不是最有統(tǒng)治力的人,”LeCun 說。“最有統(tǒng)治力的人絕對不是最聰明的。我們在政界和商界有無數(shù)這樣的例子?!?/p>
蒙特利爾大學(xué)教授、蒙特利爾學(xué)習(xí)算法研究所科學(xué)主任 Yoshua Bengio 覺得更不可知。他說:“我聽到有人詆毀這些恐懼,但我沒有看到任何堅(jiān)實(shí)的論據(jù)能讓我相信不存在 Geoff 認(rèn)為的那種規(guī)模的風(fēng)險(xiǎn)。但是,恐懼只有在促使我們采取行動(dòng)時(shí)才是有用的,”他說:“過度的恐懼可能會(huì)使人癱瘓,所以我們應(yīng)該嘗試將辯論保持在理性的水平上?!?/p>
向上看
辛頓的首要任務(wù)之一是嘗試與技術(shù)行業(yè)的領(lǐng)導(dǎo)者合作,看看他們是否能夠走到一起,就有哪些風(fēng)險(xiǎn)以及如何應(yīng)對這些風(fēng)險(xiǎn)達(dá)成一致。他認(rèn)為化學(xué)武器的國際禁令可能是如何著手遏制危險(xiǎn)人工智能的開發(fā)和使用的一種模式?!斑@并非萬無一失,但總的來說人們不使用化學(xué)武器,”他說。
Bengio 同意辛頓的觀點(diǎn),即這些問題需要盡快在社會(huì)層面上解決。但他表示,人工智能的發(fā)展速度超過了社會(huì)能夠跟上的速度。這項(xiàng)技術(shù)的能力每隔幾個(gè)月就會(huì)躍進(jìn)一次;而立法、監(jiān)管和國際條約則需要幾年時(shí)間。
這讓 Bengio 懷疑,我們社會(huì)目前的組織方式 -- 在國家和全球?qū)用?-- 是否能夠應(yīng)對挑戰(zhàn)。“我相信我們應(yīng)該對我們星球的社會(huì)組織采用完全不同的模式的可能性持開放態(tài)度,”他說。
辛頓真的認(rèn)為他能讓足夠多的當(dāng)權(quán)者分享他的關(guān)注嗎?他不知道。幾周前,他看了部電影《不要抬頭》(Don’t Look Up),其中一顆小行星向地球撞去,但沒有人能就如何應(yīng)對達(dá)成一致,最后每個(gè)人都死了。
他說:“我認(rèn)為人工智能也是如此,其他難以解決的大問題也是如此?!彼f:“美國甚至不能同意將突擊步槍從十幾歲的男孩手中拿走?!?/p>
辛頓的論點(diǎn)令人警醒。我贊同他對人們在面臨嚴(yán)重威脅時(shí)集體無法采取行動(dòng)的悲觀評估。同樣真實(shí)的是,人工智能有可能造成真正的傷害 -- 破壞就業(yè)市場,加劇不平等,使性別歧視和種族主義惡化等等。我們需要關(guān)注這些問題。但我仍然無法從大型語言模型跳到機(jī)器人霸主。也許我是個(gè)樂觀主義者。
辛頓送我出來時(shí),天已經(jīng)變得灰暗潮濕?!昂煤孟硎馨?,因?yàn)槟憧赡軟]剩多少時(shí)間了,”他說。他笑了笑,關(guān)上了門。
來源:麻省理工科技評論