編譯 | 智東西 吳菲凝
編輯 | 李水青
智東西3月29日消息,在未來生命研究所(Future of Life Institute)官網(wǎng)上,包括圖靈獎(jiǎng)得主約書亞·本吉奧(Yoshua Bengio)、特斯拉CEO埃隆·馬斯克(Elon Musk)、蘋果公司聯(lián)合創(chuàng)始人史蒂夫 沃茲尼亞克(Steve Wozniak)、DeepMind高級研究科學(xué)家扎卡里·肯頓(Zachary Kenton)等在內(nèi)的數(shù)千名AI領(lǐng)域企業(yè)家、學(xué)者、高管發(fā)出了一封題為《暫停大型人工智能研究》公開信。
這些AI專家們在信中強(qiáng)烈呼吁:所有AI研究室立刻暫停訓(xùn)練比GPT-4更加強(qiáng)大的AI系統(tǒng),為期至少6個(gè)月,并建議各大企業(yè)、機(jī)構(gòu)共同開發(fā)一份適用于AI研發(fā)的安全協(xié)議,同時(shí)信中還提到各國政府應(yīng)當(dāng)在必要的時(shí)候介入其中。截至目前,已有1125人簽名支持這封公開信。
▲目前的簽名名單
專家們在信中指出,AI智能系統(tǒng)在和人類競爭的過程中可能會(huì)對社會(huì)和人類造成巨大風(fēng)險(xiǎn)。
這封信尖銳發(fā)出四大問:
1、我們是否應(yīng)該讓機(jī)器用宣傳和不實(shí)之詞充斥我們的信息渠道?
2、我們是否應(yīng)該使所有的工作都自動(dòng)化?
3、我們是否應(yīng)該發(fā)展可能超過并取代我們的非人類思維?
4、我們是否應(yīng)該去冒失去對自身文明控制的風(fēng)險(xiǎn)?
專家們在信中補(bǔ)充道,全球的AI實(shí)驗(yàn)室和該領(lǐng)域?qū)<覒?yīng)該利用這次暫停研究的機(jī)會(huì),共同制定和實(shí)施一套全人類共享的安全協(xié)議,用于未來更加先進(jìn)的AI設(shè)計(jì)和開發(fā)。這些協(xié)議需要由外部專家進(jìn)行嚴(yán)格的審計(jì)監(jiān)督,來確保整個(gè)系統(tǒng)經(jīng)受得住質(zhì)疑。
但此次暫停并不意味著未來完全停止繼續(xù)研發(fā)人工智能,只是讓產(chǎn)業(yè)暫時(shí)從激進(jìn)的、危險(xiǎn)的AI競賽中退一步,退到更具潛力的新興科技的蓄力準(zhǔn)備當(dāng)中。
OpenAI此前發(fā)布的GPT-4是人工智能領(lǐng)域發(fā)展歷程中的一大重要里程碑,專家認(rèn)為,將在今年晚些時(shí)候發(fā)布的GPT-5將會(huì)在可靠性、創(chuàng)造性和對復(fù)雜任務(wù)的適應(yīng)性上更上一層樓,可能帶來更多新功能的升級,比如根據(jù)用戶的特定需求和輸入變量量身定制,提供更加個(gè)性化的體驗(yàn);增強(qiáng)AI以更像人類的方式理解和響應(yīng)自然語言的能力;通過提供相關(guān)信息和見解,幫助用戶做出明智的決策等。
GPT-5將會(huì)在各方面能力上遠(yuǎn)超GPT-4,而這也是數(shù)千位AI專家們發(fā)起這封公開信的主要原因:進(jìn)步伴隨著隱患。
以下為公開信全文內(nèi)容:
正如廣泛的研究和頂級人工智能實(shí)驗(yàn)室所表明的那樣,具有人類競爭智能思維的人工智能系統(tǒng)可能會(huì)對社會(huì)和人類構(gòu)成深刻的風(fēng)險(xiǎn)。正如被廣泛認(rèn)可的《阿西洛馬人工智能原則》中所說,高級人工智能可能代表著地球上生命歷史的深刻變化,應(yīng)該以相應(yīng)的謹(jǐn)慎態(tài)度和資源進(jìn)行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個(gè)月看到人工智能實(shí)驗(yàn)室陷入了一場失控的競賽中,大家都在開發(fā)和部署越來越強(qiáng)大的數(shù)字思維,包括創(chuàng)造者在內(nèi)的所有人都無法理解、預(yù)測甚至控制這些人工智能的繁衍。
當(dāng)代人工智能系統(tǒng)在一些日常任務(wù)中已經(jīng)可以與人類相匹敵。我們需要捫心自問:
我們是否應(yīng)該讓機(jī)器用宣傳和謊言充斥在我們各種信息渠道?我們是否應(yīng)該把所有的工作都自動(dòng)化,包括那些給人帶來滿足感的工作?我們是否應(yīng)該開發(fā)非人類的大腦,使其最終超過我們的數(shù)量,勝過我們的智慧,淘汰我們并取代我們?我們是否要冒著失去對我們文明控制的風(fēng)險(xiǎn)?
此類決策不得委托給未經(jīng)選舉的技術(shù)領(lǐng)導(dǎo)者。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI最近關(guān)于通用人工智能的聲明指出,“在某些時(shí)候,在開始訓(xùn)練未來系統(tǒng)之前,獲得獨(dú)立審查至關(guān)重要,而且必須限制用于創(chuàng)建新模型的計(jì)算增長率。我們無比同意這一觀點(diǎn),而且現(xiàn)在是時(shí)候這樣做了。”
因此,我們呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,為期至少6個(gè)月。這種暫停應(yīng)該是公開的、可驗(yàn)證的,并包括所有關(guān)鍵參與者都應(yīng)該在列。如果這種暫停不能迅速實(shí)施,政府應(yīng)該介入并制定暫停令。
人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)利用這次暫停期,共同制定和實(shí)施一套先進(jìn)的人工智能設(shè)計(jì)和開發(fā)的共享安全協(xié)議,并由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審計(jì)和監(jiān)督。這些協(xié)議應(yīng)該確保遵守它們的系統(tǒng)是安全的、無可置疑的。當(dāng)然,這一行動(dòng)并不意味著暫停人工智能的總體發(fā)展,只是從越來越大且不可預(yù)測的黑盒模型的危險(xiǎn)競賽中退后一步。
人工智能的研究和開發(fā)應(yīng)該重新聚焦于使當(dāng)今強(qiáng)大的、最先進(jìn)的系統(tǒng)更加準(zhǔn)確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。
同時(shí),人工智能開發(fā)者必須與政策制定者合作,加快開發(fā)強(qiáng)大的人工智能治理系統(tǒng)的速度。至少應(yīng)該包括以下措施:
1、設(shè)立專門針對人工智能的新的且有能力的監(jiān)管機(jī)構(gòu);
2、監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計(jì)算能力池;
3、確定AI內(nèi)容出處和加上水印系統(tǒng),以幫助用戶區(qū)分真實(shí)和合成的內(nèi)容,并跟蹤模型泄漏;
4、強(qiáng)大的審計(jì)和認(rèn)證生態(tài)系統(tǒng);
5、對人工智能造成的傷害承擔(dān)責(zé)任;
6、為人工智能安全技術(shù)研究提供強(qiáng)大的公共資金;
7、各機(jī)構(gòu)保證有充足的資源來應(yīng)對人工智能可能導(dǎo)致的巨大經(jīng)濟(jì)和政治破壞。
人類可以享受人工智能帶來的繁榮未來。在成功創(chuàng)造出強(qiáng)大的AI系統(tǒng)之后,我們現(xiàn)在可以享受一個(gè)“人工智能之夏”,設(shè)計(jì)這些系統(tǒng)以造福所有人,并為社會(huì)提供大量機(jī)會(huì)。讓我們享受一個(gè)漫長的人工智能夏季,而不是在毫無準(zhǔn)備的情況下匆忙進(jìn)入秋天。
結(jié)語:千人呼吁停訓(xùn)GPT-5,AI負(fù)面影響引關(guān)注
GPT-4剛出世不久,GPT-5已在狂飆而來的路上,但隨之而來的是不斷加劇的AI焦慮和潛在隱患:本就搶手的勞動(dòng)崗位被AI取代、工作機(jī)會(huì)更加稀缺,加劇了社會(huì)焦慮情緒的蔓延,以及AI換臉知名演員、AI生成低俗圖片等負(fù)面新聞不斷涌現(xiàn),這些便利和智能伴隨而來的困擾和隱患已經(jīng)對人們的日常生活產(chǎn)生了副作用。此次千名業(yè)內(nèi)大佬叫停GPT-5的訓(xùn)練意在及時(shí)剎車,讓愈演愈烈的AI競賽回到勻速發(fā)展的軌道。
但外媒The Verge看來,這封信不太可能對當(dāng)前的人工智能研究環(huán)境產(chǎn)生任何影響,谷歌和微軟等科技公司都急于部署新產(chǎn)品,經(jīng)常忽視以前公開宣稱的對安全和道德的擔(dān)憂。
來源:未來生命研究所官網(wǎng)