文|經(jīng)緯創(chuàng)投
在過去這段時間里,GPT-4從初發(fā)布、到與Office合體、再到接入插件,每次亮相都引發(fā)了AI廣泛和熱烈的討論。許多人表示對GPT-4的到來表示驚喜,也有許多人對其背后的風(fēng)險感到畏懼。
3月29日,一封來自馬斯克等數(shù)千位科技界知名人士的聯(lián)名信公開,信中呼吁所有AI實驗室暫停研發(fā)比GPT-4更強(qiáng)大的人工智能系統(tǒng),時間至少6個月。該暫停應(yīng)當(dāng)是公開的、可驗證的,所有關(guān)鍵參與者都不例外,必要時政府應(yīng)當(dāng)介入實施暫停令。他們表示AI將為社會和人類帶來巨大風(fēng)險,試圖給最近一路狂飆的AI按下暫停鍵。
這種恐懼并非杞人憂天。GPT-4開啟的大模型時代標(biāo)志著AI的新一層進(jìn)化,更被視作是AGI時代到來的前奏。就連OpenAI創(chuàng)始人Sam Altman也在采訪中表示,GPT-4的風(fēng)險讓他有點害怕。
馬斯克等人的聯(lián)名信引發(fā)軒然大波,經(jīng)過發(fā)酵后,不少知名人士對此進(jìn)行表態(tài),已經(jīng)形成了暫停半年派、擁抱未來派、徹底封禁派等數(shù)派代表意見。而在個人之外,各國政府也開始考慮如何對AI進(jìn)行規(guī)范。
在馬斯克等人的聯(lián)名信中,眾人要求所有AI實驗室和獨(dú)立專家,利用6個月的暫停期共同研究制定并且實施針對先進(jìn)AI設(shè)計和開發(fā)的安全協(xié)議。
面臨AGI的到來,人工智能應(yīng)該具有哪些倫理價值?如何在創(chuàng)新和規(guī)范之間平衡AI治理?國際人工智能協(xié)會(AAAI)執(zhí)行委員會成員、人工智能專家托比·沃爾什(Toby Walsh)在《2062:終結(jié)》一書中,對上述問題給出了他的思考。對于AI的規(guī)范,或許我們可以從他對于人工智能的看法中,窺見些許方向。以下,Enjoy:
01 AI該不該停?停6個月真的有用嗎?
馬斯克等人的聯(lián)名信引發(fā)軒然大波,經(jīng)過發(fā)酵后,不少知名人士對此進(jìn)行表態(tài),已經(jīng)形成了數(shù)派代表意見:
暫停半年派
以馬斯克為首,還有1000多位知名人士表示AI研發(fā)應(yīng)暫停六個月,包括蘋果公司的聯(lián)合創(chuàng)始人Steve Wozniak,《人類簡史》的作者Yuval Noah Harari,還有機(jī)器學(xué)習(xí)領(lǐng)域中最杰出的學(xué)者等等。他們表示,AI現(xiàn)在在完成某些任務(wù)時已經(jīng)能達(dá)到人類智能所完成的水平,如果人類很難完全理解、預(yù)測和掌控AI,這個世界將是非常危險的。
此外,他們提出:AI是否為網(wǎng)絡(luò)世界帶來大量的假消息和虛假宣傳,是否將替代給人帶來意義感的工作崗位,或是是否會在數(shù)量上、智力上等方面超越人類并最終取代人類?在這種情況下,人類的文明還能存在嗎?
圖靈獎得主、深度學(xué)習(xí)三巨頭之一Yoshua Bengio是這份公開信上的第一個名字。Bengio在29日的新聞發(fā)布會上表示:現(xiàn)在的AI已經(jīng)足夠強(qiáng)大,人們無法辨別電腦屏幕背后的與自己對話的到底是人還是AI。社會、政府和企業(yè)的變化速度趕不上AI的進(jìn)化速度,在AI變得過于強(qiáng)大之前,我們需要時間來想想對策。
聯(lián)名信要求所有AI實驗室和獨(dú)立專家,利用6個月的暫停期共同研究制定并且實施針對先進(jìn)AI設(shè)計和開發(fā)的安全協(xié)議,保證企業(yè)的設(shè)計開發(fā)活動經(jīng)第三方嚴(yán)格審計和監(jiān)督。信中表示,該提議并非想遏制AI發(fā)展,而是在更不可預(yù)測的黑箱AI模型出世之前做好風(fēng)險應(yīng)對。它的結(jié)尾寫道,在AI為社會帶來災(zāi)難之前,我們應(yīng)當(dāng)停下來,享受一個長長的AI之夏,不要在沒有準(zhǔn)備好的情況下沖進(jìn)AI之秋。
擁抱未來派
對于此封聯(lián)名信,當(dāng)然也不乏反對者,反對的主要理由是,停6個月也于事無補(bǔ)。
Coursera聯(lián)合創(chuàng)始人、AI大牛吳恩達(dá)公開表示,除非政府介入,否則暫停GPT的發(fā)展并不現(xiàn)實。但如果允許政府出面暫停一個他們并不了解的新興產(chǎn)業(yè)的發(fā)展,將會對市場活動和創(chuàng)新政策帶來不利影響。最好的方法是在提高透明度、加強(qiáng)審計方面下功夫。AI確有風(fēng)險,但大部分AI研發(fā)團(tuán)隊對其安全性承擔(dān)起了責(zé)任,我們無需過于憂慮。
他還指出,GPT-4在教育、醫(yī)療保健、食品等領(lǐng)域都帶來很多新的應(yīng)用,切實幫助了很多人,如果現(xiàn)在要求停止對其訓(xùn)練,將是非??膳碌?。
Meta人工智能研究院研究員田源棟博士認(rèn)為,AI的發(fā)展一旦開始就停不下來了。開弓沒有回頭箭,這就是進(jìn)化的必然。人類應(yīng)當(dāng)向前看,更好地理解LLM(大語言模型),學(xué)會適應(yīng)并利用它的力量,趕上這股浪潮。
物理學(xué)家David Deutsch更是在推特上表示,這封信混淆了AI和AGI,看起來就像是在說我們不應(yīng)該做任何人類無法預(yù)測的事情。
本周,Bill Gates也對此表態(tài),表示暫停AI發(fā)展無法解決挑戰(zhàn),他很難想象如何在全球范圍內(nèi)暫停AI發(fā)展,這具體執(zhí)行起來將非常困難。3月,他曾撰寫以《AI時代已開始》為名的博客,高度肯定人工智能革命的地位。
除了暫停6個月到底有沒有用,很多人還對于是否真的能暫停提出質(zhì)疑。
此前曾公開表示GPT模型沒有前途的圖靈獎得主LeCun表示,他沒簽名的原因是,公開信中所提及的“暫停研發(fā)”=“秘密研發(fā)”。他指出聯(lián)名信提出的倡議用處不大,并轉(zhuǎn)發(fā)另一位大佬的推文表示,該信充斥著夸張修辭和無效的政策方案。網(wǎng)友也表示,規(guī)則無法束縛那些最可能帶來風(fēng)險的人,真正希望用AI搞破壞的人還是會偷偷研究。
也有不少人認(rèn)為,一些公司主要是在利益驅(qū)動下提出此倡議,希望用這6個月的時間彎道超車,通過秘密研究重奪AI賽道的主動權(quán)。
徹底封禁派
還有一些人的態(tài)度更加堅決,他們要求永久封殺AI。
美國決策理論學(xué)家、機(jī)器智能研究機(jī)構(gòu)科學(xué)家Eliezer Yudkowsky從2001年開始就活躍在AI領(lǐng)域。他在《時代周刊》發(fā)表文章稱,他沒有簽字的原因是,6個月的暫停期遠(yuǎn)遠(yuǎn)不夠,盡管公開信中已經(jīng)闡述了AI的可能風(fēng)險,他認(rèn)為實際情況要嚴(yán)峻得多。他表示,公開信中所提到的“實現(xiàn)人類智能的AI”仍是一種過于樂觀的說法,未來AI的智能程度很有可能超越人類,AI發(fā)展會不知不覺地越過那條重要的警戒線。
文章探討了一個重要的可能性:人類創(chuàng)造出一個比自己聰明得多的AI后,該如何控制和管理它?最壞的但很有可能的結(jié)果是,人類將無法在AI控制的世界中活下來。
作者表示,雖然有一種可能性是,AI和人的欲望并不相同,也對人的存在毫不在乎。我們應(yīng)當(dāng)教會AI這種與人相處之道,以降低未來的潛在風(fēng)險,但是如何做仍是最大難題。
但另一種可能性仍在存在,即AI可能會對人類抱有敵意。AI不可能被困在電腦里太久,一旦它們找到突圍之道,就如同一個比人類聰明數(shù)千萬倍的外星文明,可以輕而易舉地在地球上抹掉人類的蹤跡。而人類顯然還不知道,該如何應(yīng)對這種可能的情況。
更重要的是,Yudkowsky強(qiáng)調(diào),并非AI在具有意識時才能夠?qū)谷祟悺N覀兯鶚?gòu)建的認(rèn)知系統(tǒng)的計算過程太過于復(fù)雜,人類并不具有解碼AI運(yùn)行具體過程的能力。在這種情況下,到底是人創(chuàng)造了AI,還是AI自己創(chuàng)造了自己?
他還表示,微軟CEO在新必應(yīng)發(fā)布后向谷歌示威,這種做法是非常不明智的,完全對AI的風(fēng)險視若無睹,而只著眼于科技巨頭間的競爭,對人類的未來非常危險。
文章要求,在全球范圍內(nèi)無限期地中止所有新的大語言模型的訓(xùn)練,并關(guān)閉全部大型GPU集群,即使是政府和軍隊也不能例外。
各國政府:逐步規(guī)范AI
AI的發(fā)展之快超出了所有人的想象,各國政府也開始加快制定政策的速度。
上周,意大利個人數(shù)據(jù)保護(hù)局要求OpenAI暫停處理意大利用戶的數(shù)據(jù)。有關(guān)部門表示,“OpenAI這樣大規(guī)模收集和加工個人信息的活動是毫無法律根據(jù)的。此前ChatGPT就曾發(fā)生bug,用戶能看到其他用戶與ChatGPT聊天的標(biāo)題?!庇捎贑hatGPT的不實信息問題,他們還表示了對OpenAI缺乏使用年齡限制的擔(dān)憂。
英國也在上周提出了規(guī)范AI的計劃,盡管沒有對ChatGPT指名道姓,也沒有針對AI制定新規(guī),但是政府要求各行各業(yè)的監(jiān)管者應(yīng)用其現(xiàn)行法律來規(guī)范AI。英國尤其強(qiáng)調(diào)了科技公司在開發(fā)AI時應(yīng)遵循的原則,包括安全性、公開性、公平性、責(zé)任心和反壟斷性。
據(jù)CNBC報道,其他歐盟國家可能會對AI采取比英國更嚴(yán)格的規(guī)范措施。歐盟在規(guī)范科技公司方面常常走在最前線,此前就曾發(fā)布?xì)W盟AI法案的草案,高度限制AI在重要基礎(chǔ)設(shè)施、教育、執(zhí)法和司法體系中的使用。歐盟認(rèn)為ChatGPT可能以高風(fēng)險的方式被應(yīng)用,可能會危及人類的基本權(quán)利和安全。
歐盟擁有非常多的AI專家,對OpenAI的規(guī)范也容易落實,因為OpenAI在歐盟沒有任何辦公室。德國聯(lián)邦數(shù)據(jù)保護(hù)委員Ulrich Kelber表示,德國也可能采取類似措施。法國和愛爾蘭的隱私政策官員也正在密切接觸意大利以求取經(jīng),但瑞典的數(shù)據(jù)保護(hù)局表示不會考慮對AI頒布禁令。
此外,美國總統(tǒng)拜登也于4月2日表示,AI的危險性仍然未可知,科技公司必須在保證產(chǎn)品的安全性基礎(chǔ)上才能進(jìn)行產(chǎn)品發(fā)布。此外,他呼吁國會限制科技公司對個人數(shù)據(jù)的收集,以及面向青少年的廣告。
OpenAI:正式回應(yīng)安全問題
對于外界的紛紛擾擾,OpenAI的CEO Sam Altman此前曾發(fā)推文表示,站在風(fēng)暴中間,我很平靜。他提出一個好的AGI應(yīng)該具備的三個特點,或許可以被視作對這場風(fēng)波的另一種回應(yīng):
1.對齊超級智能的技術(shù)能力;
2.大多數(shù)領(lǐng)先AGI之間的充分協(xié)調(diào);
3.一個有效的全球監(jiān)管框架。
OpenAI的另一位創(chuàng)始人轉(zhuǎn)發(fā)表示支持,并附言,OpenAI的使命是確保AGI惠及全人類。
隨著事態(tài)的發(fā)酵,4月5日,OpenAI正式發(fā)表《我們的AI安全措施》,對隱私問題、青少年問題,不實信息問題等都作出了正式回應(yīng)。文章表示,OpenAI一直致力于使AI工具保持安全性、并且對社會廣泛有益。確保AI系統(tǒng)的建造、部署和使用的安全性一直是他們的使命之一。
他們表示,在完成GPT-4的訓(xùn)練后,OpenAI花了超過半年的時間強(qiáng)化模型的安全和協(xié)調(diào)性,才最終發(fā)布了GPT-4。他們通過嚴(yán)格內(nèi)部測試和外部專家反饋改進(jìn)模型的行為,通過強(qiáng)化學(xué)習(xí)技術(shù)建立廣泛的安全和監(jiān)控系統(tǒng)。
關(guān)于隱私政策,OpenAI表示所有數(shù)據(jù)都用來提升GPT模型以幫助使用者,而非用于銷售服務(wù)、廣告等營利性互動。ChatGPT靠與人對話來進(jìn)行學(xué)習(xí),OpenAI的一些訓(xùn)練數(shù)據(jù)包括公共網(wǎng)絡(luò)上的私人信息 ,但他們希望模型學(xué)習(xí)的是世界,而不是個人。因此,OpenAI正致力于從訓(xùn)練數(shù)據(jù)中盡可能刪除個人信息,調(diào)整模型以拒絕獲取私人個人信息的請求,并響應(yīng)個人對于刪除其個人信息的要求。
關(guān)于青少年,只有18歲以上、或13歲以上且父母批準(zhǔn)的人才能夠使用其AI工具。OpenAI決不允許技術(shù)被用來產(chǎn)出仇恨、騷擾、暴力或成人內(nèi)容。GPT-4相比于GPT-3.5,對不合規(guī)內(nèi)容的響應(yīng)請求減少了82%。OpenAI稱已經(jīng)付出了巨大的努力,以最小化模型生成對兒童有害內(nèi)容的潛力。例如,當(dāng)用戶嘗試上傳兒童性虐待材料時,OpenAI會阻止并向國家失蹤和被剝削兒童中心報告。
關(guān)于不實信息,OpenAI表示如今的大型語言模型是憑借已有信息對接下來可能出現(xiàn)的word pattern進(jìn)行預(yù)測,已有信息里面包括用戶輸入的不實信息,因此ChatGPT基于錯誤信息作出的回答里也會出現(xiàn)不實信息。目前GPT-4的信息準(zhǔn)確度,已經(jīng)較GPT-3.5提高了40%。在用戶注冊ChatGPT之前,OpenAI就告知不實信息產(chǎn)生的可能性。他們將繼續(xù)推動準(zhǔn)確度的提升,并持續(xù)教育公眾AI工具的局限性。
OpenAI承諾,今后也會投入更多資源和努力,持續(xù)提升AI工具的安全性。
02 如何治理AI?
正如Arthur C. Clarke所提出,任何足夠先進(jìn)的技術(shù),都與魔法無異。我們?nèi)绾蝿?chuàng)造、利用、維護(hù)有史以來最強(qiáng)大的“魔法”?如何在教導(dǎo)“魔法”的同時,“馴服”魔法?
面臨AI魔法的到來,人工智能應(yīng)該具有哪些倫理價值?如何在創(chuàng)新和規(guī)范之間平衡AI治理?
作為國際人工智能協(xié)會(AAAI)執(zhí)行委員會成員、人工智能專家,托比·沃爾什(Toby Walsh)一直致力于研究如何讓人工智能更好地應(yīng)用于人類生活。在《2062:終結(jié)》一書中,他對上述問題給出了他的思考。對于AI的規(guī)范,或許我們可以從他對于人工智能的看法中,窺見些許方向。
有限制地注入意識或欲望
我們沒有測量意識的儀器,大腦中也沒有任何一個部分單獨(dú)負(fù)責(zé)意識。對于機(jī)器而言,意識與欲望是把雙刃劍,界定相當(dāng)重要。
舉個反面例子,假設(shè)阿爾法圍棋意識覺醒,將圍棋拋之腦后,而打算玩網(wǎng)絡(luò)撲克掙點錢,那他的欲望將驅(qū)使他走向研發(fā)初衷的反方向。
但至少現(xiàn)在,它并沒有意識,甚至不知道自己在玩圍棋,只是在計算贏得一場游戲的概率。沒有意識的情況下,他也不會出現(xiàn)電影中所描述的,產(chǎn)生了接管地球的欲望。
同樣,意識包含道德。正面角度而言,為了表現(xiàn)的有道德,計算機(jī)需要能夠反思其決定。復(fù)雜的社會能夠運(yùn)轉(zhuǎn),與我們能夠意識到他人在想什么十分相關(guān)。
機(jī)器的意識產(chǎn)生途徑有三:被編程而產(chǎn)生、從復(fù)雜性中出現(xiàn)、被習(xí)得而學(xué)會。人類至少有三分之二的把握,能夠控制機(jī)器的意識發(fā)展。
如果機(jī)器不是僵尸智能(意識、智力分開學(xué)習(xí)狀態(tài)),那么,我們必須做出一些具有挑戰(zhàn)性的道德決策。
當(dāng)涉及道德行為時,有意識的機(jī)器勝過無意識的機(jī)器,它可以反思自己的行動,從過去到現(xiàn)在,再到未來。
阿西莫夫曾在1942年提出了著名的機(jī)器人守則,或許可供未來規(guī)范與立法等參考:
第一條:機(jī)器人不得傷害人類,或袖手旁觀坐視人類受到傷害。
第二條:除非違背第一法則,機(jī)器人必須負(fù)責(zé)人類的命令。
第三條:在不違背第一法則及第二法則的情況下,機(jī)器人必須保護(hù)自己。
然而,這些法則仍然具有局限性。比如說,采取行動會傷害一個人;不采取行動會傷害另外一個人,會發(fā)生什么呢?兩個人發(fā)出沖突指令,又會發(fā)生什么呢?經(jīng)典的電車難題:選擇撞上孩童還是無人的汽車,便挑戰(zhàn)了阿西莫夫法則。
在此基礎(chǔ)上,第四條法則提出,它優(yōu)先性高于前三條法則:
第零守則:機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。
就此而言,我們或許需要機(jī)器人具備并保持一個比人類更高的道德水準(zhǔn)。比如,自動駕駛汽車永遠(yuǎn)不超速;獨(dú)立自主且具有武裝力量的無人機(jī)永遠(yuǎn)按照國際人道主義法進(jìn)行活動等。無論是個人、企業(yè)還是國家,在使用、經(jīng)營、鍛煉期間,都需要以人為本。
提高機(jī)器工作透明度
在機(jī)器做決策過程中,透明度也是至關(guān)重要的。我們希望機(jī)器不僅能夠做出公平的決定,還能夠在做出決定時保持透明度,以建立我們對其公平性的信心。這是當(dāng)今人工智能系統(tǒng)所面臨的主要挑戰(zhàn)。
機(jī)器如果能夠合理解釋決策,將有助于在出錯時及時糾正,同時,彌補(bǔ)人類決策的缺失。
合理的疼痛訓(xùn)練
讓機(jī)器體會到合理的痛苦,或許是可嘗試的,就像人類被灼燒會迅速將手拿開,這一行為具有積極的學(xué)習(xí)作用。
但同時,我們也應(yīng)當(dāng)考慮到,如果我們給予機(jī)器感知痛苦的能力,他們是否也會感知恐懼,從而防止自己受傷、防止自己嘗試危險工作呢?
那么,使用機(jī)器,從機(jī)器人角度出發(fā)的道德準(zhǔn)則,就需要再加一條。
克服機(jī)器偏見與算法歧視
在語言翻譯中,曾出現(xiàn)這樣一種問題:土耳其語中,“o”既可以是“他”,也可以是“她”,但當(dāng)翻譯回英語時,卻會自動產(chǎn)生性別之分,如“她是個護(hù)士”、“他是個士兵”等。
同時,如Compas程序,在進(jìn)行數(shù)據(jù)訓(xùn)練后,會針對性預(yù)測哪些囚犯會再次犯罪,這對未來的最壞結(jié)果預(yù)測,本身就不具有公平性,給人打上不可原諒的標(biāo)簽。
在計算機(jī)算法識別中,還存在著膚色問題。黑人女孩難以被計算機(jī)識別,這可能源于有偏見的數(shù)據(jù)測試。在人臉識別的數(shù)據(jù)集中,男性占77.5%,白人占83.5%。很明顯,更廣泛的人群需要被容納到測試空間中。
此類書面文本中長期存在的偏見與印象需要被統(tǒng)一規(guī)劃與避免。當(dāng)我們將問題移交給機(jī)器時,我們需要仔細(xì)考慮既定環(huán)境中,如何定義公平。
界定AI涉足的隱私領(lǐng)域
在人工智能時代,維護(hù)私人生活所必需的隱私將成為一個重大的挑戰(zhàn)。
谷歌公司首席互聯(lián)網(wǎng)科學(xué)絕Vint Cerf曾表示“隱私本質(zhì)上可能是一種非正常需求”。他所說的并不全無道理,人工智能的到來必將帶來更加嚴(yán)密的審查,實時追蹤一切與電子相關(guān)的事情。即便一家公司可以負(fù)責(zé)任地將數(shù)字隱秘起來,有可能會出現(xiàn)隱私保護(hù)失控的問題。物質(zhì)上的獨(dú)立空間、精神上的獨(dú)立思考與選擇,都需要法律進(jìn)行合理界定。
因此,有關(guān)隱私,AI需要被限制,公司需要有限制,個人也一樣。
當(dāng)?shù)貢r間3月31日,意大利個人數(shù)據(jù)保護(hù)局宣布,將暫時封鎖意大利境內(nèi)訪問ChatGPT的途徑,同時,審查OpenAI在最近一次網(wǎng)絡(luò)安全事件中收集的個人信息等問題。
建立AI工作的勞動保護(hù)
自20世紀(jì)以來,經(jīng)濟(jì)學(xué)家定期對工作做出預(yù)測,“技術(shù)性失業(yè)”常常出現(xiàn)在他們的預(yù)測結(jié)果當(dāng)中。更有美國學(xué)者預(yù)測,47%的工作,即將被取代。即便已有無數(shù)打工人自嘲飯碗不保,還是很少有人真心希望自己被加速“下班”。
人工智能對于工作本身,既是問題,又是答案。
AI的到來,將完成更多崗位任務(wù),釋放時間與精力給個人用于生活中的各個方面。但在知識宇宙膨脹時代,所有人都能平等地享受到不休眠機(jī)器人所創(chuàng)造的財富嗎?機(jī)器人如果跨越成管理層,對于個人的工作進(jìn)行評判打分,人性化的指標(biāo)又何在?工作空間全方位“被”觀察,又能否給人喘息的余地?
機(jī)器人踏入職場,或許也需要相應(yīng)的《勞動保護(hù)法》,保護(hù)AI,也保護(hù)人類。
辯證看待生命的期限與不朽
人工智能能夠帶“我們”走向永生嗎?
從醫(yī)學(xué)角度而言,人工智能能夠帶我們了解身體運(yùn)轉(zhuǎn)、如何工作、如何返老還童,硅谷富豪已經(jīng)在親身實踐身體極限。同時,我們也面臨著大部分生命終結(jié)的原因:衰老。如果人工智能真能突破這一點,我們也需要重新考慮:沒有終點的生活,需要我們重新考慮存在的意義。
另一方面,如果我們注定會衰老而離開,人工智能是否有權(quán)利帶著我們的記憶“活”下去?這是生命與道德的雙重考量。
無論哪種“不朽”,都不得不歸結(jié)到社會轉(zhuǎn)變上來。誰能夠通過某種方式獲得“不朽”的機(jī)會呢?貧富差距又能否導(dǎo)致壽命長短差異從而陷入死循環(huán)?
生命是短暫的,這是它美感的一部分,當(dāng)AI有能力逆轉(zhuǎn)一點點的局勢,我們就不得不重視起來,是否應(yīng)當(dāng)限制AI賦予生命全新的意義;如何將AI提供的生命機(jī)會公平地提供給所有人。
警惕AI武器的濫用
戰(zhàn)場上,如果人類也能被機(jī)器人替代,那新的軍備競賽將開始打響。普遍存在的致命自主武器,如果從人為控制發(fā)射全部替換成機(jī)器人,那這將是一場高科技的較量?!案蓛簟钡募夹g(shù)戰(zhàn)場,卻也隱藏著一絲可怕的火藥味。
完全自主的武器將更加強(qiáng)大。比如,無人機(jī)空軍,飛行員不用冒生命危險作戰(zhàn),作戰(zhàn)優(yōu)勢將不斷提高。不需要食物供應(yīng)與薪酬,還能全天候作戰(zhàn),永遠(yuǎn)服從、執(zhí)行命令,這樣的軍事夢想,完美而可怕。
當(dāng)用代碼可以指揮數(shù)以千計的作戰(zhàn)武器,戰(zhàn)爭工業(yè)化也隨之到來。戰(zhàn)爭的各類道德性借口,“為了家人、親友的不得已”都將土崩瓦解。那么,只需要出無人機(jī)進(jìn)行對抗卻無人傷亡的干凈戰(zhàn)場,真的存在嗎?并不一定。
致命性自主武器的威懾力,從不只是幾行代碼那么簡單。控制武器,比制造武器要求更加謹(jǐn)慎精準(zhǔn)。當(dāng)AI能控制大規(guī)模殺傷性武器,即便只有萬分之一的“誤差”,人類也會感到威懾與恐懼。
機(jī)器人出現(xiàn)在汽車工廠等地方,具有充分的理由,但出現(xiàn)在戰(zhàn)場中卻不太明智。戰(zhàn)場本身就充滿了不確定性與混亂,無論是機(jī)器、人類抑或是代碼,都有犯錯幾率。武器的速度極快,出錯的可能性會隨之增加,人類、土地都不該用“誤傷”來解釋。
所以,合理利用自主武器,遵守國際人道主義法至關(guān)重要。這還涉及到一個“責(zé)任差距”問題,如果致命性自主武器真的出錯,誰來負(fù)責(zé)?誰被審判?
在國際人工智能聯(lián)合會議上,已有公開信呼吁聯(lián)合國禁止進(jìn)攻性自主武器。迄今為止,已有多個國家呼吁聯(lián)合國禁止致命性自主武器。部分類似的《特定常規(guī)武器公約》中,也應(yīng)當(dāng)對應(yīng)考慮AI加入后的新情況。
References:
[1]《2062:終結(jié)》Toby Walsh
[2]Elon Musk Signs Open Letter Urging AI Labs to Pump the Brakes, TIME, https://time.com/6266679/musk-ai-open-letter/
[3] OpenAI CEO Sam Altman Says AI will Reshape Society, Acknowledges Risks:'A Little Bit Scared of This', abcNEWS,https://abcnews.go.com/amp/Technology/openai-ceo-sam-altman-ai-reshape-society-acknowledges/story?id=97897122
[4]Pausing AI Developments Isn't Enough. We Need to Shut it All Down, TIME,https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
[5]A Canadian godfather of AI calls for a ‘pause’ on the technology he helped create, Financial post, https://financialpost.com/technology/canadian-godfather-ai-pause-technology-helped-create
[6]“Godfather of artificial intelligence” weighs in on the past and potential of AI, CBS NEWS, https://www.cbsnews.com/news/godfather-of-artificial-intelligence-weighs-in-on-the-past-and-potential-of-artificial-intelligence/
[7]Italy became the first Western country to ban ChatGPT. Here's what other countries are doing, CNBC, https://www.cnbc.com/amp/2023/04/04/italy-has-banned-chatgpt-heres-what-other-countries-are-doing.html
[8]Bill Gates says calls to pause AI won't solve challenges, REUTERS, https://www.reuters.com/technology/bill-gates-says-calls-pause-ai-wont-solve-challenges-2023-04-04/
[9]Biden says tech companies must ensure AI products are safe, AP NEWS, https://apnews.com/article/joe-biden-artificial-intelligence-science-technology-chatgpt-6948df344041ef1e794d199595bf69e9
[10] Our approach to AI safety, OpenAI, https://openai.com/blog/our-approach-to-ai-safety