正在閱讀:

硅谷預(yù)言家安德森最新長文:AI不會毀滅世界,反而可能拯救它

掃一掃下載界面新聞APP

硅谷預(yù)言家安德森最新長文:AI不會毀滅世界,反而可能拯救它

“人工智能是一臺機(jī)器——不會比你的烤面包機(jī)更有生命力?!?/p>

攝影:界面新聞 范劍磊

文|Tech商業(yè)

知名風(fēng)險投資家馬克·安德森 (Marc Andreessen) 以“軟件正在吞噬世界software is eating the world”而聞名。在談到人工智能時,他聲稱人們應(yīng)該停止擔(dān)心并持續(xù)創(chuàng)造。

周二,安德森發(fā)表了一篇萬字長文,闡述了他對人工智能的看法、它帶來的風(fēng)險以及他認(rèn)為AI需要的監(jiān)管。在試圖抵消最近所有關(guān)于“AI 末日論”的討論時,他提出了一種可以被視為過于理想主義的觀點(diǎn):‘AI不想殺你Doesn’t want to kill you’。

安德森從對 AI 或機(jī)器學(xué)習(xí)的理解開始,稱其為“應(yīng)用數(shù)學(xué)和軟件代碼來教計算機(jī)如何以類似于人類的方式理解、綜合和生成知識”。

他說,人工智能是沒有感知力的——盡管它模仿人類語言的能力可以理解、愚弄一些人。事實是,它接受了人類語言的訓(xùn)練,并在該數(shù)據(jù)中找到高級模式。

“人工智能不想,它沒有目標(biāo),它不想殺死你,因為它沒有生命,”他寫道?!叭斯ぶ悄苁且慌_機(jī)器——不會比你的烤面包機(jī)更有生命力。”

安德森寫道,目前在 AI 世界中有一堵“散布恐懼和末日論的墻”。在沒有點(diǎn)名的情況下,他可能指的是知名技術(shù)領(lǐng)導(dǎo)者聲,稱該技術(shù)對人類構(gòu)成生存威脅的說法。上周,微軟創(chuàng)始人比爾·蓋茨、OpenAI 首席執(zhí)行官薩姆·奧特曼Sam Altman、DeepMind 首席執(zhí)行官戴米斯·哈薩比斯Demis Hassabis 等人簽署了一封來自人工智能安全中心的關(guān)于“人工智能滅絕的風(fēng)險the risk of extinction from AI”的信。

安德森寫道,科技公司的首席執(zhí)行官們有動力宣揚(yáng)這種世界末日的觀點(diǎn),因為“如果建立監(jiān)管壁壘,AI 供應(yīng)商范圍就會受政府保護(hù) ,免受新創(chuàng)業(yè)公司和開源競爭的影響,他們就會賺更多的錢?!?/em>

許多人工智能研究人員和倫理學(xué)家也批評了世界末日的說法。一種觀點(diǎn)認(rèn)為,過分關(guān)注人工智能不斷增長的力量及其未來威脅,會分散人們對現(xiàn)實生活中一些算法對邊緣化社區(qū)造成危害的注意力,而不是在未指明的未來。

安德森寫道,擔(dān)任 AI 安全專家、AI 倫理學(xué)家和 AI 風(fēng)險研究人員等角色的人“被付錢的監(jiān)督是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚恚彼麑懙馈嶋H上,人工智能研究、倫理、信任和安全社區(qū)的許多領(lǐng)導(dǎo)者都明確反對末日議程,而是專注于減輕當(dāng)今記錄在案的技術(shù)風(fēng)險。

安德森并沒有承認(rèn)任何記錄在案的人工智能在現(xiàn)實生活中的風(fēng)險——它的偏見會影響面部識別系統(tǒng)、保釋決定、刑事司法程序、抵押貸款批準(zhǔn)算法等等——聲稱人工智能可能是“一種讓我們關(guān)心的一切變得更好的方法”。

他認(rèn)為,人工智能在生產(chǎn)力、科學(xué)突破、創(chuàng)意藝術(shù)和降低戰(zhàn)時死亡率方面具有巨大潛力。

“今天人們用他們的自然智能/智力做的任何事情,都可以用人工智能做得更好,”他寫道?!岸椅覀儗⒛軌驊?yīng)對沒有人工智能就無法應(yīng)對的新挑戰(zhàn),從治愈所有疾病到實現(xiàn)星際旅行?!?/em>

安德森在 1990 年代因開發(fā)第一個流行的互聯(lián)網(wǎng)瀏覽器而聲名鵲起,他于 2009 年與本霍洛維茨Ben Horowitz一起創(chuàng)辦了他的風(fēng)險投資公司。兩年后,他寫了一篇經(jīng)常被引用的博客文章,題為“為什么軟件正在吞噬世界”,其中說就像之前的許多行業(yè)一樣,醫(yī)療保健和教育應(yīng)該進(jìn)行“基于軟件的基本轉(zhuǎn)型”。

“吞噬世界”Eating the world 正是許多人在談到 AI 時所害怕的。安德森說,除了試圖消除這些擔(dān)憂之外,還有很多工作要做。他鼓勵有爭議地使用 AI 本身,來保護(hù)人們免受 AI 偏見和傷害。

他說:“與私營部門合作的政府應(yīng)大力參與每個潛在風(fēng)險領(lǐng)域,以利用人工智能最大限度地提高社會的防御能力?!?在安德森自己的理想主義未來中,“每個孩子都會有一位無限耐心、無限慈悲、無限知識、無限幫助的 AI 導(dǎo)師?!?對于人工智能作為每個人、科學(xué)家、教師、首席執(zhí)行官、政府領(lǐng)導(dǎo)人甚至軍事指揮官的合作伙伴和合作者的角色,他表達(dá)了類似的愿景。

在安德森的整篇文章中,他指出了其他人在公開表達(dá)他們對 AI 的看法時的別有用心。但他也有自己的。他想在 AI 革命中賺錢,并以此為目標(biāo)投資初創(chuàng)公司。

“我不相信他們是魯莽的或惡棍,”他在帖子中總結(jié)道?!八麄兌际怯⑿郏恳粋€人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作?!?/em>

以下是安德森《為什么人工智能會拯救世界》Why AI Will Save The World 一文,編譯分享給大家:

人工智能時代來了,人們都嚇壞了。

幸運(yùn)的是,我來這里是為了帶來好消息:人工智能不會毀滅世界,實際上可能會拯救世界。

首先,簡要說明AI是什么:應(yīng)用數(shù)學(xué)和軟件代碼來教計算機(jī)如何以類似于人類的方式理解、綜合和生成知識。AI 是一種與其他任何計算機(jī)程序一樣的計算機(jī)程序——它運(yùn)行、接受輸入、處理并生成輸出。人工智能的輸出在廣泛的領(lǐng)域都很有用,從編程到醫(yī)學(xué)到法律再到創(chuàng)意藝術(shù)。與任何其他技術(shù)一樣,它由人擁有并由人控制。

對 AI不是什么的簡短描述是:殺手軟件和機(jī)器人會突然復(fù)活并決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。

對 AI可能是什么的更簡短描述是:一種讓我們關(guān)心的一切變得更好的方法。

為什么人工智能可以讓我們關(guān)心的一切變得更好

經(jīng)過幾十年和數(shù)千項研究,社會科學(xué)最有效的核心結(jié)論是,人類智力human intelligence可以改善廣泛范圍的生活結(jié)果。更聰明的人幾乎在每個活動領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成績、工作表現(xiàn)、職業(yè)地位、收入、創(chuàng)造力、身體健康、長壽、學(xué)習(xí)新技能、管理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、沖突解決、閱讀理解、財務(wù)決策制定、理解他人的觀點(diǎn)、創(chuàng)造性藝術(shù)、育兒成果和生活滿意度。

此外,人類智力是我們幾千年來用來創(chuàng)造我們今天生活的世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、道德,道德。如果沒有在所有這些領(lǐng)域應(yīng)用智力,我們都將仍然住在泥屋里,勉強(qiáng)維持生計農(nóng)業(yè)的微薄生存。相反,在過去的 4,000 年里,我們利用我們的智慧將我們的生活水平提高了 10,000 倍。

AI 為我們提供的是深刻增強(qiáng)人類智力的機(jī)會,使所有這些智力成果——以及許多其他成果,從新藥的創(chuàng)造到解決氣候變化的方法,再到到達(dá)星際旅行的技術(shù)——從這里變得更好。

AI 對人類智能的增強(qiáng)已經(jīng)開始——AI 已經(jīng)以多種計算機(jī)控制系統(tǒng)的形式存在于我們身邊,現(xiàn)在正通過 ChatGPT 等 AI 大型語言模型迅速升級,并且從這里開始加速——如果我們允許的話。

在我們的人工智能新時代:

每個孩子都會有一位無限耐心、無限慈悲、無限知識、無限幫助的AI導(dǎo)師。AI導(dǎo)師將陪伴在每個孩子成長的每一步,用無限愛的機(jī)器版幫助他們發(fā)揮最大潛能。

每個人都會有一位無限耐心、無限同情、無限知識和無限幫助的 AI 助手/教練/導(dǎo)師/培訓(xùn)師/顧問/治療師。人工智能助手將在生活中的所有機(jī)遇和挑戰(zhàn)中出現(xiàn),最大限度地提高每個人的成果。

每個科學(xué)家都會有一個 AI 助手/合作者/伙伴,這將極大地擴(kuò)展他們的科學(xué)研究和成果范圍。每個藝術(shù)家、每個工程師、每個商人、每個醫(yī)生、每個護(hù)理人員都會在他們的世界中擁有相同的東西。

每個人的領(lǐng)導(dǎo)者——首席執(zhí)行官、政府官員、非營利組織主席、體育教練、教師——都會有同樣的東西。領(lǐng)導(dǎo)者做出的更好決策對他們所領(lǐng)導(dǎo)的人的放大效應(yīng)是巨大的,因此這種智力增強(qiáng)可能是最重要的。

整個經(jīng)濟(jì)體的生產(chǎn)率增長將急劇加快,推動經(jīng)濟(jì)增長、新產(chǎn)業(yè)的創(chuàng)造、新就業(yè)機(jī)會的創(chuàng)造和工資增長,并導(dǎo)致全球物質(zhì)繁榮的新時代到來。

隨著人工智能幫助我們進(jìn)一步破譯自然法則并為我們謀取利益,科學(xué)突破以及新技術(shù)和藥物將顯著擴(kuò)展。

創(chuàng)意藝術(shù)將進(jìn)入黃金時代,因為人工智能增強(qiáng)的藝術(shù)家、音樂家、作家和電影制作人將能夠比以往任何時候更快、更大規(guī)模地實現(xiàn)他們的愿景。

我甚至認(rèn)為人工智能將在必要時通過大幅降低戰(zhàn)時死亡率來改善戰(zhàn)爭。每一場戰(zhàn)爭的特點(diǎn)都是在巨大的壓力下做出可怕的決定,并且由非常有限的人類領(lǐng)導(dǎo)人提供極其有限的信息?,F(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將擁有人工智能顧問,幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險、錯誤和不必要的流血事件。

簡而言之,當(dāng)今人們利用其自然智能所做的任何事情都可以通過 AI 做得更好,我們將能夠應(yīng)對如果沒有 AI 就無法應(yīng)對的新挑戰(zhàn),從治愈所有疾病到實現(xiàn)星際旅行。

這不僅僅是關(guān)于智力!也許人工智能最被低估的品質(zhì)是它的人性化程度。人工智能藝術(shù)讓缺乏技術(shù)技能的人可以自由地創(chuàng)造和分享他們的藝術(shù)想法。與善解人意的 AI 朋友交談確實可以提高他們處理逆境的能力。人工智能醫(yī)療聊天機(jī)器人已經(jīng)比人類同行更具同理心。無限耐心和富有同情心的人工智能不會讓世界變得更加嚴(yán)酷和機(jī)械化,而是會讓世界變得更加溫暖和美好。

這里的風(fēng)險很高。機(jī)遇是深遠(yuǎn)的。人工智能很可能是我們文明所創(chuàng)造的最重要——也是最好的——東西,當(dāng)然可以與電力和微芯片相提并論,甚至可能超越它們。

人工智能的發(fā)展和擴(kuò)散——遠(yuǎn)非我們應(yīng)該擔(dān)心的風(fēng)險——是我們對自己、對我們的孩子和對我們的未來所承擔(dān)的道德義務(wù)。

有了人工智能,我們應(yīng)該生活在一個更美好的世界中,現(xiàn)在我們可以做到。

那么為什么恐慌?

與這種積極觀點(diǎn)形成鮮明對比的是,目前關(guān)于 AI 的公眾對話充斥著歇斯底里的恐懼和偏執(zhí)狂。

我們聽到這樣的說法,人工智能會以各種方式殺死我們所有人,毀掉我們的社會,奪走我們所有的工作,造成嚴(yán)重的不平等,并讓壞人做出可怕的事情。

如何解釋這種從近乎烏托邦到可怕的反烏托邦的潛在結(jié)果的差異?

從歷史上看,每一項重要的新技術(shù),從電燈到汽車到收音機(jī)再到互聯(lián)網(wǎng),都引發(fā)了一種讓人們相信新技術(shù)將摧毀世界、社會的影響。幾十年來,悲觀主義者檔案館的優(yōu)秀人士記錄了這些技術(shù)驅(qū)動的道德恐慌;他們的歷史使這種模式生動清晰。事實證明,目前的恐慌甚至不是 AI 的第一次。

現(xiàn)在,可以肯定的是,許多新技術(shù)導(dǎo)致了糟糕的結(jié)果——通常是同樣的技術(shù)在其他方面對我們的福祉產(chǎn)生了巨大的好處。因此,僅僅存在道德恐慌并不意味著沒有什么可擔(dān)心的。

但道德恐慌本質(zhì)上是非理性的——它把可能是合理的擔(dān)憂夸大到歇斯底里的程度,具有諷刺意味的是,這使得人們更難面對真正嚴(yán)重的擔(dān)憂。

我們現(xiàn)在對人工智能有全面的道德恐慌嗎?

這種道德恐慌已經(jīng)被各種參與者用作動力,要求采取政策行動——新的 AI 限制、法規(guī)和法律。這些行動者就人工智能的危險發(fā)表了極其戲劇化的公開聲明——助長并進(jìn)一步煽動道德恐慌——所有這些人都把自己表現(xiàn)為公共利益的無私捍衛(wèi)者。

但他們是嗎?

他們是對還是錯?

人工智能的浸信會和走私者

經(jīng)濟(jì)學(xué)家觀察到這種改革運(yùn)動的長期模式。這些運(yùn)動中的參與者分為兩類——“浸信會”和“走私者”——借鑒了1920 年代美國禁酒的歷史例子:

“浸信會”是真正的信徒社會改革者,他們合理地——深刻地和情緒化地,如果不是理性地——認(rèn)為需要新的限制、法規(guī)和法律來防止社會災(zāi)難。

對于禁酒令,這些行動者通常是真正虔誠的基督徒,他們認(rèn)為酒精正在破壞社會的道德結(jié)構(gòu)。

對于 AI 風(fēng)險,這些參與者真正相信 AI 會帶來一種或另一種存在風(fēng)險——將他們綁在測謊儀上,他們是認(rèn)真的。

“走私者”是自私自利的機(jī)會主義者,他們通過實施新的限制、法規(guī)和法律將他們與競爭對手隔離開來,從而在經(jīng)濟(jì)上獲利。

對于禁酒,這些是字面上的私酒販子,他們在禁止合法酒類銷售時向美國人出售非法酒類發(fā)了財。

對于 AI 風(fēng)險,如果建立監(jiān)管壁壘,這些 CEO 將賺更多的錢,這些壁壘形成了一個由政府支持的 AI 供應(yīng)商組成的卡特爾,保護(hù)它們免受新創(chuàng)業(yè)公司和開源競爭的影響——“大而不倒”銀行的軟件版本。

憤世嫉俗的人會認(rèn)為,一些明顯的浸信會教徒也是走私者——特別是那些被他們的大學(xué)、智囊團(tuán)、活動家團(tuán)體和媒體機(jī)構(gòu)付錢攻擊 AI 的人。如果你拿薪水或接受助學(xué)金來助長 AI 恐慌……你可能是走私者。

走私者的問題在于他們會贏得他們想要的。浸信會是天真的空想家,走私者是憤世嫉俗的經(jīng)營者,所以像這樣的改革運(yùn)動的結(jié)果往往是走私者得到他們想要的東西——監(jiān)管俘獲、競爭隔離、卡特爾的形成——而浸信會則感到疑惑他們推動社會進(jìn)步的動力在哪里出錯了。

我們剛剛經(jīng)歷了一個令人震驚的例子——2008 年全球金融危機(jī)后的銀行業(yè)改革。浸信會告訴我們,我們需要新的法律法規(guī)來拆分“大到不能倒”的銀行,以防止此類危機(jī)再次發(fā)生。因此,(美)國會通過了 2010 年的多德-弗蘭克法案,該法案標(biāo)榜為滿足浸信會的目標(biāo),但實際上卻被走私者——大銀行所采用。結(jié)果是,2008 年“大到而能倒”的銀行現(xiàn)在規(guī)模大得多。

所以在實踐中,即使浸信會是真誠的——即使浸信會是正確的——他們也被操縱和貪污的私酒販子用作掩護(hù),以使自己受益。

這就是目前在推動 AI 監(jiān)管方面正在發(fā)生的事情。

然而,僅僅確定行動者身份并質(zhì)疑他們的動機(jī)是不夠的。我們應(yīng)該考慮浸信會和走私者的論點(diǎn)。

AI 風(fēng)險 #1:AI 會殺死我們所有人嗎?

第一個也是最初的 AI 末日風(fēng)險是 AI 將決定真正殺死人類。

對我們自己創(chuàng)造的技術(shù)會興起并摧毀我們的恐懼深深地融入了我們的文化中。希臘人在普羅米修斯神話中表達(dá)了這種恐懼——普羅米修斯給人類帶來了火的破壞力,更普遍的是技術(shù)(“techne”),為此普羅米修斯被眾神判處永久折磨。 后來,瑪麗雪萊在她的小說《弗蘭肯斯坦》或《現(xiàn)代普羅米修斯》 中為我們現(xiàn)代人提供了這個神話的版本,我們在其中開發(fā)永生技術(shù),然后崛起并試圖摧毀我們。當(dāng)然,如果沒有詹姆斯·卡梅隆的終結(jié)者電影中閃閃發(fā)光的紅眼殺人機(jī)器人的靜止圖像,任何關(guān)于 AI 恐慌的報紙報道都是不完整的。

這個神話的假定進(jìn)化目的是激勵我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險——畢竟,火確實可以用來燒毀整個城市。但正如火也是現(xiàn)代文明的基礎(chǔ),在寒冷和充滿敵意的世界中讓我們保持溫暖和安全一樣,這個神話忽略了大多數(shù) - 全部?– 新技術(shù),在實踐中激起了破壞性的情緒,而不是理性的分析。僅僅因為前現(xiàn)代人像這樣嚇壞了并不意味著我們必須這樣做;我們可以改用理性。

我的觀點(diǎn)是,人工智能將決定真正殺死人類的想法是一個嚴(yán)重的類別錯誤。人工智能不是經(jīng)過數(shù)十億年的進(jìn)化而準(zhǔn)備參與適者生存之戰(zhàn)的生物——就像動物和我們一樣。它是數(shù)學(xué)-代碼-計算機(jī),由人建造,由人擁有,由人使用,由人控制。它會在某個時候發(fā)展出自己的思想并決定它有導(dǎo)致自己試圖殺死人類的動機(jī)是一種迷信。

簡而言之,AI 不想,它沒有目標(biāo),它不想殺死人類,因為它沒有生命。人工智能是一臺機(jī)器——不會比你的烤面包機(jī)更有生命地活躍起來。

現(xiàn)在,很明顯,人工智能會毀滅人類的真正信徒——浸信會——他們的可怕警告突然獲得了大量的媒體報道,其中一些人聲稱已經(jīng)研究這個話題幾十年了,并說他們現(xiàn)在害怕自己的生活他們所學(xué)的思想。其中一些真正的信徒甚至是該技術(shù)的實際創(chuàng)新者。這些參與者主張對 AI 實施各種奇怪和極端的限制,從禁止 AI 開發(fā),一直到對數(shù)據(jù)中心的軍事空襲和核戰(zhàn)爭。他們爭辯說,因為像我這樣的人不能排除人工智能未來的災(zāi)難性后果,我們必須采取預(yù)防措施為了防止?jié)撛诘纳骘L(fēng)險,可能需要大量的身體暴力和死亡的立場。

我的回答是他們的立場是非科學(xué)的——什么是可檢驗的假設(shè)?什么會證偽這個假設(shè)?我們怎么知道我們何時進(jìn)入危險區(qū)域?除了“你無法證明它不會發(fā)生!”之外,這些問題基本上沒有答案。事實上,這些浸信會的立場是如此不科學(xué)和 極端——一個關(guān)于數(shù)學(xué)和代碼的陰謀論——并且已經(jīng)在呼吁身體暴力,以至于我會做一些我通常不會做的事情,并質(zhì)疑他們的動機(jī)。

具體來說,我認(rèn)為有以下三點(diǎn):

首先,回想一下約翰·馮·諾伊曼回應(yīng)羅伯特·奧本海默著名的關(guān)于他在制造核武器方面的作用——這有助于結(jié)束第二次世界大戰(zhàn)并防止第三次世界大戰(zhàn)——的回應(yīng)是,“有些人承認(rèn)有罪以聲稱自己的罪過?!?一個人可以在不顯得過于自負(fù)的情況下宣稱自己工作的重要性是最引人注目的方式是什么?這解釋了實際上正在構(gòu)建和資助 AI 的浸信會的言行之間的不匹配——注意他們的行動,而不是他們的話。(杜魯門在與奧本海默會面后更加嚴(yán)厲: “別再讓那個愛哭鬼進(jìn)來了?!?“Don’t let that crybaby in here again.”))

其次,一些浸信會實際上是走私者。有一整套“AI安全專家”、“AI倫理學(xué)家”、“AI風(fēng)險研究員”的職業(yè)。他們被付錢是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚怼?/p>

第三,加利福尼亞以數(shù)以千計的異教信仰Cults而聞名,從 EST 到人民圣殿教,從天堂之門到曼森家族。這些團(tuán)體中有許多(盡管不是全部)是無害的,甚至可能為那些在其中找到歸宿的異化者服務(wù)。但有些確實非常危險,眾所周知,邪教很難跨越最終導(dǎo)致暴力和死亡的界限。

灣區(qū)內(nèi)的每個人都清楚但灣區(qū)外可能并非如此的現(xiàn)實是,“AI 風(fēng)險”已經(jīng)發(fā)展成為一種異教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對話的日光下。這種異教不僅吸引了邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐助者——包括直到最近的Sam Bankman-Fried (FTX聯(lián)合創(chuàng)始人)。它發(fā)展出一整套異教行為和信仰。

這種異教就是為什么有一組 AI 風(fēng)險末日論者聽起來如此極端的原因——并不是說他們實際上擁有使他們的極端主義合乎邏輯的秘密知識,而是他們已經(jīng)把自己鞭打到狂熱中并且真的……極端極端。

......

不要誤會我的意思,異教很有趣,他們的書面材料通常富有創(chuàng)意和引人入勝,而且他們的成員在晚宴和電視上都很活躍。但他們的極端信仰不應(yīng)該決定法律和社會的未來——顯然也不是未來。

AI 風(fēng)險 #2:AI 會毀掉我們的社會嗎?

第二個廣泛討論的 AI 風(fēng)險是 AI 會通過產(chǎn)生如此“有害”的輸出來破壞我們的社會,使用這種末日毀滅者的術(shù)語,對人類造成深遠(yuǎn)的損害,即使我們不是字面上的殺了。

簡短版本:如果殺人機(jī)器人沒有抓住我們,仇恨言論和錯誤信息就會。

這是一個相對較新的末日擔(dān)憂,它從我上面描述的“AI 風(fēng)險”運(yùn)動中分支出來并在某種程度上接管了它。事實上,人工智能風(fēng)險的術(shù)語最近從“人工智能安全”——擔(dān)心人工智能會真正殺死我們的人使用的術(shù)語——變成了“人工智能對齊Alignment”——擔(dān)心社會“危害”的人使用的術(shù)語。最初的 AI 安全人士對這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何將其放回原處——他們現(xiàn)在主張將實際,該主題尚未被廣泛采用但至少是清楚的。

AI 社會風(fēng)險聲明的本質(zhì)是它自己的術(shù)語“AI 對齊Alignment”。對齊什么? 人類價值觀。 誰的人文價值觀念?啊,這就是事情變得棘手的地方。

碰巧的是,我曾在類似的情況下坐在前排——社交媒體“信任與安全”戰(zhàn)爭?,F(xiàn)在很明顯,社交媒體服務(wù)多年來一直承受著來自政府和活動家的巨大壓力,要求禁止、限制、審查和以其他方式壓制范圍廣泛的內(nèi)容。對“仇恨言論”(及其數(shù)學(xué)對應(yīng)物“算法偏見”)和“錯誤信息”的同樣擔(dān)憂正從社交媒體語境直接轉(zhuǎn)移到“人工智能對齊”的新領(lǐng)域。

我從社交媒體大戰(zhàn)中學(xué)到的重要知識是:

一方面,沒有絕對的言論自由立場。首先,包括美國在內(nèi)的每個國家都至少將某些內(nèi)容定為非法 。其次,有某些類型的內(nèi)容,例如兒童色情和煽動現(xiàn)實世界中的暴力,幾乎每個社會都幾乎普遍同意禁止訪問這些內(nèi)容——無論合法與否。因此,任何促進(jìn)或生成內(nèi)容(語音)的技術(shù)平臺都會受到一些限制。

另一方面,滑坡并不是謬誤,而是必然。一旦限制極其可怕的內(nèi)容的框架到位——例如,針對仇恨言論,一個特定的傷害性詞語,或針對錯誤信息,明顯是虛假的聲明,如“教皇已死”——范圍廣泛的政府機(jī)構(gòu) “和維權(quán)” 人士壓力團(tuán)體和 非政府實體將開始行動,并要求對他們認(rèn)為對社會和/或他們自己的個人偏好構(gòu)成威脅的任何言論進(jìn)行更嚴(yán)格的審查和壓制。他們將以赤裸裸的重罪方式做到這一點(diǎn) ——這個循環(huán)在實踐中顯然可以永遠(yuǎn)運(yùn)行,在我們精英權(quán)力結(jié)構(gòu)中安裝的專制大廳監(jiān)視器的熱情支持下。這已經(jīng)在社交媒體上流傳了十年,而且除了某些例外情況外,一直都在變得更加狂熱。

這就是現(xiàn)在圍繞“AI 對齊”形成的動態(tài)。它的支持者聲稱有智慧來設(shè)計 AI 生成的對社會有益的言論和思想,并禁止 AI 生成的對社會有害的言論和思想。它的反對者聲稱,思想警察是驚人的傲慢和專橫——而且往往是徹頭徹尾的犯罪,至少在美國是這樣——事實上,他們正在尋求成為一種新型的政府-企業(yè)-學(xué)術(shù)融合的專制言論專政——直接到喬治·奧威爾的1984 。

由于“信任與安全”和“人工智能對其”的支持者聚集在全球人口中非常小的一部分,這是美國沿海精英的特征——其中包括許多在科技行業(yè)工作和撰寫科技行業(yè)的人——許多我的讀者會發(fā)現(xiàn)自己準(zhǔn)備爭辯說需要對 AI 輸出進(jìn)行嚴(yán)格限制以避免破壞社會。我現(xiàn)在不會試圖說服你,我只是簡單地說,這是需求的本質(zhì),世界上大多數(shù)人既不同意你的意識形態(tài),也不希望看到你獲勝。

如果你不同意通過不斷強(qiáng)化的語音代碼強(qiáng)加給社交媒體和人工智能的主流利基道德,你還應(yīng)該意識到,關(guān)于允許人工智能說/生成什么的斗爭將更加重要 –很多- 而不是圍繞社交媒體審查制度的斗爭。人工智能極有可能成為世界萬物的控制層。它如何被允許運(yùn)作可能比其他任何事情都更重要。你應(yīng)該知道一小群孤立的黨派社會工程師如何在古老的聲稱他們正在保護(hù)你的掩護(hù)下試圖確定這一點(diǎn)。

總之,不要讓思想警察打壓AI。

AI 風(fēng)險 #3:AI 會搶走我們所有的工作嗎?

自機(jī)器織機(jī)等機(jī)器最初出現(xiàn)以來,數(shù)百年來,人們對因機(jī)械化、自動化、計算機(jī)化或人工智能而導(dǎo)致失業(yè)的恐懼一直是一種反復(fù)出現(xiàn)的恐慌。盡管在歷史上每一項新的主要技術(shù)都以更高的工資帶來了更多的工作,但每一波恐慌都伴隨著“這次不同”的說法——這是它最終會發(fā)生的時間,這是最終會發(fā)生的技術(shù)對人類勞動進(jìn)行錘擊。然而,它從未發(fā)生過。

我們最近經(jīng)歷了兩次這樣的技術(shù)驅(qū)動的失業(yè)恐慌周期 ——2000 年代的外包恐慌和2010 年代的自動化恐慌。盡管在過去的幾十年里,許多會說話的人、專家,甚至科技行業(yè)的高管都在敲桌子說大規(guī)模失業(yè)迫在眉睫,但到 2019 年底——就在 COVID 爆發(fā)之前——世界上的工作崗位比歷史上任何時候都多,工資更高。

不過這個錯誤的想法是不會死的。

果然,它回來了。

這一次,我們終于擁有了將取代所有工作并使人類工人變得多余的技術(shù)—— 真正的人工智能。這一次歷史肯定不會重演,人工智能將導(dǎo)致大規(guī)模失業(yè)——而不是經(jīng)濟(jì)、就業(yè)和工資的快速增長——對吧?

不,這不會發(fā)生——事實上,如果允許人工智能在整個經(jīng)濟(jì)中發(fā)展和擴(kuò)散,可能會導(dǎo)致有史以來最劇烈和持續(xù)的經(jīng)濟(jì)繁榮,相應(yīng)地創(chuàng)紀(jì)錄的工作和工資增長——與恐懼完全相反。

自動化扼殺工作的厄運(yùn)論者不斷犯的核心錯誤被稱勞動力謬誤Lump Of Labor Fallacy。這種謬誤是錯誤的觀念,即在任何給定時間經(jīng)濟(jì)中都有固定數(shù)量的勞動要做,機(jī)器做或人做——如果機(jī)器做,人就沒有工作可做...

勞動塊謬誤自然源于幼稚的直覺,但幼稚的直覺在這里是錯誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時,我們會提高生產(chǎn)率——通過減少投入來增加產(chǎn)出。結(jié)果是商品和服務(wù)的價格降低。隨著商品和服務(wù)價格的下降,我們?yōu)樗鼈冎Ц兜馁M(fèi)用減少,這意味著我們現(xiàn)在有額外的消費(fèi)能力來購買其他東西。這增加了經(jīng)濟(jì)中的需求,從而推動了新生產(chǎn)的創(chuàng)造——包括新產(chǎn)品和新產(chǎn)業(yè), 然后為那些在以前的工作中被機(jī)器取代的人創(chuàng)造新的就業(yè)機(jī)會。其結(jié)果是一個更大的經(jīng)濟(jì)體,擁有更高的物質(zhì)繁榮、更多的工業(yè)、更多的產(chǎn)品和更多的就業(yè)機(jī)會。

但好消息并不止于此。我們也可以獲得更高的工資。這是因為,在個體工人的層面上,市場將報酬設(shè)定為的函數(shù)。技術(shù)注入型企業(yè)的員工比傳統(tǒng)企業(yè)的員工更有效率。雇主要么支付該工人更多的錢,因為他現(xiàn)在的工作效率更高,要么另一個雇主純粹出于自身利益。結(jié)果是,引入一個行業(yè)的技術(shù)通常不僅會增加該行業(yè)的就業(yè)人數(shù),還會提高工資。

總而言之,技術(shù)使人們能夠提高工作效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價格下降,工資上漲。這反過來又會促進(jìn)經(jīng)濟(jì)增長和就業(yè)增長,同時推動創(chuàng)造新的就業(yè)機(jī)會和新的產(chǎn)業(yè)。如果允許市場經(jīng)濟(jì)正常運(yùn)行,如果允許技術(shù)自由引進(jìn),這是一個永無止境的永恒上升循環(huán)。因為,正如米爾頓·弗里德曼 (Milton Friedman) 觀察到的那樣,“人類的需求是無止境的”——我們想要的總是比我們擁有的更多。一個技術(shù)注入的市場經(jīng)濟(jì)是我們更接近于提供每個人都可以想象到的一切的方式,但從來沒有完全實現(xiàn)。這就是為什么技術(shù)不會而且永遠(yuǎn)不會破壞工作。

對于那些沒有接觸過它們的人來說,這些想法是如此令人興奮,你可能需要一些時間來理解它們。但我發(fā)誓它們不是我編造的——事實上你可以在標(biāo)準(zhǔn)的經(jīng)濟(jì)學(xué)教科書中讀到所有關(guān)于它們的內(nèi)容。我推薦Henry Hazlitt 的《經(jīng)濟(jì)學(xué)一課》中的機(jī)械詛咒The Curse of Machinery一章,以及 Frederic Bastiat 的諷刺蠟燭制造者請愿書,因為它與照明行業(yè)的不公平競爭而遮蔽了太陽,這里為我們的時代進(jìn)行了現(xiàn)代化改造。

但這次不一樣,你在想。 這一次,有了人工智能,我們擁有了可以取代所有人類勞動的技術(shù)。

但是,使用我上面描述的原則,想一想從字面上看,所有現(xiàn)有的人類勞動都將被機(jī)器取代意味著什么。

這將意味著經(jīng)濟(jì)生產(chǎn)力增長的起飛速度絕對是驚人的,遠(yuǎn)遠(yuǎn)超過任何歷史先例?,F(xiàn)有商品和服務(wù)的價格將全面下降至幾乎為零。消費(fèi)者福利將飆升。消費(fèi)者的消費(fèi)能力將飆升。經(jīng)濟(jì)中的新需求將會爆發(fā)。企業(yè)家們將創(chuàng)造出令人眼花繚亂的新產(chǎn)業(yè)、新產(chǎn)品和新服務(wù),并盡可能快地雇傭盡可能多的人和人工智能來滿足所有新需求。

假設(shè)人工智能再次取代勞動力——循環(huán)將重復(fù),推動消費(fèi)者福利、經(jīng)濟(jì)增長以及就業(yè)和工資增長更高。這將是一個直線上升的物質(zhì)烏托邦,這是亞當(dāng)·斯密或卡爾·馬克思都不敢夢想的。

我們將會變得如此幸運(yùn)。

AI 風(fēng)險 #4:AI 會導(dǎo)致嚴(yán)重的不平等嗎?

說到卡爾·馬克思,對人工智能搶走工作的擔(dān)憂直接引出了下一個聲稱的人工智能風(fēng)險,那就是,馬克思,假設(shè)人工智能確實搶走了所有的工作,無論是好是壞。這會不會導(dǎo)致嚴(yán)重的財富不平等,因為人工智能的所有者獲得了所有的經(jīng)濟(jì)回報而普通人一無所獲?

事實上,這是馬克思主義的一個核心主張,即生產(chǎn)資料的所有者——資產(chǎn)階級——將不可避免地從從事實際工作的人——無產(chǎn)階級那里竊取所有社會財富。

這個理論的缺陷在于,作為一項技術(shù)的所有者,將它留給自己并不符合你自己的利益——事實上恰恰相反,將它賣給盡可能多的客戶符合你自己的利益。世界上任何產(chǎn)品最大的市場是整個世界,我們 80 億人。所以在現(xiàn)實中,每一項新技術(shù)——即使是那些開始銷售給高薪大公司或富裕消費(fèi)者的稀薄空氣的技術(shù)——都會迅速擴(kuò)散,直到它到達(dá)盡可能大的大眾市場,最終到達(dá)地球上的每個人的手中。

這方面的典型例子是埃隆·馬斯克 (Elon Musk) 在 2006 年為特斯拉制定的所謂 “秘密計劃” —他自然而然地公開了這一計劃:

第 1 步,打造 [昂貴] 跑車Step 1

第 2 步,用這筆錢制造一輛負(fù)擔(dān)得起的汽車

第 3 步,用這筆錢制造一輛更實惠的汽車

......當(dāng)然這正是他所做的,結(jié)果成為世界上最富有的人。

最后一點(diǎn)是關(guān)鍵。如果埃隆今天只賣汽車給富人,他會更富有嗎?不,如果他只為自己制造汽車,他會比這更富有嗎?當(dāng)然不是。不,他通過向世界這個最大的可能市場銷售來最大化自己的利潤。

簡而言之,每個人都得到了東西——正如我們在過去看到的,不僅有汽車,還有電力、收音機(jī)、電腦、互聯(lián)網(wǎng)、手機(jī)和搜索引擎。此類技術(shù)的制造商非常積極地降低價格,直到地球上的每個人都能負(fù)擔(dān)得起。這正是 AI 中已經(jīng)發(fā)生的事情——這就是為什么你不僅可以低成本使用最先進(jìn)的生成 AI,甚至可以免費(fèi)使用 Microsoft Bing 和 Google Bard 的形式——而且這將繼續(xù)發(fā)生。不是因為這些供應(yīng)商愚蠢或慷慨,而是因為他們貪婪——他們想要最大化他們的市場規(guī)模,從而最大化他們的利潤。

因此,發(fā)生的情況與技術(shù)推動財富集中化相反——技術(shù)的個人客戶,最終包括地球上的每個人,反而被賦予了權(quán)力,并獲得了大部分產(chǎn)生的價值。與現(xiàn)有技術(shù)一樣,構(gòu)建人工智能的公司——假設(shè)它們必須在自由市場中運(yùn)作——將激烈競爭以實現(xiàn)這一目標(biāo)。

這并不是說不平等不是我們社會的問題。是的,它不是由技術(shù)驅(qū)動,而是被相反的驅(qū)動,由對新技術(shù)最有抵抗力的經(jīng)濟(jì)部門驅(qū)動,這些經(jīng)濟(jì)部門有最多的政府干預(yù)來阻止采用像人工智能這樣的新技術(shù)——特別是住房、教育和醫(yī)療保健。AI 和不平等的實際風(fēng)險不是 AI 會導(dǎo)致更多的不平等,而是我們不允許 AI 被用來減少不平等。

AI 風(fēng)險 #5:AI 會導(dǎo)致壞人做壞事嗎?

到目前為止,我已經(jīng)解釋了為什么五個最常被提及的 AI 風(fēng)險中有四個實際上并不真實——AI 不會復(fù)活并殺死我們,AI 不會毀滅我們的社會,AI 不會導(dǎo)致大規(guī)模失業(yè),AI 不會導(dǎo)致不平等的破壞性增加,但現(xiàn)在讓我們談?wù)劦谖妩c(diǎn),我非常同意的一點(diǎn):人工智能將使壞人更容易做壞事。

從某種意義上說,這是一個同義反復(fù)。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——也可以用來做壞事——燒人和打人。任何技術(shù)都可以用于好事或壞事。很公平。毫無疑問,人工智能將使罪犯、恐怖分子和敵對政府更容易做壞事。

這導(dǎo)致一些人提議,好吧,既然如此,我們就不要冒險了,讓我們在這種情況發(fā)生之前禁止人工智能吧。不幸的是,人工智能并不是像钚那樣難以獲得的深奧物理材料。恰恰相反,它是世界上最容易獲得的材料——數(shù)學(xué)和代碼。

你可以從數(shù)以千計的免費(fèi)在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建 AI,而且優(yōu)秀的開源實現(xiàn)每天都在激增。人工智能就像空氣——它將無處不在。逮捕如此嚴(yán)酷的人所需的極權(quán)主義壓迫程度——一個監(jiān)視和控制所有計算機(jī)的世界政府?黑色直升機(jī)中的長靴暴徒奪取流氓 GPU?– 我們不會有一個社會需要保護(hù)。

因此,有兩種非常直接的方法可以解決壞人用人工智能做壞事的風(fēng)險,而這些正是我們應(yīng)該關(guān)注的。

首先,我們有法律將任何人用人工智能做的大多數(shù)壞事定為犯罪。入侵五角大樓?那是一種犯罪。從銀行偷錢?那是一種犯罪。制造生化武器?那是一種犯罪。實施恐怖行為?那是一種犯罪。我們可以簡單地集中精力在力所能及的情況下防止這些罪行,在我們不能的情況下起訴它們。我們甚至不需要新的法律——我不知道有哪一個已經(jīng)被提議的 AI 的實際不良使用還不是非法的。如果發(fā)現(xiàn)新的不良用途,我們將禁止該用途。

但是你會注意到我在那里漏掉了什么——我說我們應(yīng)該首先關(guān)注在人工智能協(xié)助的犯罪發(fā)生之前預(yù)防它們——這樣的預(yù)防難道不意味著禁止人工智能嗎?好吧,還有另一種方法可以防止此類行為,那就是使用 AI 作為防御工具,使人工智能在有壞目標(biāo)的壞人手中變得危險的能力,在有好目標(biāo)的好人手中變得強(qiáng)大——特別是那些工作是防止壞事發(fā)生的好人。

例如,如果你擔(dān)心 AI 會生成假人和假視頻,那么答案就是構(gòu)建新系統(tǒng),讓人們可以通過加密簽名驗證自己和真實內(nèi)容。在 AI 出現(xiàn)之前就已經(jīng)存在了真實和虛假內(nèi)容的數(shù)字創(chuàng)建和更改;答案不是禁止文字處理器和 Photoshop——或人工智能——而是使用技術(shù)來構(gòu)建一個真正解決問題的系統(tǒng)。

因此,其次,讓我們做出重大努力,將 AI 用于好的、合法的防御目的。讓我們將 AI 用于網(wǎng)絡(luò)防御、生物防御、追捕恐怖分子,以及我們?yōu)楸Wo(hù)我們自己、我們的社區(qū)和我們國家的安全所做的一切。

當(dāng)然,政府內(nèi)外已經(jīng)有很多聰明人在做這件事——但如果我們把目前專注于禁止 AI 的徒勞前景的所有努力和腦力用于使用 AI 來防止壞人做壞事,我認(rèn)為毫無疑問,一個充滿人工智能的世界將比我們今天生活的世界安全得多。

......

為了抵消壞人用人工智能做壞事的風(fēng)險,政府與私營部門合作應(yīng)積極參與每個潛在風(fēng)險領(lǐng)域,以利用人工智能最大限度地提高社會的防御能力。這不應(yīng)僅限于人工智能帶來的風(fēng)險,還應(yīng)包括營養(yǎng)不良、疾病和氣候等更普遍的問題。人工智能可以成為解決問題的強(qiáng)大工具,我們應(yīng)該擁抱它。

......

這就是我們使用 AI 拯救世界的方式。

是時候建設(shè)了。It’s time to build.

我以兩個簡單的陳述結(jié)束本文。

人工智能的發(fā)展始于 1940 年代,與計算機(jī)的發(fā)明同時進(jìn)行。第一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的科學(xué)論文——我們今天擁有的人工智能的架構(gòu)——1943年發(fā)表。在過去的 80 年里,整整幾代人工智能科學(xué)家出生、上學(xué)、工作,在許多情況下都沒有看到我們現(xiàn)在得到的回報就去世了。他們都是傳奇,每一個人。

今天,越來越多的工程師——其中許多人很年輕,可能有祖父母甚至曾祖父母參與了 AI 背后思想的創(chuàng)造——正在努力使 AI 成為現(xiàn)實,反對散布恐懼和末日論的墻試圖把他們描繪成魯莽的惡棍。我不相信他們是魯莽的或惡棍。他們都是英雄,每一個人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作。

*Tech商業(yè)(ID:InnoBusiness)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

硅谷預(yù)言家安德森最新長文:AI不會毀滅世界,反而可能拯救它

“人工智能是一臺機(jī)器——不會比你的烤面包機(jī)更有生命力。”

攝影:界面新聞 范劍磊

文|Tech商業(yè)

知名風(fēng)險投資家馬克·安德森 (Marc Andreessen) 以“軟件正在吞噬世界software is eating the world”而聞名。在談到人工智能時,他聲稱人們應(yīng)該停止擔(dān)心并持續(xù)創(chuàng)造。

周二,安德森發(fā)表了一篇萬字長文,闡述了他對人工智能的看法、它帶來的風(fēng)險以及他認(rèn)為AI需要的監(jiān)管。在試圖抵消最近所有關(guān)于“AI 末日論”的討論時,他提出了一種可以被視為過于理想主義的觀點(diǎn):‘AI不想殺你Doesn’t want to kill you’。

安德森從對 AI 或機(jī)器學(xué)習(xí)的理解開始,稱其為“應(yīng)用數(shù)學(xué)和軟件代碼來教計算機(jī)如何以類似于人類的方式理解、綜合和生成知識”。

他說,人工智能是沒有感知力的——盡管它模仿人類語言的能力可以理解、愚弄一些人。事實是,它接受了人類語言的訓(xùn)練,并在該數(shù)據(jù)中找到高級模式。

“人工智能不想,它沒有目標(biāo),它不想殺死你,因為它沒有生命,”他寫道?!叭斯ぶ悄苁且慌_機(jī)器——不會比你的烤面包機(jī)更有生命力?!?/em>

安德森寫道,目前在 AI 世界中有一堵“散布恐懼和末日論的墻”。在沒有點(diǎn)名的情況下,他可能指的是知名技術(shù)領(lǐng)導(dǎo)者聲,稱該技術(shù)對人類構(gòu)成生存威脅的說法。上周,微軟創(chuàng)始人比爾·蓋茨、OpenAI 首席執(zhí)行官薩姆·奧特曼Sam Altman、DeepMind 首席執(zhí)行官戴米斯·哈薩比斯Demis Hassabis 等人簽署了一封來自人工智能安全中心的關(guān)于“人工智能滅絕的風(fēng)險the risk of extinction from AI”的信。

安德森寫道,科技公司的首席執(zhí)行官們有動力宣揚(yáng)這種世界末日的觀點(diǎn),因為“如果建立監(jiān)管壁壘,AI 供應(yīng)商范圍就會受政府保護(hù) ,免受新創(chuàng)業(yè)公司和開源競爭的影響,他們就會賺更多的錢?!?/em>

許多人工智能研究人員和倫理學(xué)家也批評了世界末日的說法。一種觀點(diǎn)認(rèn)為,過分關(guān)注人工智能不斷增長的力量及其未來威脅,會分散人們對現(xiàn)實生活中一些算法對邊緣化社區(qū)造成危害的注意力,而不是在未指明的未來。

安德森寫道,擔(dān)任 AI 安全專家、AI 倫理學(xué)家和 AI 風(fēng)險研究人員等角色的人“被付錢的監(jiān)督是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚恚彼麑懙?。實際上,人工智能研究、倫理、信任和安全社區(qū)的許多領(lǐng)導(dǎo)者都明確反對末日議程,而是專注于減輕當(dāng)今記錄在案的技術(shù)風(fēng)險。

安德森并沒有承認(rèn)任何記錄在案的人工智能在現(xiàn)實生活中的風(fēng)險——它的偏見會影響面部識別系統(tǒng)、保釋決定、刑事司法程序、抵押貸款批準(zhǔn)算法等等——聲稱人工智能可能是“一種讓我們關(guān)心的一切變得更好的方法”。

他認(rèn)為,人工智能在生產(chǎn)力、科學(xué)突破、創(chuàng)意藝術(shù)和降低戰(zhàn)時死亡率方面具有巨大潛力。

“今天人們用他們的自然智能/智力做的任何事情,都可以用人工智能做得更好,”他寫道?!岸椅覀儗⒛軌驊?yīng)對沒有人工智能就無法應(yīng)對的新挑戰(zhàn),從治愈所有疾病到實現(xiàn)星際旅行。”

安德森在 1990 年代因開發(fā)第一個流行的互聯(lián)網(wǎng)瀏覽器而聲名鵲起,他于 2009 年與本霍洛維茨Ben Horowitz一起創(chuàng)辦了他的風(fēng)險投資公司。兩年后,他寫了一篇經(jīng)常被引用的博客文章,題為“為什么軟件正在吞噬世界”,其中說就像之前的許多行業(yè)一樣,醫(yī)療保健和教育應(yīng)該進(jìn)行“基于軟件的基本轉(zhuǎn)型”。

“吞噬世界”Eating the world 正是許多人在談到 AI 時所害怕的。安德森說,除了試圖消除這些擔(dān)憂之外,還有很多工作要做。他鼓勵有爭議地使用 AI 本身,來保護(hù)人們免受 AI 偏見和傷害。

他說:“與私營部門合作的政府應(yīng)大力參與每個潛在風(fēng)險領(lǐng)域,以利用人工智能最大限度地提高社會的防御能力?!?在安德森自己的理想主義未來中,“每個孩子都會有一位無限耐心、無限慈悲、無限知識、無限幫助的 AI 導(dǎo)師。” 對于人工智能作為每個人、科學(xué)家、教師、首席執(zhí)行官、政府領(lǐng)導(dǎo)人甚至軍事指揮官的合作伙伴和合作者的角色,他表達(dá)了類似的愿景。

在安德森的整篇文章中,他指出了其他人在公開表達(dá)他們對 AI 的看法時的別有用心。但他也有自己的。他想在 AI 革命中賺錢,并以此為目標(biāo)投資初創(chuàng)公司。

“我不相信他們是魯莽的或惡棍,”他在帖子中總結(jié)道?!八麄兌际怯⑿?,每一個人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作?!?/em>

以下是安德森《為什么人工智能會拯救世界》Why AI Will Save The World 一文,編譯分享給大家:

人工智能時代來了,人們都嚇壞了。

幸運(yùn)的是,我來這里是為了帶來好消息:人工智能不會毀滅世界,實際上可能會拯救世界。

首先,簡要說明AI是什么:應(yīng)用數(shù)學(xué)和軟件代碼來教計算機(jī)如何以類似于人類的方式理解、綜合和生成知識。AI 是一種與其他任何計算機(jī)程序一樣的計算機(jī)程序——它運(yùn)行、接受輸入、處理并生成輸出。人工智能的輸出在廣泛的領(lǐng)域都很有用,從編程到醫(yī)學(xué)到法律再到創(chuàng)意藝術(shù)。與任何其他技術(shù)一樣,它由人擁有并由人控制。

對 AI不是什么的簡短描述是:殺手軟件和機(jī)器人會突然復(fù)活并決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。

對 AI可能是什么的更簡短描述是:一種讓我們關(guān)心的一切變得更好的方法。

為什么人工智能可以讓我們關(guān)心的一切變得更好

經(jīng)過幾十年和數(shù)千項研究,社會科學(xué)最有效的核心結(jié)論是,人類智力human intelligence可以改善廣泛范圍的生活結(jié)果。更聰明的人幾乎在每個活動領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成績、工作表現(xiàn)、職業(yè)地位、收入、創(chuàng)造力、身體健康、長壽、學(xué)習(xí)新技能、管理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、沖突解決、閱讀理解、財務(wù)決策制定、理解他人的觀點(diǎn)、創(chuàng)造性藝術(shù)、育兒成果和生活滿意度。

此外,人類智力是我們幾千年來用來創(chuàng)造我們今天生活的世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、道德,道德。如果沒有在所有這些領(lǐng)域應(yīng)用智力,我們都將仍然住在泥屋里,勉強(qiáng)維持生計農(nóng)業(yè)的微薄生存。相反,在過去的 4,000 年里,我們利用我們的智慧將我們的生活水平提高了 10,000 倍。

AI 為我們提供的是深刻增強(qiáng)人類智力的機(jī)會,使所有這些智力成果——以及許多其他成果,從新藥的創(chuàng)造到解決氣候變化的方法,再到到達(dá)星際旅行的技術(shù)——從這里變得更好。

AI 對人類智能的增強(qiáng)已經(jīng)開始——AI 已經(jīng)以多種計算機(jī)控制系統(tǒng)的形式存在于我們身邊,現(xiàn)在正通過 ChatGPT 等 AI 大型語言模型迅速升級,并且從這里開始加速——如果我們允許的話。

在我們的人工智能新時代:

每個孩子都會有一位無限耐心、無限慈悲、無限知識、無限幫助的AI導(dǎo)師。AI導(dǎo)師將陪伴在每個孩子成長的每一步,用無限愛的機(jī)器版幫助他們發(fā)揮最大潛能。

每個人都會有一位無限耐心、無限同情、無限知識和無限幫助的 AI 助手/教練/導(dǎo)師/培訓(xùn)師/顧問/治療師。人工智能助手將在生活中的所有機(jī)遇和挑戰(zhàn)中出現(xiàn),最大限度地提高每個人的成果。

每個科學(xué)家都會有一個 AI 助手/合作者/伙伴,這將極大地擴(kuò)展他們的科學(xué)研究和成果范圍。每個藝術(shù)家、每個工程師、每個商人、每個醫(yī)生、每個護(hù)理人員都會在他們的世界中擁有相同的東西。

每個人的領(lǐng)導(dǎo)者——首席執(zhí)行官、政府官員、非營利組織主席、體育教練、教師——都會有同樣的東西。領(lǐng)導(dǎo)者做出的更好決策對他們所領(lǐng)導(dǎo)的人的放大效應(yīng)是巨大的,因此這種智力增強(qiáng)可能是最重要的。

整個經(jīng)濟(jì)體的生產(chǎn)率增長將急劇加快,推動經(jīng)濟(jì)增長、新產(chǎn)業(yè)的創(chuàng)造、新就業(yè)機(jī)會的創(chuàng)造和工資增長,并導(dǎo)致全球物質(zhì)繁榮的新時代到來。

隨著人工智能幫助我們進(jìn)一步破譯自然法則并為我們謀取利益,科學(xué)突破以及新技術(shù)和藥物將顯著擴(kuò)展。

創(chuàng)意藝術(shù)將進(jìn)入黃金時代,因為人工智能增強(qiáng)的藝術(shù)家、音樂家、作家和電影制作人將能夠比以往任何時候更快、更大規(guī)模地實現(xiàn)他們的愿景。

我甚至認(rèn)為人工智能將在必要時通過大幅降低戰(zhàn)時死亡率來改善戰(zhàn)爭。每一場戰(zhàn)爭的特點(diǎn)都是在巨大的壓力下做出可怕的決定,并且由非常有限的人類領(lǐng)導(dǎo)人提供極其有限的信息。現(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將擁有人工智能顧問,幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險、錯誤和不必要的流血事件。

簡而言之,當(dāng)今人們利用其自然智能所做的任何事情都可以通過 AI 做得更好,我們將能夠應(yīng)對如果沒有 AI 就無法應(yīng)對的新挑戰(zhàn),從治愈所有疾病到實現(xiàn)星際旅行。

這不僅僅是關(guān)于智力!也許人工智能最被低估的品質(zhì)是它的人性化程度。人工智能藝術(shù)讓缺乏技術(shù)技能的人可以自由地創(chuàng)造和分享他們的藝術(shù)想法。與善解人意的 AI 朋友交談確實可以提高他們處理逆境的能力。人工智能醫(yī)療聊天機(jī)器人已經(jīng)比人類同行更具同理心。無限耐心和富有同情心的人工智能不會讓世界變得更加嚴(yán)酷和機(jī)械化,而是會讓世界變得更加溫暖和美好。

這里的風(fēng)險很高。機(jī)遇是深遠(yuǎn)的。人工智能很可能是我們文明所創(chuàng)造的最重要——也是最好的——東西,當(dāng)然可以與電力和微芯片相提并論,甚至可能超越它們。

人工智能的發(fā)展和擴(kuò)散——遠(yuǎn)非我們應(yīng)該擔(dān)心的風(fēng)險——是我們對自己、對我們的孩子和對我們的未來所承擔(dān)的道德義務(wù)。

有了人工智能,我們應(yīng)該生活在一個更美好的世界中,現(xiàn)在我們可以做到。

那么為什么恐慌?

與這種積極觀點(diǎn)形成鮮明對比的是,目前關(guān)于 AI 的公眾對話充斥著歇斯底里的恐懼和偏執(zhí)狂。

我們聽到這樣的說法,人工智能會以各種方式殺死我們所有人,毀掉我們的社會,奪走我們所有的工作,造成嚴(yán)重的不平等,并讓壞人做出可怕的事情。

如何解釋這種從近乎烏托邦到可怕的反烏托邦的潛在結(jié)果的差異?

從歷史上看,每一項重要的新技術(shù),從電燈到汽車到收音機(jī)再到互聯(lián)網(wǎng),都引發(fā)了一種讓人們相信新技術(shù)將摧毀世界、社會的影響。幾十年來,悲觀主義者檔案館的優(yōu)秀人士記錄了這些技術(shù)驅(qū)動的道德恐慌;他們的歷史使這種模式生動清晰。事實證明,目前的恐慌甚至不是 AI 的第一次。

現(xiàn)在,可以肯定的是,許多新技術(shù)導(dǎo)致了糟糕的結(jié)果——通常是同樣的技術(shù)在其他方面對我們的福祉產(chǎn)生了巨大的好處。因此,僅僅存在道德恐慌并不意味著沒有什么可擔(dān)心的。

但道德恐慌本質(zhì)上是非理性的——它把可能是合理的擔(dān)憂夸大到歇斯底里的程度,具有諷刺意味的是,這使得人們更難面對真正嚴(yán)重的擔(dān)憂。

我們現(xiàn)在對人工智能有全面的道德恐慌嗎?

這種道德恐慌已經(jīng)被各種參與者用作動力,要求采取政策行動——新的 AI 限制、法規(guī)和法律。這些行動者就人工智能的危險發(fā)表了極其戲劇化的公開聲明——助長并進(jìn)一步煽動道德恐慌——所有這些人都把自己表現(xiàn)為公共利益的無私捍衛(wèi)者。

但他們是嗎?

他們是對還是錯?

人工智能的浸信會和走私者

經(jīng)濟(jì)學(xué)家觀察到這種改革運(yùn)動的長期模式。這些運(yùn)動中的參與者分為兩類——“浸信會”和“走私者”——借鑒了1920 年代美國禁酒的歷史例子:

“浸信會”是真正的信徒社會改革者,他們合理地——深刻地和情緒化地,如果不是理性地——認(rèn)為需要新的限制、法規(guī)和法律來防止社會災(zāi)難。

對于禁酒令,這些行動者通常是真正虔誠的基督徒,他們認(rèn)為酒精正在破壞社會的道德結(jié)構(gòu)。

對于 AI 風(fēng)險,這些參與者真正相信 AI 會帶來一種或另一種存在風(fēng)險——將他們綁在測謊儀上,他們是認(rèn)真的。

“走私者”是自私自利的機(jī)會主義者,他們通過實施新的限制、法規(guī)和法律將他們與競爭對手隔離開來,從而在經(jīng)濟(jì)上獲利。

對于禁酒,這些是字面上的私酒販子,他們在禁止合法酒類銷售時向美國人出售非法酒類發(fā)了財。

對于 AI 風(fēng)險,如果建立監(jiān)管壁壘,這些 CEO 將賺更多的錢,這些壁壘形成了一個由政府支持的 AI 供應(yīng)商組成的卡特爾,保護(hù)它們免受新創(chuàng)業(yè)公司和開源競爭的影響——“大而不倒”銀行的軟件版本。

憤世嫉俗的人會認(rèn)為,一些明顯的浸信會教徒也是走私者——特別是那些被他們的大學(xué)、智囊團(tuán)、活動家團(tuán)體和媒體機(jī)構(gòu)付錢攻擊 AI 的人。如果你拿薪水或接受助學(xué)金來助長 AI 恐慌……你可能是走私者。

走私者的問題在于他們會贏得他們想要的。浸信會是天真的空想家,走私者是憤世嫉俗的經(jīng)營者,所以像這樣的改革運(yùn)動的結(jié)果往往是走私者得到他們想要的東西——監(jiān)管俘獲、競爭隔離、卡特爾的形成——而浸信會則感到疑惑他們推動社會進(jìn)步的動力在哪里出錯了。

我們剛剛經(jīng)歷了一個令人震驚的例子——2008 年全球金融危機(jī)后的銀行業(yè)改革。浸信會告訴我們,我們需要新的法律法規(guī)來拆分“大到不能倒”的銀行,以防止此類危機(jī)再次發(fā)生。因此,(美)國會通過了 2010 年的多德-弗蘭克法案,該法案標(biāo)榜為滿足浸信會的目標(biāo),但實際上卻被走私者——大銀行所采用。結(jié)果是,2008 年“大到而能倒”的銀行現(xiàn)在規(guī)模大得多。

所以在實踐中,即使浸信會是真誠的——即使浸信會是正確的——他們也被操縱和貪污的私酒販子用作掩護(hù),以使自己受益。

這就是目前在推動 AI 監(jiān)管方面正在發(fā)生的事情。

然而,僅僅確定行動者身份并質(zhì)疑他們的動機(jī)是不夠的。我們應(yīng)該考慮浸信會和走私者的論點(diǎn)。

AI 風(fēng)險 #1:AI 會殺死我們所有人嗎?

第一個也是最初的 AI 末日風(fēng)險是 AI 將決定真正殺死人類。

對我們自己創(chuàng)造的技術(shù)會興起并摧毀我們的恐懼深深地融入了我們的文化中。希臘人在普羅米修斯神話中表達(dá)了這種恐懼——普羅米修斯給人類帶來了火的破壞力,更普遍的是技術(shù)(“techne”),為此普羅米修斯被眾神判處永久折磨。 后來,瑪麗雪萊在她的小說《弗蘭肯斯坦》或《現(xiàn)代普羅米修斯》 中為我們現(xiàn)代人提供了這個神話的版本,我們在其中開發(fā)永生技術(shù),然后崛起并試圖摧毀我們。當(dāng)然,如果沒有詹姆斯·卡梅隆的終結(jié)者電影中閃閃發(fā)光的紅眼殺人機(jī)器人的靜止圖像,任何關(guān)于 AI 恐慌的報紙報道都是不完整的。

這個神話的假定進(jìn)化目的是激勵我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險——畢竟,火確實可以用來燒毀整個城市。但正如火也是現(xiàn)代文明的基礎(chǔ),在寒冷和充滿敵意的世界中讓我們保持溫暖和安全一樣,這個神話忽略了大多數(shù) - 全部?– 新技術(shù),在實踐中激起了破壞性的情緒,而不是理性的分析。僅僅因為前現(xiàn)代人像這樣嚇壞了并不意味著我們必須這樣做;我們可以改用理性。

我的觀點(diǎn)是,人工智能將決定真正殺死人類的想法是一個嚴(yán)重的類別錯誤。人工智能不是經(jīng)過數(shù)十億年的進(jìn)化而準(zhǔn)備參與適者生存之戰(zhàn)的生物——就像動物和我們一樣。它是數(shù)學(xué)-代碼-計算機(jī),由人建造,由人擁有,由人使用,由人控制。它會在某個時候發(fā)展出自己的思想并決定它有導(dǎo)致自己試圖殺死人類的動機(jī)是一種迷信。

簡而言之,AI 不想,它沒有目標(biāo),它不想殺死人類,因為它沒有生命。人工智能是一臺機(jī)器——不會比你的烤面包機(jī)更有生命地活躍起來。

現(xiàn)在,很明顯,人工智能會毀滅人類的真正信徒——浸信會——他們的可怕警告突然獲得了大量的媒體報道,其中一些人聲稱已經(jīng)研究這個話題幾十年了,并說他們現(xiàn)在害怕自己的生活他們所學(xué)的思想。其中一些真正的信徒甚至是該技術(shù)的實際創(chuàng)新者。這些參與者主張對 AI 實施各種奇怪和極端的限制,從禁止 AI 開發(fā),一直到對數(shù)據(jù)中心的軍事空襲和核戰(zhàn)爭。他們爭辯說,因為像我這樣的人不能排除人工智能未來的災(zāi)難性后果,我們必須采取預(yù)防措施為了防止?jié)撛诘纳骘L(fēng)險,可能需要大量的身體暴力和死亡的立場。

我的回答是他們的立場是非科學(xué)的——什么是可檢驗的假設(shè)?什么會證偽這個假設(shè)?我們怎么知道我們何時進(jìn)入危險區(qū)域?除了“你無法證明它不會發(fā)生!”之外,這些問題基本上沒有答案。事實上,這些浸信會的立場是如此不科學(xué)和 極端——一個關(guān)于數(shù)學(xué)和代碼的陰謀論——并且已經(jīng)在呼吁身體暴力,以至于我會做一些我通常不會做的事情,并質(zhì)疑他們的動機(jī)。

具體來說,我認(rèn)為有以下三點(diǎn):

首先,回想一下約翰·馮·諾伊曼回應(yīng)羅伯特·奧本海默著名的關(guān)于他在制造核武器方面的作用——這有助于結(jié)束第二次世界大戰(zhàn)并防止第三次世界大戰(zhàn)——的回應(yīng)是,“有些人承認(rèn)有罪以聲稱自己的罪過?!?一個人可以在不顯得過于自負(fù)的情況下宣稱自己工作的重要性是最引人注目的方式是什么?這解釋了實際上正在構(gòu)建和資助 AI 的浸信會的言行之間的不匹配——注意他們的行動,而不是他們的話。(杜魯門在與奧本海默會面后更加嚴(yán)厲: “別再讓那個愛哭鬼進(jìn)來了?!?“Don’t let that crybaby in here again.”))

其次,一些浸信會實際上是走私者。有一整套“AI安全專家”、“AI倫理學(xué)家”、“AI風(fēng)險研究員”的職業(yè)。他們被付錢是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚怼?/p>

第三,加利福尼亞以數(shù)以千計的異教信仰Cults而聞名,從 EST 到人民圣殿教,從天堂之門到曼森家族。這些團(tuán)體中有許多(盡管不是全部)是無害的,甚至可能為那些在其中找到歸宿的異化者服務(wù)。但有些確實非常危險,眾所周知,邪教很難跨越最終導(dǎo)致暴力和死亡的界限。

灣區(qū)內(nèi)的每個人都清楚但灣區(qū)外可能并非如此的現(xiàn)實是,“AI 風(fēng)險”已經(jīng)發(fā)展成為一種異教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對話的日光下。這種異教不僅吸引了邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐助者——包括直到最近的Sam Bankman-Fried (FTX聯(lián)合創(chuàng)始人)。它發(fā)展出一整套異教行為和信仰。

這種異教就是為什么有一組 AI 風(fēng)險末日論者聽起來如此極端的原因——并不是說他們實際上擁有使他們的極端主義合乎邏輯的秘密知識,而是他們已經(jīng)把自己鞭打到狂熱中并且真的……極端極端。

......

不要誤會我的意思,異教很有趣,他們的書面材料通常富有創(chuàng)意和引人入勝,而且他們的成員在晚宴和電視上都很活躍。但他們的極端信仰不應(yīng)該決定法律和社會的未來——顯然也不是未來。

AI 風(fēng)險 #2:AI 會毀掉我們的社會嗎?

第二個廣泛討論的 AI 風(fēng)險是 AI 會通過產(chǎn)生如此“有害”的輸出來破壞我們的社會,使用這種末日毀滅者的術(shù)語,對人類造成深遠(yuǎn)的損害,即使我們不是字面上的殺了。

簡短版本:如果殺人機(jī)器人沒有抓住我們,仇恨言論和錯誤信息就會。

這是一個相對較新的末日擔(dān)憂,它從我上面描述的“AI 風(fēng)險”運(yùn)動中分支出來并在某種程度上接管了它。事實上,人工智能風(fēng)險的術(shù)語最近從“人工智能安全”——擔(dān)心人工智能會真正殺死我們的人使用的術(shù)語——變成了“人工智能對齊Alignment”——擔(dān)心社會“危害”的人使用的術(shù)語。最初的 AI 安全人士對這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何將其放回原處——他們現(xiàn)在主張將實際,該主題尚未被廣泛采用但至少是清楚的。

AI 社會風(fēng)險聲明的本質(zhì)是它自己的術(shù)語“AI 對齊Alignment”。對齊什么? 人類價值觀。 誰的人文價值觀念?啊,這就是事情變得棘手的地方。

碰巧的是,我曾在類似的情況下坐在前排——社交媒體“信任與安全”戰(zhàn)爭。現(xiàn)在很明顯,社交媒體服務(wù)多年來一直承受著來自政府和活動家的巨大壓力,要求禁止、限制、審查和以其他方式壓制范圍廣泛的內(nèi)容。對“仇恨言論”(及其數(shù)學(xué)對應(yīng)物“算法偏見”)和“錯誤信息”的同樣擔(dān)憂正從社交媒體語境直接轉(zhuǎn)移到“人工智能對齊”的新領(lǐng)域。

我從社交媒體大戰(zhàn)中學(xué)到的重要知識是:

一方面,沒有絕對的言論自由立場。首先,包括美國在內(nèi)的每個國家都至少將某些內(nèi)容定為非法 。其次,有某些類型的內(nèi)容,例如兒童色情和煽動現(xiàn)實世界中的暴力,幾乎每個社會都幾乎普遍同意禁止訪問這些內(nèi)容——無論合法與否。因此,任何促進(jìn)或生成內(nèi)容(語音)的技術(shù)平臺都會受到一些限制。

另一方面,滑坡并不是謬誤,而是必然。一旦限制極其可怕的內(nèi)容的框架到位——例如,針對仇恨言論,一個特定的傷害性詞語,或針對錯誤信息,明顯是虛假的聲明,如“教皇已死”——范圍廣泛的政府機(jī)構(gòu) “和維權(quán)” 人士壓力團(tuán)體和 非政府實體將開始行動,并要求對他們認(rèn)為對社會和/或他們自己的個人偏好構(gòu)成威脅的任何言論進(jìn)行更嚴(yán)格的審查和壓制。他們將以赤裸裸的重罪方式做到這一點(diǎn) ——這個循環(huán)在實踐中顯然可以永遠(yuǎn)運(yùn)行,在我們精英權(quán)力結(jié)構(gòu)中安裝的專制大廳監(jiān)視器的熱情支持下。這已經(jīng)在社交媒體上流傳了十年,而且除了某些例外情況外,一直都在變得更加狂熱。

這就是現(xiàn)在圍繞“AI 對齊”形成的動態(tài)。它的支持者聲稱有智慧來設(shè)計 AI 生成的對社會有益的言論和思想,并禁止 AI 生成的對社會有害的言論和思想。它的反對者聲稱,思想警察是驚人的傲慢和專橫——而且往往是徹頭徹尾的犯罪,至少在美國是這樣——事實上,他們正在尋求成為一種新型的政府-企業(yè)-學(xué)術(shù)融合的專制言論專政——直接到喬治·奧威爾的1984 。

由于“信任與安全”和“人工智能對其”的支持者聚集在全球人口中非常小的一部分,這是美國沿海精英的特征——其中包括許多在科技行業(yè)工作和撰寫科技行業(yè)的人——許多我的讀者會發(fā)現(xiàn)自己準(zhǔn)備爭辯說需要對 AI 輸出進(jìn)行嚴(yán)格限制以避免破壞社會。我現(xiàn)在不會試圖說服你,我只是簡單地說,這是需求的本質(zhì),世界上大多數(shù)人既不同意你的意識形態(tài),也不希望看到你獲勝。

如果你不同意通過不斷強(qiáng)化的語音代碼強(qiáng)加給社交媒體和人工智能的主流利基道德,你還應(yīng)該意識到,關(guān)于允許人工智能說/生成什么的斗爭將更加重要 –很多- 而不是圍繞社交媒體審查制度的斗爭。人工智能極有可能成為世界萬物的控制層。它如何被允許運(yùn)作可能比其他任何事情都更重要。你應(yīng)該知道一小群孤立的黨派社會工程師如何在古老的聲稱他們正在保護(hù)你的掩護(hù)下試圖確定這一點(diǎn)。

總之,不要讓思想警察打壓AI。

AI 風(fēng)險 #3:AI 會搶走我們所有的工作嗎?

自機(jī)器織機(jī)等機(jī)器最初出現(xiàn)以來,數(shù)百年來,人們對因機(jī)械化、自動化、計算機(jī)化或人工智能而導(dǎo)致失業(yè)的恐懼一直是一種反復(fù)出現(xiàn)的恐慌。盡管在歷史上每一項新的主要技術(shù)都以更高的工資帶來了更多的工作,但每一波恐慌都伴隨著“這次不同”的說法——這是它最終會發(fā)生的時間,這是最終會發(fā)生的技術(shù)對人類勞動進(jìn)行錘擊。然而,它從未發(fā)生過。

我們最近經(jīng)歷了兩次這樣的技術(shù)驅(qū)動的失業(yè)恐慌周期 ——2000 年代的外包恐慌和2010 年代的自動化恐慌。盡管在過去的幾十年里,許多會說話的人、專家,甚至科技行業(yè)的高管都在敲桌子說大規(guī)模失業(yè)迫在眉睫,但到 2019 年底——就在 COVID 爆發(fā)之前——世界上的工作崗位比歷史上任何時候都多,工資更高。

不過這個錯誤的想法是不會死的。

果然,它回來了。

這一次,我們終于擁有了將取代所有工作并使人類工人變得多余的技術(shù)—— 真正的人工智能。這一次歷史肯定不會重演,人工智能將導(dǎo)致大規(guī)模失業(yè)——而不是經(jīng)濟(jì)、就業(yè)和工資的快速增長——對吧?

不,這不會發(fā)生——事實上,如果允許人工智能在整個經(jīng)濟(jì)中發(fā)展和擴(kuò)散,可能會導(dǎo)致有史以來最劇烈和持續(xù)的經(jīng)濟(jì)繁榮,相應(yīng)地創(chuàng)紀(jì)錄的工作和工資增長——與恐懼完全相反。

自動化扼殺工作的厄運(yùn)論者不斷犯的核心錯誤被稱勞動力謬誤Lump Of Labor Fallacy。這種謬誤是錯誤的觀念,即在任何給定時間經(jīng)濟(jì)中都有固定數(shù)量的勞動要做,機(jī)器做或人做——如果機(jī)器做,人就沒有工作可做...

勞動塊謬誤自然源于幼稚的直覺,但幼稚的直覺在這里是錯誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時,我們會提高生產(chǎn)率——通過減少投入來增加產(chǎn)出。結(jié)果是商品和服務(wù)的價格降低。隨著商品和服務(wù)價格的下降,我們?yōu)樗鼈冎Ц兜馁M(fèi)用減少,這意味著我們現(xiàn)在有額外的消費(fèi)能力來購買其他東西。這增加了經(jīng)濟(jì)中的需求,從而推動了新生產(chǎn)的創(chuàng)造——包括新產(chǎn)品和新產(chǎn)業(yè), 然后為那些在以前的工作中被機(jī)器取代的人創(chuàng)造新的就業(yè)機(jī)會。其結(jié)果是一個更大的經(jīng)濟(jì)體,擁有更高的物質(zhì)繁榮、更多的工業(yè)、更多的產(chǎn)品和更多的就業(yè)機(jī)會。

但好消息并不止于此。我們也可以獲得更高的工資。這是因為,在個體工人的層面上,市場將報酬設(shè)定為的函數(shù)。技術(shù)注入型企業(yè)的員工比傳統(tǒng)企業(yè)的員工更有效率。雇主要么支付該工人更多的錢,因為他現(xiàn)在的工作效率更高,要么另一個雇主純粹出于自身利益。結(jié)果是,引入一個行業(yè)的技術(shù)通常不僅會增加該行業(yè)的就業(yè)人數(shù),還會提高工資。

總而言之,技術(shù)使人們能夠提高工作效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價格下降,工資上漲。這反過來又會促進(jìn)經(jīng)濟(jì)增長和就業(yè)增長,同時推動創(chuàng)造新的就業(yè)機(jī)會和新的產(chǎn)業(yè)。如果允許市場經(jīng)濟(jì)正常運(yùn)行,如果允許技術(shù)自由引進(jìn),這是一個永無止境的永恒上升循環(huán)。因為,正如米爾頓·弗里德曼 (Milton Friedman) 觀察到的那樣,“人類的需求是無止境的”——我們想要的總是比我們擁有的更多。一個技術(shù)注入的市場經(jīng)濟(jì)是我們更接近于提供每個人都可以想象到的一切的方式,但從來沒有完全實現(xiàn)。這就是為什么技術(shù)不會而且永遠(yuǎn)不會破壞工作。

對于那些沒有接觸過它們的人來說,這些想法是如此令人興奮,你可能需要一些時間來理解它們。但我發(fā)誓它們不是我編造的——事實上你可以在標(biāo)準(zhǔn)的經(jīng)濟(jì)學(xué)教科書中讀到所有關(guān)于它們的內(nèi)容。我推薦Henry Hazlitt 的《經(jīng)濟(jì)學(xué)一課》中的機(jī)械詛咒The Curse of Machinery一章,以及 Frederic Bastiat 的諷刺蠟燭制造者請愿書,因為它與照明行業(yè)的不公平競爭而遮蔽了太陽,這里為我們的時代進(jìn)行了現(xiàn)代化改造。

但這次不一樣,你在想。 這一次,有了人工智能,我們擁有了可以取代所有人類勞動的技術(shù)。

但是,使用我上面描述的原則,想一想從字面上看,所有現(xiàn)有的人類勞動都將被機(jī)器取代意味著什么。

這將意味著經(jīng)濟(jì)生產(chǎn)力增長的起飛速度絕對是驚人的,遠(yuǎn)遠(yuǎn)超過任何歷史先例?,F(xiàn)有商品和服務(wù)的價格將全面下降至幾乎為零。消費(fèi)者福利將飆升。消費(fèi)者的消費(fèi)能力將飆升。經(jīng)濟(jì)中的新需求將會爆發(fā)。企業(yè)家們將創(chuàng)造出令人眼花繚亂的新產(chǎn)業(yè)、新產(chǎn)品和新服務(wù),并盡可能快地雇傭盡可能多的人和人工智能來滿足所有新需求。

假設(shè)人工智能再次取代勞動力——循環(huán)將重復(fù),推動消費(fèi)者福利、經(jīng)濟(jì)增長以及就業(yè)和工資增長更高。這將是一個直線上升的物質(zhì)烏托邦,這是亞當(dāng)·斯密或卡爾·馬克思都不敢夢想的。

我們將會變得如此幸運(yùn)。

AI 風(fēng)險 #4:AI 會導(dǎo)致嚴(yán)重的不平等嗎?

說到卡爾·馬克思,對人工智能搶走工作的擔(dān)憂直接引出了下一個聲稱的人工智能風(fēng)險,那就是,馬克思,假設(shè)人工智能確實搶走了所有的工作,無論是好是壞。這會不會導(dǎo)致嚴(yán)重的財富不平等,因為人工智能的所有者獲得了所有的經(jīng)濟(jì)回報而普通人一無所獲?

事實上,這是馬克思主義的一個核心主張,即生產(chǎn)資料的所有者——資產(chǎn)階級——將不可避免地從從事實際工作的人——無產(chǎn)階級那里竊取所有社會財富。

這個理論的缺陷在于,作為一項技術(shù)的所有者,將它留給自己并不符合你自己的利益——事實上恰恰相反,將它賣給盡可能多的客戶符合你自己的利益。世界上任何產(chǎn)品最大的市場是整個世界,我們 80 億人。所以在現(xiàn)實中,每一項新技術(shù)——即使是那些開始銷售給高薪大公司或富裕消費(fèi)者的稀薄空氣的技術(shù)——都會迅速擴(kuò)散,直到它到達(dá)盡可能大的大眾市場,最終到達(dá)地球上的每個人的手中。

這方面的典型例子是埃隆·馬斯克 (Elon Musk) 在 2006 年為特斯拉制定的所謂 “秘密計劃” —他自然而然地公開了這一計劃:

第 1 步,打造 [昂貴] 跑車Step 1

第 2 步,用這筆錢制造一輛負(fù)擔(dān)得起的汽車

第 3 步,用這筆錢制造一輛更實惠的汽車

......當(dāng)然這正是他所做的,結(jié)果成為世界上最富有的人。

最后一點(diǎn)是關(guān)鍵。如果埃隆今天只賣汽車給富人,他會更富有嗎?不,如果他只為自己制造汽車,他會比這更富有嗎?當(dāng)然不是。不,他通過向世界這個最大的可能市場銷售來最大化自己的利潤。

簡而言之,每個人都得到了東西——正如我們在過去看到的,不僅有汽車,還有電力、收音機(jī)、電腦、互聯(lián)網(wǎng)、手機(jī)和搜索引擎。此類技術(shù)的制造商非常積極地降低價格,直到地球上的每個人都能負(fù)擔(dān)得起。這正是 AI 中已經(jīng)發(fā)生的事情——這就是為什么你不僅可以低成本使用最先進(jìn)的生成 AI,甚至可以免費(fèi)使用 Microsoft Bing 和 Google Bard 的形式——而且這將繼續(xù)發(fā)生。不是因為這些供應(yīng)商愚蠢或慷慨,而是因為他們貪婪——他們想要最大化他們的市場規(guī)模,從而最大化他們的利潤。

因此,發(fā)生的情況與技術(shù)推動財富集中化相反——技術(shù)的個人客戶,最終包括地球上的每個人,反而被賦予了權(quán)力,并獲得了大部分產(chǎn)生的價值。與現(xiàn)有技術(shù)一樣,構(gòu)建人工智能的公司——假設(shè)它們必須在自由市場中運(yùn)作——將激烈競爭以實現(xiàn)這一目標(biāo)。

這并不是說不平等不是我們社會的問題。是的,它不是由技術(shù)驅(qū)動,而是被相反的驅(qū)動,由對新技術(shù)最有抵抗力的經(jīng)濟(jì)部門驅(qū)動,這些經(jīng)濟(jì)部門有最多的政府干預(yù)來阻止采用像人工智能這樣的新技術(shù)——特別是住房、教育和醫(yī)療保健。AI 和不平等的實際風(fēng)險不是 AI 會導(dǎo)致更多的不平等,而是我們不允許 AI 被用來減少不平等。

AI 風(fēng)險 #5:AI 會導(dǎo)致壞人做壞事嗎?

到目前為止,我已經(jīng)解釋了為什么五個最常被提及的 AI 風(fēng)險中有四個實際上并不真實——AI 不會復(fù)活并殺死我們,AI 不會毀滅我們的社會,AI 不會導(dǎo)致大規(guī)模失業(yè),AI 不會導(dǎo)致不平等的破壞性增加,但現(xiàn)在讓我們談?wù)劦谖妩c(diǎn),我非常同意的一點(diǎn):人工智能將使壞人更容易做壞事。

從某種意義上說,這是一個同義反復(fù)。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——也可以用來做壞事——燒人和打人。任何技術(shù)都可以用于好事或壞事。很公平。毫無疑問,人工智能將使罪犯、恐怖分子和敵對政府更容易做壞事。

這導(dǎo)致一些人提議,好吧,既然如此,我們就不要冒險了,讓我們在這種情況發(fā)生之前禁止人工智能吧。不幸的是,人工智能并不是像钚那樣難以獲得的深奧物理材料。恰恰相反,它是世界上最容易獲得的材料——數(shù)學(xué)和代碼。

你可以從數(shù)以千計的免費(fèi)在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建 AI,而且優(yōu)秀的開源實現(xiàn)每天都在激增。人工智能就像空氣——它將無處不在。逮捕如此嚴(yán)酷的人所需的極權(quán)主義壓迫程度——一個監(jiān)視和控制所有計算機(jī)的世界政府?黑色直升機(jī)中的長靴暴徒奪取流氓 GPU?– 我們不會有一個社會需要保護(hù)。

因此,有兩種非常直接的方法可以解決壞人用人工智能做壞事的風(fēng)險,而這些正是我們應(yīng)該關(guān)注的。

首先,我們有法律將任何人用人工智能做的大多數(shù)壞事定為犯罪。入侵五角大樓?那是一種犯罪。從銀行偷錢?那是一種犯罪。制造生化武器?那是一種犯罪。實施恐怖行為?那是一種犯罪。我們可以簡單地集中精力在力所能及的情況下防止這些罪行,在我們不能的情況下起訴它們。我們甚至不需要新的法律——我不知道有哪一個已經(jīng)被提議的 AI 的實際不良使用還不是非法的。如果發(fā)現(xiàn)新的不良用途,我們將禁止該用途。

但是你會注意到我在那里漏掉了什么——我說我們應(yīng)該首先關(guān)注在人工智能協(xié)助的犯罪發(fā)生之前預(yù)防它們——這樣的預(yù)防難道不意味著禁止人工智能嗎?好吧,還有另一種方法可以防止此類行為,那就是使用 AI 作為防御工具,使人工智能在有壞目標(biāo)的壞人手中變得危險的能力,在有好目標(biāo)的好人手中變得強(qiáng)大——特別是那些工作是防止壞事發(fā)生的好人。

例如,如果你擔(dān)心 AI 會生成假人和假視頻,那么答案就是構(gòu)建新系統(tǒng),讓人們可以通過加密簽名驗證自己和真實內(nèi)容。在 AI 出現(xiàn)之前就已經(jīng)存在了真實和虛假內(nèi)容的數(shù)字創(chuàng)建和更改;答案不是禁止文字處理器和 Photoshop——或人工智能——而是使用技術(shù)來構(gòu)建一個真正解決問題的系統(tǒng)。

因此,其次,讓我們做出重大努力,將 AI 用于好的、合法的防御目的。讓我們將 AI 用于網(wǎng)絡(luò)防御、生物防御、追捕恐怖分子,以及我們?yōu)楸Wo(hù)我們自己、我們的社區(qū)和我們國家的安全所做的一切。

當(dāng)然,政府內(nèi)外已經(jīng)有很多聰明人在做這件事——但如果我們把目前專注于禁止 AI 的徒勞前景的所有努力和腦力用于使用 AI 來防止壞人做壞事,我認(rèn)為毫無疑問,一個充滿人工智能的世界將比我們今天生活的世界安全得多。

......

為了抵消壞人用人工智能做壞事的風(fēng)險,政府與私營部門合作應(yīng)積極參與每個潛在風(fēng)險領(lǐng)域,以利用人工智能最大限度地提高社會的防御能力。這不應(yīng)僅限于人工智能帶來的風(fēng)險,還應(yīng)包括營養(yǎng)不良、疾病和氣候等更普遍的問題。人工智能可以成為解決問題的強(qiáng)大工具,我們應(yīng)該擁抱它。

......

這就是我們使用 AI 拯救世界的方式。

是時候建設(shè)了。It’s time to build.

我以兩個簡單的陳述結(jié)束本文。

人工智能的發(fā)展始于 1940 年代,與計算機(jī)的發(fā)明同時進(jìn)行。第一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的科學(xué)論文——我們今天擁有的人工智能的架構(gòu)——1943年發(fā)表。在過去的 80 年里,整整幾代人工智能科學(xué)家出生、上學(xué)、工作,在許多情況下都沒有看到我們現(xiàn)在得到的回報就去世了。他們都是傳奇,每一個人。

今天,越來越多的工程師——其中許多人很年輕,可能有祖父母甚至曾祖父母參與了 AI 背后思想的創(chuàng)造——正在努力使 AI 成為現(xiàn)實,反對散布恐懼和末日論的墻試圖把他們描繪成魯莽的惡棍。我不相信他們是魯莽的或惡棍。他們都是英雄,每一個人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作。

*Tech商業(yè)(ID:InnoBusiness)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。