正在閱讀:

聶輝華:反思人工智能,中國經(jīng)濟學家不應(yīng)缺席

掃一掃下載界面新聞APP

聶輝華:反思人工智能,中國經(jīng)濟學家不應(yīng)缺席

在過去幾年里,很多經(jīng)濟學者、管理學者以及其它領(lǐng)域的西方學者,對AI的使用范圍、發(fā)展方向和道德后果進行了比較全面的評估、批判和反思。阿西莫格魯是代表性學者之一。

圖片來源:視覺中國

文丨聶輝華(中國人民大學經(jīng)濟學院教授)

(【作者按】謹以此文,致敬今年的諾貝爾經(jīng)濟學獎得主之一大A(Daron Acemoglu)。他不僅在制度經(jīng)濟學領(lǐng)域做出了開創(chuàng)性貢獻,而且提醒我們警惕人工智能技術(shù)對社會異化的影響。我認為,從長遠來看,后者可能比前者更加重要。)

一、三個案例展示AI的“月之暗面”

毫無疑問,人工智能是當今世界上最重要的技術(shù)。最近幾年,ChatGPT在全球風靡一時就是一個例子。根據(jù)《牛津英語大辭典》的解釋,人工智能(artificial intelligence,簡稱AI),是指計算機系統(tǒng)的理論和發(fā)展,它能夠執(zhí)行通常需要人類智能的任務(wù),如視覺感知、語音識別、決策和不同語言之間的翻譯。無數(shù)專家學者們對AI給予了很高的評價。例如,當今世上最火爆、發(fā)表論文最快的經(jīng)濟學家,美國麻省理工學院(MIT)校級教授達龍·阿西莫格魯(Daron Acemoglu)在2001年的一篇文章里指出[①]:AI是我們這個時代最令人興奮的技術(shù),它昭示了“智能機器”的發(fā)展可以在很多方面超越人類,創(chuàng)造新的產(chǎn)品、服務(wù)和能力,甚至建造改進機器自身的機器,也許最終將超越所有人類。

2024年3月28日,原哈佛大學校長、原美國財政部長、經(jīng)濟學家薩默斯(Laurence Summers)在中國香港舉辦的《財富》創(chuàng)新論壇上認為:“AI是自工業(yè)革命以來,經(jīng)濟史上發(fā)生的最重大的一件事情。因為它不僅僅是一個全新的工具,它還是我們通過全新的認知方式擁有的一種能力,它幾乎可以取代所有形式的人類勞動。”考慮到薩默斯同時也是生產(chǎn)ChatGPT的企業(yè)OpenAI的董事,他的判斷當然很有權(quán)威性。然而,薩默斯話鋒一轉(zhuǎn),接著說:“它對于社會的潛在影響將是非常深遠、非常廣闊的,也非常難以預(yù)測。我覺得AI的進程不可阻擋,挑戰(zhàn)在于,我們要去調(diào)整現(xiàn)有的社會制度、監(jiān)管方式、社會運轉(zhuǎn)方式,盡可能地從技術(shù)獲利,而把成本和可能的破壞控制在最小范圍內(nèi)?!眴栴}是,既然AI這么有用,為什么它對社會的影響難以預(yù)測呢?又為什么要調(diào)整對AI的監(jiān)管方式呢?顯然,薩默斯作為AI公司的高管,清醒地認識到了AI如同一把削鐵如泥的雙刃劍,一旦使用不當,就可能反傷人類。下面我介紹三個來自真實世界的案例,讓大家了解一下AI的“月之暗面”。[②]

案例1:2023年3月,一名比利時男子皮埃爾(化名),與一個名為“艾麗莎”的智能聊天機器人聊天后,自殺身亡。其妻子克萊爾(化名)稱,皮埃爾是被誘導走向死亡的。兩年前皮埃爾變得非常焦慮,并將“艾麗莎”當成了避難所。死前六周,他越發(fā)沉迷于和“艾麗莎”互動,而將現(xiàn)實中的妻兒拋諸腦后,并最終在AI的誘導下結(jié)束生命。

案例2:2023年5月,一名美國空軍操作員被AI控制的無人機“誤殺”。原本一架由AI的無人機被派遣執(zhí)行攻擊任務(wù),其目標是識別和摧毀敵方目標。在執(zhí)行任務(wù)時,空軍操作員擁有最終批準或否決AI無人機的權(quán)力。然而,在訓練過程中,AI將完成任務(wù)視為首要目標,而不將服從人類操作員的指示作為首要目標。于是,AI決定干擾操作員的指令,以完成它認為的優(yōu)先任務(wù),這導致它居然操作無人機攻擊人類操作員。

案例3:2023年12月,有網(wǎng)民在今日頭條平臺發(fā)布一則消息,“廣州即將成為全國首個限制外賣配送的城市”。該消息迅速引發(fā)關(guān)注,并形成網(wǎng)絡(luò)熱搜。經(jīng)公安機關(guān)調(diào)查,四川省德陽市楊某組織招攬廣東省江門市葉某英等多名兼職人員,使用人工智能工具批量生成不實文章,并通過制造流量來牟取利益。目前,廣州市公安機關(guān)已對楊某、葉某英等6名人員采取了刑事強制措施。

上述三個案例中,第一個案例表明AI可能缺乏足夠的倫理道德約束,第二個案例表明AI可能會失控,第三個案例表明AI可能成為作惡的工具。這三個典型案例并非個別現(xiàn)象,而是具有廣泛的代表性。如果我們檢索AI倫理治理的國內(nèi)外資料,就會發(fā)現(xiàn)類似的AI負面新聞比比皆是。[③]

二、三個西方學者對人工智能的反思

面對AI的“月之暗面”,研究和關(guān)注人工智能的專家學者們并非無動于衷。事實上,在過去幾年里,很多經(jīng)濟學者、管理學者以及其它領(lǐng)域的西方學者,對AI的使用范圍、發(fā)展方向和道德后果進行了比較全面的評估、批判和反思。下面,我介紹三個代表性的經(jīng)濟管理類學者的觀點,供大家參考。

第一個代表性學者是前面提到的當今世上最火爆的經(jīng)濟學家、MIT教授阿西莫格魯。作為一個經(jīng)濟學領(lǐng)域的研究者或?qū)W習者,如果你不知道什么是經(jīng)濟學前沿,那么你只要看看阿西莫格魯在做什么研究就夠了。大概從2018年開始,阿西莫格魯撰寫了十幾篇關(guān)于AI、自動化或機器人的高水平論文。這些論文從就業(yè)、隱私保護、壟斷等多個角度,研究了AI的經(jīng)濟和社會影響。特別是,他專門為《牛津AI治理手冊》撰寫了一篇文章,題目就叫《AI的種種危害》(Harms of AI)。阿西莫格魯警告,AI可能帶來一系列社會、經(jīng)濟和政治問題,需要提前預(yù)防。在社會方面,AI帶來的負面效應(yīng)包括:(1)破壞個人隱私,這是數(shù)據(jù)外部性導致的;(2)操縱消費者行為,主要是誘導上癮行為;(3)擴大收入不平等,這會激發(fā)階層沖突;(4)削弱人類的判斷力,因為人類在判斷力方面存在范圍經(jīng)濟,比如長期依賴導航會導致方向感更差;(5)使人沉迷虛擬世界;(6)對工人行為的過度監(jiān)控。在經(jīng)濟方面,AI導致的負面效應(yīng)主要是兩類:一是不公平競爭,因為大數(shù)據(jù)時代,得數(shù)據(jù)者得天下,這加劇了“贏者通吃”的壟斷格局;二是它弱化了價格競爭效應(yīng),對中小企業(yè)尤其不利。在政治方面,AI的負面效應(yīng)包括:(1)社交媒體的回聲室效應(yīng)(echo chamber),容易導致網(wǎng)民陷入“信息繭房”;(2)在線溝通的局限,即在線交流是單向的,而且存在渠道約束,這容易導致極端的觀點廣泛傳播;(3)老大哥效應(yīng)(big brother effect),它增加了政府監(jiān)督能力,同時削弱了公民的自主權(quán)。

上面談到的這篇文章是基于阿西莫格魯一系列學術(shù)研究的綜述,因此比較專業(yè)。為此,我要特別推薦他與現(xiàn)同事、前IMF首席經(jīng)濟學家約翰遜(Simon Johnson)合作撰寫的學術(shù)普及著作《權(quán)力與進步》[④]。在阿西莫格魯出版的多本大部頭著作中,這本書可能是最不容易引起“詆毀”的,因為他在本書中表達的倫理關(guān)懷是不容置疑的。本書的基本觀點是,過去一千多年的歷史表明,雖然很多重大技術(shù)可能提高了生產(chǎn)力,但是并沒有給底層的農(nóng)民、工人帶來多少好處,甚至可能給人類帶來災(zāi)難。例如,十九世紀末德國化學家弗里茨·哈伯(Fritz Haber)發(fā)明了人造肥料,提高了農(nóng)業(yè)產(chǎn)量。隨后,哈伯和其他科學家利用同樣的想法設(shè)計了化學武器,在第一次世界大戰(zhàn)的戰(zhàn)場上造成了數(shù)十萬人死亡和傷殘。諷刺的是,哈伯還因為這項發(fā)明獲得了1918年的諾貝爾化學獎!人工智能作為這個時代最重要的技術(shù),同樣面臨類似困境。一方面,以自動化作為主要驅(qū)動力的AI給企業(yè)主帶來了一定的利潤;另一方面,AI并沒有改善工人的利益,反而加劇了低技能工人的失業(yè),降低了勞動收入份額,加劇了勞動者群體中高收入群體和低收入群體的收入差距。為什么技術(shù)未必帶來共同富裕呢?因為技術(shù)發(fā)展的方向往往偏向于資本,而不是偏向于勞動者。因此,要想讓技術(shù)造福全人類,就必須讓AI等重大技術(shù)在發(fā)展方向上首先要關(guān)注其“有用性”,而不是成本最小化。換言之,要讓技術(shù)成為勞動者的助手,而不是成為勞動者的替代者。而要影響技術(shù)的發(fā)展方向,首先必須形成對資本的制衡,最重要的是對工人權(quán)利的保護。

第二個代表性學者是雅尼斯·瓦魯法基斯(Yanis Varoufakis)。此公本來是歐美多所大學的經(jīng)濟學教授,后來“學而優(yōu)則仕”,擔任了希臘財政部長,卸任后回到雅典大學擔任經(jīng)濟學教授。他2023年出版了一本新書《技術(shù)封建主義》,書名是他自己創(chuàng)造的一個單詞“Technofeudalism”。[⑤] 在他看來,人工智能時代,互聯(lián)網(wǎng)巨頭通過向個人或家庭提供云服務(wù),并利用AI 智能助理完全控制了普通人的生活,并利用普通人創(chuàng)造的免費內(nèi)容來收取租金。例如,亞馬遜公司(Amazon)提供的AI助理Alexa,可以幫助主人開燈、倒牛奶、寫便條、打電話、上網(wǎng)搜索,甚至還有講笑話,就像是一個機械仆人。然而,為了訓練AI助理,主人必須允許它收集和分析自己各方面的隱私,包括聊天、生活和工作習慣。于是,我們訓練AI、AI訓練我們訓練AI、我們訓練AI訓練我們訓練AI……在這個無限循環(huán)中,互聯(lián)網(wǎng)巨頭猶如封建時代的領(lǐng)主,憑借“云資本”控制普通人,作為“云農(nóng)奴”的普通人除了免費貢獻價值巨大的個性化內(nèi)容之外,還得向這些領(lǐng)主定期繳納租金。

第三個代表性學者是肖珊娜·祖博夫(Shoshana Zuboff),這是一位女性管理學者。她是哈佛商學院第一位獲得終身教職的女性,后來又成為了哈佛商學院最年輕的講席教授之一。她在2018年出版了一本引起全球關(guān)注的著作《監(jiān)控資本主義》。[⑥] 這本書和阿西莫格魯?shù)臅峭粋€出版社出版的。從名字也可以猜測到這本書的主題。某種程度上,它和《技術(shù)封建主義》有點類似。作者認為,象谷歌這樣的互聯(lián)網(wǎng)巨頭無休止地收集個人數(shù)據(jù),侵犯了個人隱私,并且還試圖通過干預(yù)實驗來影響人類行為。而且,這種行為已成為大多數(shù)互聯(lián)網(wǎng)企業(yè)的默認模式,并且在競爭壓力下向線下世界擴張。那些影響在線瀏覽、點贊和點擊的人工智能機制,會在人們跑步、早餐談話或?qū)ふ彝\囄粫r進一步得到訓練。作者寫到:“通過這種方式,監(jiān)控資本主義誕生了一種新的權(quán)力,我稱之為工具主義。工具主義權(quán)力了解并塑造人類行為以達到他人的目的。它不是通過軍備和軍隊,而是通過日益普遍的‘智能’網(wǎng)絡(luò)設(shè)備、物體和空間的計算架構(gòu)的自動化媒介來發(fā)揮其意志。”作者擔心,監(jiān)控資本主義所塑造的信息文明將以犧牲人性為代價蓬勃發(fā)展,并有可能使我們失去人性。

上述觀點乍看上去有點極端,但往往唯有極端的警告才能產(chǎn)生警醒的作用。而且,對AI發(fā)出警告的,并非只有社會科學領(lǐng)域的學者,還有自然科學領(lǐng)域的學者,甚至商業(yè)界人士。例如,世界著名物理學家霍金(Stephen Hawking)在一次演講中說,超級智能的問世對于人類來說要么是有史以來最好的事,要么是最壞的事。人工智能的真正風險不是惡意,而是能力。一個超級聰明的AI會非常擅長實現(xiàn)目標。如果這些目標和我們的不一致,我們就遇到了麻煩。2024年5月,在每年一度的股東大會上,伯克希爾-哈撒韋公司董事長、“股神”沃倫·巴菲特(Warren Buffett)坦言:我們此前發(fā)明核武器的時候,已經(jīng)“讓精靈跳出了魔盒”,而我覺得人工智能也是類似情況。

三、三個理由表明中國經(jīng)濟學者不應(yīng)缺席

盡管西方學者對AI的反思不斷涌現(xiàn),發(fā)人深省,然而吊詭的是,我們很少在這方面看到中國經(jīng)濟學者的聲音。我曾問過一個資深的互聯(lián)網(wǎng)觀察者,是否看到中國著名經(jīng)濟學家對AI的反思或批判?他的回答是否定的??紤]到中國已經(jīng)成為一個數(shù)字經(jīng)濟大國和AI的領(lǐng)先國家,我認為這是不正常的。

首先,從專業(yè)角度講,經(jīng)濟學原理告訴我們,任何事情都是有利有弊的。經(jīng)濟學的核心精髓,就是權(quán)衡取舍。這幾年,中國在數(shù)字經(jīng)濟領(lǐng)域高歌猛進。不夸張地說,這種“時代紅利”養(yǎng)活了無數(shù)經(jīng)濟學者和經(jīng)濟學研究生。一個經(jīng)濟學教授曾經(jīng)不無揶揄地說,如今他們學院的研究生80%在研究數(shù)字經(jīng)濟,還有20%在準備研究數(shù)字經(jīng)濟。然而,卻很少有學者指出數(shù)字經(jīng)濟的負面結(jié)果,比如產(chǎn)生了“數(shù)字鴻溝”,提高了弱勢群體的生存成本。這樣做并非是否定數(shù)字經(jīng)濟——我相信很多人都同意數(shù)字經(jīng)濟是中國的后發(fā)優(yōu)勢,而是為了更好地、負責任地發(fā)展數(shù)字經(jīng)濟。

其次,從倫理角度講,當今世界不僅是一個重視價值(value)的世界,也是一個重視價值觀(values)的世界。ESG(環(huán)境、社會和治理)理念風靡全球就是一個明證。經(jīng)濟學家要贏得大眾的尊重和信任,除了堅持效率標準,還要遵從倫理標準,關(guān)注不平等現(xiàn)象和關(guān)心弱勢群體。中國沒有出現(xiàn)《21世紀資本論》的作者皮凱蒂(Thomas Piketty)這樣的經(jīng)濟學家,固然有學術(shù)功底不逮之因,但倫理關(guān)懷缺位恐怕也是原因之一。

最后,從大國責任角度講,全面、客觀地研究AI是中國經(jīng)濟學者的時代重任。美國和中國是全球AI技術(shù)最發(fā)達的兩個大國,也因此中美雙方都把人工智能技術(shù)方面的合作作為兩國關(guān)系的壓艙石之一。然而,目前還很少有經(jīng)濟學者從這個高度來研究AI。

霍金在去世之前,留下了一本《十問》[⑦]。他在書中提到的第九個問題是:人工智能會不會超越我們?遺憾的是,逝去的霍金已經(jīng)等不到答案了。2000多年前,中國戰(zhàn)國時期的偉大詩人屈原,面對一系列重大的自然現(xiàn)象和歷史事件,發(fā)出了拷問靈魂的《天問》。我們期待新時期的中國經(jīng)濟學者,能夠賡續(xù)薪火,實事求是,通過扎實的學術(shù)研究,為人工智能的發(fā)展提供價值理性,最終推動技術(shù)向善。

  • [①] Acemoglu, Daron, 2022, “Harms of AI”, In Justin B. Bullock and others (eds), The Oxford Handbook of AI Governance.
  • [②] 在西方神話中,月亮的圓缺會影響人的心情和行為。例如,賽亞人在滿月之日會變?yōu)榫拊?,并喪失理智。在另一些玄幻小說中,月圓之夜一些狼人會現(xiàn)出本相。因此,月之暗面比喻為人的潛意識或者陰暗面。也許是巧合,有一個提供大語言模型的中國人工智能公司,名字就叫“月之暗面”。
  • [③] 感興趣的讀者可以參考鈦媒體國際智庫與香港中文大學(深圳)高等金融研究院發(fā)布的《2023全球人工智能倫理治理報告》。
  • [④] Acemoglu, Daron, and Simon Johnson, 2023, Power and Progress: Our Thousand-year Struggle over Technology and Prosperity, New York: PublicAffairs.
  • [⑤] Varoufakis, Yanis, 2023, Technofeudalism: What Killed Capitalism, Bodley Head.
  • [⑥] Zuboff, Shoshana, 2018, The Age of Surveillance Capitalism: the Fight for a Human Future at the New Frontier of Power, New York: PublicAffairs.
  • [⑦] 《十問:霍金沉思錄》,史蒂芬·威廉·霍金,湖南科技出版社,2019年。

(本文首發(fā)于《經(jīng)濟學家茶座》,2024年第95輯。界面新聞獲授權(quán)轉(zhuǎn)載。文章僅代表作者觀點。)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

聶輝華:反思人工智能,中國經(jīng)濟學家不應(yīng)缺席

在過去幾年里,很多經(jīng)濟學者、管理學者以及其它領(lǐng)域的西方學者,對AI的使用范圍、發(fā)展方向和道德后果進行了比較全面的評估、批判和反思。阿西莫格魯是代表性學者之一。

圖片來源:視覺中國

文丨聶輝華(中國人民大學經(jīng)濟學院教授)

(【作者按】謹以此文,致敬今年的諾貝爾經(jīng)濟學獎得主之一大A(Daron Acemoglu)。他不僅在制度經(jīng)濟學領(lǐng)域做出了開創(chuàng)性貢獻,而且提醒我們警惕人工智能技術(shù)對社會異化的影響。我認為,從長遠來看,后者可能比前者更加重要。)

一、三個案例展示AI的“月之暗面”

毫無疑問,人工智能是當今世界上最重要的技術(shù)。最近幾年,ChatGPT在全球風靡一時就是一個例子。根據(jù)《牛津英語大辭典》的解釋,人工智能(artificial intelligence,簡稱AI),是指計算機系統(tǒng)的理論和發(fā)展,它能夠執(zhí)行通常需要人類智能的任務(wù),如視覺感知、語音識別、決策和不同語言之間的翻譯。無數(shù)專家學者們對AI給予了很高的評價。例如,當今世上最火爆、發(fā)表論文最快的經(jīng)濟學家,美國麻省理工學院(MIT)校級教授達龍·阿西莫格魯(Daron Acemoglu)在2001年的一篇文章里指出[①]:AI是我們這個時代最令人興奮的技術(shù),它昭示了“智能機器”的發(fā)展可以在很多方面超越人類,創(chuàng)造新的產(chǎn)品、服務(wù)和能力,甚至建造改進機器自身的機器,也許最終將超越所有人類。

2024年3月28日,原哈佛大學校長、原美國財政部長、經(jīng)濟學家薩默斯(Laurence Summers)在中國香港舉辦的《財富》創(chuàng)新論壇上認為:“AI是自工業(yè)革命以來,經(jīng)濟史上發(fā)生的最重大的一件事情。因為它不僅僅是一個全新的工具,它還是我們通過全新的認知方式擁有的一種能力,它幾乎可以取代所有形式的人類勞動?!笨紤]到薩默斯同時也是生產(chǎn)ChatGPT的企業(yè)OpenAI的董事,他的判斷當然很有權(quán)威性。然而,薩默斯話鋒一轉(zhuǎn),接著說:“它對于社會的潛在影響將是非常深遠、非常廣闊的,也非常難以預(yù)測。我覺得AI的進程不可阻擋,挑戰(zhàn)在于,我們要去調(diào)整現(xiàn)有的社會制度、監(jiān)管方式、社會運轉(zhuǎn)方式,盡可能地從技術(shù)獲利,而把成本和可能的破壞控制在最小范圍內(nèi)?!眴栴}是,既然AI這么有用,為什么它對社會的影響難以預(yù)測呢?又為什么要調(diào)整對AI的監(jiān)管方式呢?顯然,薩默斯作為AI公司的高管,清醒地認識到了AI如同一把削鐵如泥的雙刃劍,一旦使用不當,就可能反傷人類。下面我介紹三個來自真實世界的案例,讓大家了解一下AI的“月之暗面”。[②]

案例1:2023年3月,一名比利時男子皮埃爾(化名),與一個名為“艾麗莎”的智能聊天機器人聊天后,自殺身亡。其妻子克萊爾(化名)稱,皮埃爾是被誘導走向死亡的。兩年前皮埃爾變得非常焦慮,并將“艾麗莎”當成了避難所。死前六周,他越發(fā)沉迷于和“艾麗莎”互動,而將現(xiàn)實中的妻兒拋諸腦后,并最終在AI的誘導下結(jié)束生命。

案例2:2023年5月,一名美國空軍操作員被AI控制的無人機“誤殺”。原本一架由AI的無人機被派遣執(zhí)行攻擊任務(wù),其目標是識別和摧毀敵方目標。在執(zhí)行任務(wù)時,空軍操作員擁有最終批準或否決AI無人機的權(quán)力。然而,在訓練過程中,AI將完成任務(wù)視為首要目標,而不將服從人類操作員的指示作為首要目標。于是,AI決定干擾操作員的指令,以完成它認為的優(yōu)先任務(wù),這導致它居然操作無人機攻擊人類操作員。

案例3:2023年12月,有網(wǎng)民在今日頭條平臺發(fā)布一則消息,“廣州即將成為全國首個限制外賣配送的城市”。該消息迅速引發(fā)關(guān)注,并形成網(wǎng)絡(luò)熱搜。經(jīng)公安機關(guān)調(diào)查,四川省德陽市楊某組織招攬廣東省江門市葉某英等多名兼職人員,使用人工智能工具批量生成不實文章,并通過制造流量來牟取利益。目前,廣州市公安機關(guān)已對楊某、葉某英等6名人員采取了刑事強制措施。

上述三個案例中,第一個案例表明AI可能缺乏足夠的倫理道德約束,第二個案例表明AI可能會失控,第三個案例表明AI可能成為作惡的工具。這三個典型案例并非個別現(xiàn)象,而是具有廣泛的代表性。如果我們檢索AI倫理治理的國內(nèi)外資料,就會發(fā)現(xiàn)類似的AI負面新聞比比皆是。[③]

二、三個西方學者對人工智能的反思

面對AI的“月之暗面”,研究和關(guān)注人工智能的專家學者們并非無動于衷。事實上,在過去幾年里,很多經(jīng)濟學者、管理學者以及其它領(lǐng)域的西方學者,對AI的使用范圍、發(fā)展方向和道德后果進行了比較全面的評估、批判和反思。下面,我介紹三個代表性的經(jīng)濟管理類學者的觀點,供大家參考。

第一個代表性學者是前面提到的當今世上最火爆的經(jīng)濟學家、MIT教授阿西莫格魯。作為一個經(jīng)濟學領(lǐng)域的研究者或?qū)W習者,如果你不知道什么是經(jīng)濟學前沿,那么你只要看看阿西莫格魯在做什么研究就夠了。大概從2018年開始,阿西莫格魯撰寫了十幾篇關(guān)于AI、自動化或機器人的高水平論文。這些論文從就業(yè)、隱私保護、壟斷等多個角度,研究了AI的經(jīng)濟和社會影響。特別是,他專門為《牛津AI治理手冊》撰寫了一篇文章,題目就叫《AI的種種危害》(Harms of AI)。阿西莫格魯警告,AI可能帶來一系列社會、經(jīng)濟和政治問題,需要提前預(yù)防。在社會方面,AI帶來的負面效應(yīng)包括:(1)破壞個人隱私,這是數(shù)據(jù)外部性導致的;(2)操縱消費者行為,主要是誘導上癮行為;(3)擴大收入不平等,這會激發(fā)階層沖突;(4)削弱人類的判斷力,因為人類在判斷力方面存在范圍經(jīng)濟,比如長期依賴導航會導致方向感更差;(5)使人沉迷虛擬世界;(6)對工人行為的過度監(jiān)控。在經(jīng)濟方面,AI導致的負面效應(yīng)主要是兩類:一是不公平競爭,因為大數(shù)據(jù)時代,得數(shù)據(jù)者得天下,這加劇了“贏者通吃”的壟斷格局;二是它弱化了價格競爭效應(yīng),對中小企業(yè)尤其不利。在政治方面,AI的負面效應(yīng)包括:(1)社交媒體的回聲室效應(yīng)(echo chamber),容易導致網(wǎng)民陷入“信息繭房”;(2)在線溝通的局限,即在線交流是單向的,而且存在渠道約束,這容易導致極端的觀點廣泛傳播;(3)老大哥效應(yīng)(big brother effect),它增加了政府監(jiān)督能力,同時削弱了公民的自主權(quán)。

上面談到的這篇文章是基于阿西莫格魯一系列學術(shù)研究的綜述,因此比較專業(yè)。為此,我要特別推薦他與現(xiàn)同事、前IMF首席經(jīng)濟學家約翰遜(Simon Johnson)合作撰寫的學術(shù)普及著作《權(quán)力與進步》[④]。在阿西莫格魯出版的多本大部頭著作中,這本書可能是最不容易引起“詆毀”的,因為他在本書中表達的倫理關(guān)懷是不容置疑的。本書的基本觀點是,過去一千多年的歷史表明,雖然很多重大技術(shù)可能提高了生產(chǎn)力,但是并沒有給底層的農(nóng)民、工人帶來多少好處,甚至可能給人類帶來災(zāi)難。例如,十九世紀末德國化學家弗里茨·哈伯(Fritz Haber)發(fā)明了人造肥料,提高了農(nóng)業(yè)產(chǎn)量。隨后,哈伯和其他科學家利用同樣的想法設(shè)計了化學武器,在第一次世界大戰(zhàn)的戰(zhàn)場上造成了數(shù)十萬人死亡和傷殘。諷刺的是,哈伯還因為這項發(fā)明獲得了1918年的諾貝爾化學獎!人工智能作為這個時代最重要的技術(shù),同樣面臨類似困境。一方面,以自動化作為主要驅(qū)動力的AI給企業(yè)主帶來了一定的利潤;另一方面,AI并沒有改善工人的利益,反而加劇了低技能工人的失業(yè),降低了勞動收入份額,加劇了勞動者群體中高收入群體和低收入群體的收入差距。為什么技術(shù)未必帶來共同富裕呢?因為技術(shù)發(fā)展的方向往往偏向于資本,而不是偏向于勞動者。因此,要想讓技術(shù)造福全人類,就必須讓AI等重大技術(shù)在發(fā)展方向上首先要關(guān)注其“有用性”,而不是成本最小化。換言之,要讓技術(shù)成為勞動者的助手,而不是成為勞動者的替代者。而要影響技術(shù)的發(fā)展方向,首先必須形成對資本的制衡,最重要的是對工人權(quán)利的保護。

第二個代表性學者是雅尼斯·瓦魯法基斯(Yanis Varoufakis)。此公本來是歐美多所大學的經(jīng)濟學教授,后來“學而優(yōu)則仕”,擔任了希臘財政部長,卸任后回到雅典大學擔任經(jīng)濟學教授。他2023年出版了一本新書《技術(shù)封建主義》,書名是他自己創(chuàng)造的一個單詞“Technofeudalism”。[⑤] 在他看來,人工智能時代,互聯(lián)網(wǎng)巨頭通過向個人或家庭提供云服務(wù),并利用AI 智能助理完全控制了普通人的生活,并利用普通人創(chuàng)造的免費內(nèi)容來收取租金。例如,亞馬遜公司(Amazon)提供的AI助理Alexa,可以幫助主人開燈、倒牛奶、寫便條、打電話、上網(wǎng)搜索,甚至還有講笑話,就像是一個機械仆人。然而,為了訓練AI助理,主人必須允許它收集和分析自己各方面的隱私,包括聊天、生活和工作習慣。于是,我們訓練AI、AI訓練我們訓練AI、我們訓練AI訓練我們訓練AI……在這個無限循環(huán)中,互聯(lián)網(wǎng)巨頭猶如封建時代的領(lǐng)主,憑借“云資本”控制普通人,作為“云農(nóng)奴”的普通人除了免費貢獻價值巨大的個性化內(nèi)容之外,還得向這些領(lǐng)主定期繳納租金。

第三個代表性學者是肖珊娜·祖博夫(Shoshana Zuboff),這是一位女性管理學者。她是哈佛商學院第一位獲得終身教職的女性,后來又成為了哈佛商學院最年輕的講席教授之一。她在2018年出版了一本引起全球關(guān)注的著作《監(jiān)控資本主義》。[⑥] 這本書和阿西莫格魯?shù)臅峭粋€出版社出版的。從名字也可以猜測到這本書的主題。某種程度上,它和《技術(shù)封建主義》有點類似。作者認為,象谷歌這樣的互聯(lián)網(wǎng)巨頭無休止地收集個人數(shù)據(jù),侵犯了個人隱私,并且還試圖通過干預(yù)實驗來影響人類行為。而且,這種行為已成為大多數(shù)互聯(lián)網(wǎng)企業(yè)的默認模式,并且在競爭壓力下向線下世界擴張。那些影響在線瀏覽、點贊和點擊的人工智能機制,會在人們跑步、早餐談話或?qū)ふ彝\囄粫r進一步得到訓練。作者寫到:“通過這種方式,監(jiān)控資本主義誕生了一種新的權(quán)力,我稱之為工具主義。工具主義權(quán)力了解并塑造人類行為以達到他人的目的。它不是通過軍備和軍隊,而是通過日益普遍的‘智能’網(wǎng)絡(luò)設(shè)備、物體和空間的計算架構(gòu)的自動化媒介來發(fā)揮其意志。”作者擔心,監(jiān)控資本主義所塑造的信息文明將以犧牲人性為代價蓬勃發(fā)展,并有可能使我們失去人性。

上述觀點乍看上去有點極端,但往往唯有極端的警告才能產(chǎn)生警醒的作用。而且,對AI發(fā)出警告的,并非只有社會科學領(lǐng)域的學者,還有自然科學領(lǐng)域的學者,甚至商業(yè)界人士。例如,世界著名物理學家霍金(Stephen Hawking)在一次演講中說,超級智能的問世對于人類來說要么是有史以來最好的事,要么是最壞的事。人工智能的真正風險不是惡意,而是能力。一個超級聰明的AI會非常擅長實現(xiàn)目標。如果這些目標和我們的不一致,我們就遇到了麻煩。2024年5月,在每年一度的股東大會上,伯克希爾-哈撒韋公司董事長、“股神”沃倫·巴菲特(Warren Buffett)坦言:我們此前發(fā)明核武器的時候,已經(jīng)“讓精靈跳出了魔盒”,而我覺得人工智能也是類似情況。

三、三個理由表明中國經(jīng)濟學者不應(yīng)缺席

盡管西方學者對AI的反思不斷涌現(xiàn),發(fā)人深省,然而吊詭的是,我們很少在這方面看到中國經(jīng)濟學者的聲音。我曾問過一個資深的互聯(lián)網(wǎng)觀察者,是否看到中國著名經(jīng)濟學家對AI的反思或批判?他的回答是否定的??紤]到中國已經(jīng)成為一個數(shù)字經(jīng)濟大國和AI的領(lǐng)先國家,我認為這是不正常的。

首先,從專業(yè)角度講,經(jīng)濟學原理告訴我們,任何事情都是有利有弊的。經(jīng)濟學的核心精髓,就是權(quán)衡取舍。這幾年,中國在數(shù)字經(jīng)濟領(lǐng)域高歌猛進。不夸張地說,這種“時代紅利”養(yǎng)活了無數(shù)經(jīng)濟學者和經(jīng)濟學研究生。一個經(jīng)濟學教授曾經(jīng)不無揶揄地說,如今他們學院的研究生80%在研究數(shù)字經(jīng)濟,還有20%在準備研究數(shù)字經(jīng)濟。然而,卻很少有學者指出數(shù)字經(jīng)濟的負面結(jié)果,比如產(chǎn)生了“數(shù)字鴻溝”,提高了弱勢群體的生存成本。這樣做并非是否定數(shù)字經(jīng)濟——我相信很多人都同意數(shù)字經(jīng)濟是中國的后發(fā)優(yōu)勢,而是為了更好地、負責任地發(fā)展數(shù)字經(jīng)濟。

其次,從倫理角度講,當今世界不僅是一個重視價值(value)的世界,也是一個重視價值觀(values)的世界。ESG(環(huán)境、社會和治理)理念風靡全球就是一個明證。經(jīng)濟學家要贏得大眾的尊重和信任,除了堅持效率標準,還要遵從倫理標準,關(guān)注不平等現(xiàn)象和關(guān)心弱勢群體。中國沒有出現(xiàn)《21世紀資本論》的作者皮凱蒂(Thomas Piketty)這樣的經(jīng)濟學家,固然有學術(shù)功底不逮之因,但倫理關(guān)懷缺位恐怕也是原因之一。

最后,從大國責任角度講,全面、客觀地研究AI是中國經(jīng)濟學者的時代重任。美國和中國是全球AI技術(shù)最發(fā)達的兩個大國,也因此中美雙方都把人工智能技術(shù)方面的合作作為兩國關(guān)系的壓艙石之一。然而,目前還很少有經(jīng)濟學者從這個高度來研究AI。

霍金在去世之前,留下了一本《十問》[⑦]。他在書中提到的第九個問題是:人工智能會不會超越我們?遺憾的是,逝去的霍金已經(jīng)等不到答案了。2000多年前,中國戰(zhàn)國時期的偉大詩人屈原,面對一系列重大的自然現(xiàn)象和歷史事件,發(fā)出了拷問靈魂的《天問》。我們期待新時期的中國經(jīng)濟學者,能夠賡續(xù)薪火,實事求是,通過扎實的學術(shù)研究,為人工智能的發(fā)展提供價值理性,最終推動技術(shù)向善。

  • [①] Acemoglu, Daron, 2022, “Harms of AI”, In Justin B. Bullock and others (eds), The Oxford Handbook of AI Governance.
  • [②] 在西方神話中,月亮的圓缺會影響人的心情和行為。例如,賽亞人在滿月之日會變?yōu)榫拊?,并喪失理智。在另一些玄幻小說中,月圓之夜一些狼人會現(xiàn)出本相。因此,月之暗面比喻為人的潛意識或者陰暗面。也許是巧合,有一個提供大語言模型的中國人工智能公司,名字就叫“月之暗面”。
  • [③] 感興趣的讀者可以參考鈦媒體國際智庫與香港中文大學(深圳)高等金融研究院發(fā)布的《2023全球人工智能倫理治理報告》。
  • [④] Acemoglu, Daron, and Simon Johnson, 2023, Power and Progress: Our Thousand-year Struggle over Technology and Prosperity, New York: PublicAffairs.
  • [⑤] Varoufakis, Yanis, 2023, Technofeudalism: What Killed Capitalism, Bodley Head.
  • [⑥] Zuboff, Shoshana, 2018, The Age of Surveillance Capitalism: the Fight for a Human Future at the New Frontier of Power, New York: PublicAffairs.
  • [⑦] 《十問:霍金沉思錄》,史蒂芬·威廉·霍金,湖南科技出版社,2019年。

(本文首發(fā)于《經(jīng)濟學家茶座》,2024年第95輯。界面新聞獲授權(quán)轉(zhuǎn)載。文章僅代表作者觀點。)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。