界面新聞記者 | 林子人
界面新聞編輯 | 黃月
2022年11月,美國人工智能研究實驗室OpenAI推出了ChatGPT。截至2023年1月末,其月度活躍用戶已突破1億人次,成為史上用戶增長速度最快的消費級應(yīng)用程序。繼2016年的AlphaGo之后,ChatGPT再度一石激起千層浪,引發(fā)全球公眾對人工智能領(lǐng)域的關(guān)注。
ChatGPT是由人工智能驅(qū)動的自然語言處理工具,擁有語言理解和文本生成能力,它通過海量數(shù)據(jù)訓練模型,使其幾乎無所不知。令人們驚訝和著迷的是,ChatGPT還能根據(jù)聊天的上下文,模擬類似真實人類的聊天過程,撰寫郵件、文案、翻譯、代碼等任務(wù)。ChatGPT還預(yù)設(shè)了某種道德準則,一旦判定用戶的話語中包含惡意或犯罪意圖,就會拒絕提供答案。ChatGPT的橫空出世標志著人工智能領(lǐng)域的重大發(fā)展,而隨著用戶積極地發(fā)現(xiàn)它越來越多的用途,它改變甚至顛覆既有生活方式、社會常規(guī)和政治經(jīng)濟秩序的可能性也在漸漸浮現(xiàn)。
技術(shù)與人的關(guān)系是同濟大學人文學院副教授、哲學系副主任余明鋒近年來重要的研究方向,2022年出版的《還原與無限》一書是他的“技術(shù)時代”三部曲的開篇。余明鋒認為,ChatGPT在開啟了人工智能新時代的同時,對經(jīng)濟、政治、日常生活,乃至人類的自我理解、哲學思考、基本的價值信念、社會法則等方面帶來了深刻的挑戰(zhàn)。
在接受界面文化(ID: Booksandfun)專訪時,余明鋒談到了ChatGPT可能對大學教育、人類自我身份認同、價值觀、就業(yè)機會和社會公平正義等方面產(chǎn)生的影響。他認為,ChatGPT帶來的挑戰(zhàn)固然很多,引發(fā)的許多問題還只是猜想沒有答案,但以ChatGPT為代表的人工智能技術(shù)同樣也是人類反思自身和既有社會問題的契機。為此,我們需要以更積極的姿態(tài)應(yīng)對技術(shù)變革,在巨大的社會變動和價值觀沖撞中謀求某種共識。
01 AlphaGo預(yù)告過靴子將落下,ChatGPT就是第一只
界面文化:你對ChatGPT這項技術(shù)的出現(xiàn)有怎樣的感受?
余明鋒:ChatGPT好像是從北美刮過來的一陣旋風,瞬間成為了一個全球性話題。我試用之后,幾乎每天都在中英文媒體上看各種報道和分析,大致形成了自己的判斷。
人類仿佛又到了一個接近技術(shù)奇點的時刻。2016年AlphaGo掀起了對于人工智能的狂想,面對ChatGPT我們會有似曾相識的感覺,但這一次人工智能突破的不是一個規(guī)則清晰的棋類游戲,而是有著相當?shù)哪:院透叨褥`活性的人類自然語言領(lǐng)域,這是一個非常大的不同。在OpenAI開放ChatGPT讓全球所有人去體驗之前,很多人是不相信它能實現(xiàn)突破的——語言是人類世界中最神秘的現(xiàn)象之一,可以說是人類思維和全部人類文明的基本載體,我們的自我和世界其實是通過語言打開的,這是哲學的基本看法。所以這一次技術(shù)突破確實會帶來巨大的影響。
AlphaGo在2016年預(yù)告了靴子即將落下,ChatGPT就是第一只落下來的靴子,它開啟了人工智能的新時代。這個技術(shù)突破不但關(guān)系到互聯(lián)網(wǎng)領(lǐng)域的投資和商業(yè)領(lǐng)域的變革,而且會深刻影響我們的日常生活。當然,ChatGPT只是GPT3的一個衍生產(chǎn)品,是AIGC(內(nèi)容生成型人工智能)大家族中異軍突起的一支而已。不過,它大大加劇了群雄逐鹿的形勢,也許會在很大程度上擠占其他枝杈的生存空間,化生為未來的根脈。人工智能的另一個興奮點是谷歌旗下的Alphafold,那意味著人工智能與生物技術(shù)的結(jié)合。
無論如何,我們有理由相信內(nèi)容生產(chǎn)型的人工智能會有廣闊的前景,這一只靴子我們可以斷定它已經(jīng)落下,可還有另一只靴子,這是我想說的重點:人工智能的廣泛應(yīng)用,究竟意味著什么?它對經(jīng)濟、政治、日常生活,乃至人類的自我理解,對我們的哲學思考和基本的價值信念、社會法則等等會帶來哪些深刻的挑戰(zhàn)?這是未來會發(fā)生的事情,也是我們作為思想者如此關(guān)注它的更為重要的原因。所以,關(guān)于此的公共討論非常有必要。
界面文化:你用ChatGPT問了什么問題?
余明鋒:比如 “人類什么時候會滅亡?”它的回答比我想象得悲觀。它說有關(guān)于此,學者們尚且無法確定,但大多數(shù)人都認為,“幾十年后,由于不可避免的氣候變化、環(huán)境污染、社會分歧、人口過剩等社會現(xiàn)象,人類將面臨滅亡的威脅。”不過,也有朋友提醒我,用英文提問,答案會不一樣。無論如何,我大體了解了為什么大家會那么興奮和驚訝,因為它確實“會聊天”,能夠進行有連續(xù)性、有邏輯的對談,而且表述確實是它自己綜合網(wǎng)絡(luò)資源生成的。
02 ChatGPT或?qū)?/strong>改變既有的人文教育模式
界面文化:美國的一項實驗發(fā)現(xiàn),OpenAI的GPT-3模型在經(jīng)過數(shù)百萬單詞的訓練后,已經(jīng)能夠偽裝成美國哲學家丹尼爾·丹尼特(Daniel Dennett)與人討論哲學問題,很多時候我們難以分辨AI生成的評論到底是否出自丹尼特之口。作為一位大學老師和哲學學者,你是否會有危機感?
余明鋒:這是一個我特別想談的問題,但我想首先對人工智能技術(shù)做一番祛魅的思考。某種意義上,人工智能天然地有一種“魔術(shù)”的性質(zhì)。魔術(shù)有自我隱藏的特征,魔術(shù)師不會把TA的技巧給你看,而是給你看效果。這是魔術(shù)的基本特征,人工智能也是如此。
我們需要意識到,ChatGPT不是真的在聊天,而是一個有交互性的數(shù)據(jù)處理。面對高度復雜、有很強模糊性的人類語言,它能夠?qū)崿F(xiàn)這樣的數(shù)據(jù)處理當然是驚人的,但數(shù)據(jù)處理依然是它的本質(zhì)。這個區(qū)分非常重要。真正的聊天不是單純的信息交流,而是有著豐富的人性要素。這是我首先想說明的,它對于我們接下來的討論非常重要。
也會有人反過來問,我們難道不可以把人類的智能理解為復雜的數(shù)據(jù)處理嗎?這是一個非常有趣的哲學問題。我個人認為這是對人類智能的高度簡化。人類的聊天不只是在處理信息,其中情緒性、直覺性、聯(lián)想性的東西,不能化約為數(shù)據(jù)處理。當然,人工智能的研究者肯定會在未來試圖把它們化約為數(shù)據(jù)處理——當我們把它們還原為數(shù)據(jù)處理的時候,我們就可以使機器更接近人類的需要。但我們要意識到這是兩件本質(zhì)不同的事情。數(shù)據(jù)處理本身是對人類精神世界的一個巨大簡化,雖然這樣的簡化會越來越有效,而且會帶來一些巨大的改變。可簡化總是有損失的,再有效的簡化也不同于事情本身。
明白這一點后,我們再來看它對哲學研究和哲學教學的影響。黑格爾、海德格爾等著名哲學家都會說一些“黑話”,就是個人特征非常明顯的語言,這樣的語言是可以作為語料庫來訓練的,但這不是哲學研究,而是在模仿人類既有的思想成果。真正的哲學研究需要創(chuàng)造性地提問,并且要結(jié)合自己的生存處境、自我認識、世界上的種種矛盾,提出切身的問題,這甚至是一個哲學家最重要的品質(zhì)。全新的提問方式會把我們帶入全新的思想世界,這種創(chuàng)造性是不能簡單被機器替代的。
但對學者而言,影響會很大。學者和哲學家的區(qū)別在于學者處理前人的文本,他們解釋黑格爾談了什么、丹尼特談了什么。這種處理既定文本的能力也是有創(chuàng)造性的,而不是簡單的復述。我作為一個尼采研究者解釋尼采的時候,帶入了我自己的視角,帶入了我們時代的關(guān)切,他的思想在我們這個時代之所以有研究的必要,是因為和我們當下的生存有相關(guān)性。
但另一方面,現(xiàn)在的論文學術(shù)體制中大量的工作就是文獻梳理,這個工作在未來會被包括ChatGPT在內(nèi)的人工智能技術(shù)大大影響。已經(jīng)有很多國外著名期刊要求作者必須聲明自己在寫作時是否使用了這個軟件,或者直接拒絕有ChatGPT參與的論文,國內(nèi)的期刊也開始有反應(yīng)。這是非常有意思的事情,充分說明了ChatGPT對這個層面的學術(shù)研究的影響。它會形成一個錯亂的機制,一篇基于ChatGPT的綜述寫成的文章算不算作者自己的成果?如何評估它的影響又是一件有趣的事情。對于真正有創(chuàng)造性的學者來說,ChatGPT當然可以節(jié)約時間,因為學術(shù)研究確實有很大一部分時間是在處理信息,而ChatGPT可以在處理二手文獻方面提供很大幫助,大量的二手文獻只有瀏覽和綜述的價值。這個意義上,我個人有很強的興奮感去了解它,因為在我看來,論文寫作在當下過多地擠占了真正的哲學思考,哲學的本意在今天其實已陷入巨大危機。
界面文化:我們再從學生的角度聊聊這個問題吧。ChatGPT能歸納、總結(jié)、舉例、理解上下文,能夠回答開放性、創(chuàng)意性的問題,甚至在一些涉及倫理安全的敏感問題上都能答得很好。我們是否到了需要擔心人工智能會沖擊文科教育的時候?微軟已宣布在搜索引擎Bing中引入ChatGPT,我們熟悉的搜索框?qū)⒆優(yōu)閷υ捒?,今?/span>Bing將對復雜的搜索請求給出更完善的答案。在此之前,搜索引擎對我們獲取信息、學習知識的方式的改變就已有諸多爭議,當有技術(shù)甚至能直接給出參考答案時,是否會進一步削弱我們閱讀原典的動力?它是否會導致智識上的懶惰?
余明鋒:如果我們沒有把經(jīng)典文本裝在心里,其實是沒有辦法對它做深入分析的,因為經(jīng)典文本需要玩味,需要化入自己的生命。我們這一代的學者已經(jīng)非常習慣于用PDF的搜索功能去查關(guān)鍵術(shù)語出現(xiàn)的概率和語境,這種處理方式會讓我們的思考偏于機械化。在這個意義上,無疑有一種退化。
隨著更強大工具的興起,深入閱讀后歸納總結(jié)、撰寫文獻綜述的能力也會發(fā)生普遍的退化,這不是一個太聳人聽聞的觀點。還有一件很重要的事情是注意力。對于一個思想者來說,注意力極為重要,它不但是有效學習、深入思考的前提,而且是個人幸福感的重要要素。
目前大家更憂慮的是,學生以后還會不會獨立寫論文了,教育者又要如何判定學生的論文。我試著反過來看這個問題,論文寫作這件事在今天是不是被過于強調(diào)了?學生的能力通過論文來評判,學者的生產(chǎn)力也由論文數(shù)量和被引率來評判,這件事本身值得反思。論文寫作對學術(shù)初學者來說固然是一種重要的訓練,但更基本的訓練恐怕是非?;A(chǔ)的人文教育,比如深入經(jīng)典文本的能力、傾聽和對話的能力、歷史感和社會關(guān)懷等等。
ChatGPT對論文的挑戰(zhàn),也許會促使我們調(diào)整既有的教育模式。真正有效的哲學教育很大程度上體現(xiàn)在學生是否被“打開”,他們的問答是否具有反思性和邏輯性,他們是否被啟發(fā)著去質(zhì)疑和反思,去進行有邏輯性和有創(chuàng)造性地論辯,他們在論辯時是著力于為自己辯護還是著力于事情本身的澄清,等等。
所以在我的教學范圍內(nèi),我不是特別擔心這件事,雖然危險的確存在,但它也可以是一個我們解決既有問題的契機。包括哲學在內(nèi)的人文教育,真正的意義不是培養(yǎng)學者,而是培育真正意義上的人,甚至大寫的人??晌覀兎路鸨灸┑怪昧?,這是尼采在100多年前就痛心疾首的事情。人文教育關(guān)系到青年靈魂的成長、生命的塑造、對偉大傳統(tǒng)的理解和對世界的開放態(tài)度。ChatGPT的回答追求正確,可真正的人文教育關(guān)注的恰恰不是給出全然正確的答案,而是基于深切的關(guān)懷和深厚的學養(yǎng)去追問,由此打開新的反思空間、新的生命空間。在這個意義上,哲學思考有行動的性質(zhì),這些都是無法被機器所取代的。
03 人工智能的“政治正確”可能會加劇價值觀沖突
界面文化:當人工智能已經(jīng)在一定程度上可以做到近似人類的思考,人類要如何保持自己的身份認同呢?和人工智能的“思維方式”相比,人類的思維方式還保有哪些獨到之處?
余明鋒:哪怕一個小孩給出了錯誤的答案,TA回答過程所關(guān)聯(lián)到的要素都比信息處理來得豐富。TA有想象,有直覺,還有一些莫名其妙但真實感受到的東西。我在寫完《還原與無限》后準備撰寫的第二本書叫《感知論》,感知這件事其實非常要緊,而人類過去包括哲學在內(nèi)都更強調(diào)理知。理知當中有很大一部分是可以被機器替代掉的,而感知這種能力其實對文學藝術(shù)創(chuàng)作、哲學思考來說極為重要。它不是簡單的信息處理,很多時候是跳躍性的、從無到有的,甚至莫名其妙地生發(fā)出來的。
ChatGPT的一個問題在于,它使用的是過往的語料庫,你如果現(xiàn)在問它2022年的事情,它是不知道的。這還在其次,畢竟它可以更新。更重要的是,它是在處理海量數(shù)據(jù)中生成的回答。這意味著,它的回答基于出現(xiàn)頻率最高的、在大多數(shù)人當中流行的說法??烧胬?/span>往往掌握在少數(shù)人手上,人類自古以來如此。真正有創(chuàng)造性的思想,在當時常常是不被接受的。內(nèi)容生成型人工智能的核心原理是貝葉斯公式,數(shù)學家貝葉斯(Thomas Bayes, 1702-1761)在世時沒有得到承認,貝葉斯公式是在后世不斷的運用中贏得了聲譽。
在這個層面上,我覺得ChatGPT是一個巨大的危險:數(shù)據(jù)處理可能會加固人類既有的流行觀念,而嚴肅的思考恰恰需要質(zhì)疑這些東西。另一方面,人類反饋訓練的環(huán)節(jié)事實上是培養(yǎng)了人工智能的“政治正確”,目前ChatGPT的處理方法是擱置關(guān)于道德、宗教或政治方面的很多話題,然后在其他一些問題中把違背人類直覺或道德底線的一些東西排除掉。我們可以設(shè)想,尼采的文本可能通不過它的檢驗。尼采后期自稱是非道德主義者,有很多激進的言論,這些言論對人類的道德反思做出了重要的貢獻。比如說,他認為許多看上去善良溫和的道德其實是出于我們的怨恨,背后可能是人類的權(quán)力欲望,這是一個高度批判性但是值得我們深思的視角。在ChatGPT這樣的信息處理當中,這樣的答案大概率會被過濾掉。于是它將形成一個新的人類知識庫,加固“正確的”意見。
界面文化:也就是說,ChatGPT的一個潛在威脅,是可能無法容忍超出現(xiàn)有道德倫理框架的一些觀點。
余明鋒:對,而且現(xiàn)有的人類道德倫理框架還有國族和文化差異,這就很麻煩。比如關(guān)于女性的觀點,美國人和阿拉伯世界的人差異巨大。目前ChatGPT簡單又聰明的處理辦法就是擱置這些話題,但如果真的要與ChatGPT深入聊天,很多問答會不會隱含這些價值判斷?那么當ChatGPT被訓練為給出標準的、“政治正確”的回答,這一機制就會成為人類自我理解的一面鏡子。如果持有不同價值觀的政治共同體訓練出不同的聊天機器,是否會導致人與人的隔閡越來越深?這都是問題。
04 是機器主體性在提升,還是我們的主體性在沒落?
界面文化:ChatGPT的出現(xiàn)加劇了另一種恐懼——人類的工作崗位是不是會進一步加快流失?也有一種對技術(shù)進步更樂觀的觀點認為,我們應(yīng)該爭取一個“人工智能+人類”(而非“人工智能取代人類”)的未來,在人機密切合作的時代里,人工智能成為人類的個人助理。你對此怎么看?
余明鋒:我覺得兩方面的觀點都有道理。首先談就業(yè)焦慮的問題。其實現(xiàn)在最焦慮的不是普通的打工人,而是互聯(lián)網(wǎng)巨頭,因為這一次人工智能突破涉及到的會是新一輪的互聯(lián)網(wǎng)基建。各大搜索引擎和APP如果要植入ChatGPT,都需要重新改造。通用人工智能的巨大應(yīng)用前景是讓谷歌、臉書這樣的互聯(lián)網(wǎng)巨頭非常緊張,這個轉(zhuǎn)變的關(guān)口如果沒有跟上,就沒有辦法與微軟競爭了。
回到普通人來說,如果說工業(yè)革命替代的是低端的體力勞動,那么人工智能革命替代的會是低端的腦力勞動。前兩年大家討論大衛(wèi)·格雷伯的《毫無意義的工作》,我想很多人意識到了生活中很多的工作就是狗屁工作,寫發(fā)言稿、填表格、做方案等等都是低端的腦力勞動??傮w來說,這些低端的腦力勞動未來會在相當程度上被替代。但就像工業(yè)革命會產(chǎn)生新型的低端體力勞動一樣(比如農(nóng)民可能去開收割機,或在流水線上按螺絲),人工智能也可能會產(chǎn)生一些新的崗位,比如訓練人工智能的標記員,可這甚至已經(jīng)不能算是腦力勞動了??傊?,就業(yè)會發(fā)生大規(guī)模的縮減和轉(zhuǎn)移,這兩者會同時發(fā)生。
第二個相關(guān)的看法是,我們需要反思今天的中國教育。如果我們目前培養(yǎng)的就是低端腦力勞動者,那么未來是很容易被替代的。今天的大學教育非常成問題的一點是普遍的績點制,大學變成了高中的延續(xù),老師在忙于寫論文,學生在忙于考試、爭取高績點,這使得自由討論、質(zhì)疑、批評的氛圍,甚至一些值得鼓勵的偏離軌道的嘗試都大大減少。改變教育體制并不容易,因為教育在我們的社會也是一個公平機制。依照考試成績和論文數(shù)量來評判的機制無論如何僵化,都成了社會公平的底線。這是我們的教育“不能承受之重”,是其社會功能所在也是癥結(jié)所在。任何一種變化,如何能夠同時維系社會公平?
也許,一個辦法是做出區(qū)分,在基礎(chǔ)教育階段強調(diào)公平,但在高等教育階段,既然已經(jīng)擇優(yōu)培養(yǎng),那就要卸下這個社會職能的重擔,讓該精英的部分精英起來。我個人在這方面不是特別樂觀,但它值得我們進行廣泛的公共討論。不然我們將不止在ChatGPT這一步落后,還可能落后于整個人工智能的未來發(fā)展方向。我們雖然無法要求所有人都有創(chuàng)造力,但至少能培養(yǎng)出具有靈活性、不是成天從事那些狗屁工作的人, “君子不器”是我們該有的人格理想。
界面文化:格雷伯對狗屁工作有很多不同的分類,狗屁工作當然和剛剛提到的低端的腦力勞動有很大的重合度,但其實很多工作的存在(比如“隨從”類工作)是為了滿足職場上位者的需求,無論是虛榮心還是權(quán)力欲望。這一類工作雖然毫無意義,但它是根據(jù)人性需求創(chuàng)造出來的。人性很難改變,那技術(shù)也不大可能改變這樣一種職場權(quán)力結(jié)構(gòu)。
余明鋒:這里涉及到一個問題,就是人工智能的主體性認定。我們之所以要一個人做隨從,是因為TA是人,如果后面跟著人工智能好像沒什么值得驕傲的,就沒有刷存在感的空間了,是吧?現(xiàn)在有人提出一個問題,我們是不是應(yīng)該拓展主體性的概念,當機器能夠與我們互動時,我們是否應(yīng)該承認它的主體性?
我個人比較傾向于前面說的,要在人性思維和數(shù)據(jù)計算之間做出本質(zhì)區(qū)分,人工智能畢竟是一種“魔術(shù)”。雖然這種魔術(shù)愈發(fā)逼真,就像電影《她》(Her)展示的,人工智能在未來可能會滿足很多人的情感需要,比如說晚上睡不著,把你的伴侶吵醒是件很糟糕的事情,而聊天機器可以給你講個故事。可主體性的確認恰恰需要差異性的張力,如果我們的情感需要都寄托在方便的TA上面,那恐怕不是機器的主體性的提升,而是我們自己的主體性的沒落。
不止居上位者有權(quán)力欲,普通人的權(quán)力欲未來可能是需要通過機器去滿足的,就像人們會養(yǎng)寵物一樣,未來可能會養(yǎng)自己的聊天機器,你可以養(yǎng)出一個文質(zhì)彬彬或心直口快的聊天機器,而這都關(guān)系到主體性的維系和沒落。
此外,我還想說一個哲學上非常值得注意的問題,就是人類的自我理解。它不止事關(guān)個體,也涉及到人的社會性,涉及到人把什么作為他者。隨著“人性化”的人工智能進入我們的生活,它對人類心理的這種微妙影響力其實值得關(guān)注?,F(xiàn)在的青少年已經(jīng)出現(xiàn)了這個狀況,就是人性的交流大大不足。很多青少年在需要交流的時候被打發(fā)去玩iPad、打游戲或者聽故事,過度的人機交流其實會對人的內(nèi)心產(chǎn)生負面影響。而當ChatGPT顯得更加人性化的時候,也更容易替代人進入親子交流的領(lǐng)域,這對孩子的影響會是怎樣的?ChatGPT畢竟和父母的角色是不同的,它甚至和真正的寵物也不同。寵物不止聽話,它不是一個絕對順從的對象,它還會帶來麻煩,它也會有情緒。機器的陪伴在帶來便利的同時是否會阻礙健全主體性的養(yǎng)成?
還有老年人的照護問題,機器人會如何處理?這里有很多倫理取向的難題。把人工反饋加入ChatGPT后是有倫理取向的設(shè)置的,那么人類價值觀會不會趨于單一化?人類的社會性思考會不會趨于簡化?人工智能會不會培養(yǎng)出看上去很樂觀、事實上內(nèi)心冰涼的人?也許未來會有這樣的問題,值得我們思考。
05 未來最大的不平等存在于“被喂養(yǎng)信息的人”和“站在后臺的人”之間
界面文化:你在《還原與無限》中提出,“資本-技術(shù)-政治”三位一體的存在為19世紀后的現(xiàn)代世界的全面展開提供了動力,技術(shù)深深嵌入資本和政治的系統(tǒng)之中。如果你在撰寫這本書的時候ChatGPT就已經(jīng)出現(xiàn)了,你會如何討論它呢?
余明鋒:ChatGPT可以說是還原論的又一次重大進步,涉及的是日常語言如何被還原為機器語言的問題。
我們剛才談的所有問題,某種意義上都是另一只靴子的組成部分。ChatGPT不止是一個工具,科技和資本、政治系統(tǒng)是有關(guān)聯(lián)的?,F(xiàn)在國內(nèi)外的討論主要和經(jīng)濟有關(guān),因為ChatGPT是投資的熱土,這就是技術(shù)和資本的密切關(guān)聯(lián)。資本在過去幾年其實缺少投資熱點,現(xiàn)在終于有了一個新的風口。另一方面,ChatGPT的誕生本身就和資本的力量分不開,微軟注入了大量資本,以海量數(shù)據(jù)為基礎(chǔ)進行訓練,它帶來的效益也首先表現(xiàn)在經(jīng)濟方面。
與此同時,它也會重塑我們的生活方式,這是我作為一個哲學研究者非常關(guān)注這個問題的原因。這是我們時代真實發(fā)生的事件,它不是一個局部的問題,而是影響到我們的社會組織、生活方式的整體性問題。資本-科學-技術(shù)系統(tǒng)當然和政治有關(guān)系,比如美國總統(tǒng)大選期間,媒體平臺、公共平臺對選舉的影響是很大的,ChatGPT的信息機制之后在多大程度上會影響選民?
未來世界最大的一個分野,恐怕就在于你是站在后臺的人還是站在前臺的人。站在后臺的人是掌握數(shù)據(jù)處理機制的人,他們即便無法全權(quán)掌握海量數(shù)據(jù),但可以影響數(shù)據(jù)的處理機制。現(xiàn)在互聯(lián)網(wǎng)巨頭競爭的其實是是否能率先搭建平臺、成為后臺,用戶就會成為站在前臺的人,這件事就和政治太有關(guān)系了。
界面文化:我們對ChatGPT的擔憂之一是它會加劇不平等:如果人工智能的發(fā)明是為了讓人類的生活變得更好,那它應(yīng)該促進自由、平等、透明和財富的分享,但我們擔心ChatGPT和其他類似的應(yīng)用會進一步幫助資本逐利。1930年,凱恩斯就預(yù)測隨著技術(shù)發(fā)展人類每周工作時間可能不超過15個小時,但至今他的預(yù)言不僅沒有實現(xiàn),反而我們的加班時間越來越長。也就是說,技術(shù)進步的果實其實沒有被普通的勞動者享受到。
余明鋒:這是我在《還原與無限》中著重分析的問題,為什么會這樣?技術(shù)不是簡單地讓我們有了更便利的生活,而是把我們從原來的生活方式中“解放”出來,置入一個無限增長的系統(tǒng)。技術(shù)系統(tǒng)之所以會有中立的假象,就因為它唯一的目的在于增長本身。資本因為有時間價值,所以有強制增長的內(nèi)在要求,有時間價值意味著“明天一定要比今天多,要不然就虧了”。被置入資本-科學-技術(shù)的系統(tǒng)之后,看上去大家的生活改善了,但其實我們原先的生活是沒有那么多增長需要的,增長也不是生命的唯一追求,甚至也不是主要追求。在古代世界,就價值觀而言,人追求的是德性的上升,比如中世紀基督教追求的主要是靈魂的純化,這些東西在今天的我們聽起來像天方夜譚一樣。今天最主要的追求就是增長,整個社會都有增長強制,這是你剛才所說的現(xiàn)象的原因。
再回到不平等的問題。我在《還原與無限》中有一個基本判斷,我們認同現(xiàn)代社會的一個基本原因是認同自由與平等,但在今天這兩項現(xiàn)代性的承諾都落空了。剛才我們談到信息繭房和數(shù)據(jù)后臺,當我們的每一步行動都變成數(shù)據(jù),當算法深入到我們全部的生活細節(jié),我們的個人偏好成為商業(yè)開發(fā)對象的時候,自由的承諾難道不是落空了嗎?平等的承諾也是如此。未來的不平等可能更多表現(xiàn)在你是被喂養(yǎng)信息的人,還是你是站在后臺的人,這種不平等恐怕是一個絕對的不平等,不只是財富上的,而且是人格上的。未來的不平等還體現(xiàn)在,勞動在現(xiàn)代世界被認為是個人實現(xiàn)自我成長的途徑,但今天的勞動變成了單純的績效追求和自我施加的暴力。我們每天的工作除了增長和謀生意義之外,沒有了真正的自我實現(xiàn)的含義,這在未來恐怕也會加劇。
界面文化:人工智能會改變我們的價值觀和政治經(jīng)濟制度嗎?
余明鋒:現(xiàn)代性的后果已經(jīng)越來越明顯,人類正在經(jīng)歷一次價值觀的大沖撞,這種沖撞在我們的社會中也感受得很明顯,好像共識不再存在。如果人類未來要形成具有共識性的價值觀,恐怕將會基于對現(xiàn)代性后果的消化。這里面既有思想者的工作,也有社會本身的演化。
技術(shù)的發(fā)展使得社會處于巨大的動蕩之中,幾年就有一個新的技術(shù)概念被跑出來,雖然它可能離實現(xiàn)還很遠(比如元宇宙),但巨大的投資進入后,技術(shù)發(fā)展是一個加速的過程。當我們意識到“技術(shù)永遠有另外一只靴子”的時候,意味著社會在經(jīng)歷技術(shù)發(fā)展的同時也會一次次地重組,那么它對社會、政治、價值觀的影響會是巨大的。
我們?nèi)匀惶幱谶@個變化之中,恐怕我們這一代人甚至幾代人(如果人類還沒有毀滅)還得去忍受這種價值觀上的不安。這是變動中的社會必定會有的后果和挑戰(zhàn),我們正在經(jīng)歷一個不可思議的時代,一個注定不安的時代。在這個意義上,人工智能和其他技術(shù)的發(fā)展一樣,都是人類反思自身的契機。我們需要以積極的姿態(tài)去充分介入另一只靴子的落下,它和每一個人切身相關(guān)。