正在閱讀:

哲學學者余明鋒:ChatGPT的回答追求正確,真正的人文教育并非如此 | 專訪

掃一掃下載界面新聞APP

哲學學者余明鋒:ChatGPT的回答追求正確,真正的人文教育并非如此 | 專訪

我們正在經歷一個不可思議的時代,一個注定不安的時代。在這個意義上,人工智能和其他技術的發(fā)展一樣,都是人類反思自身的契機。

攝影:范劍磊

界面新聞記者 | 林子人

界面新聞編輯 | 黃月

2022年11月,美國人工智能研究實驗室OpenAI推出了ChatGPT。截至20231月末,其月度活躍用戶已突破1億人次,成為史上用戶增長速度最快的消費級應用程序。繼2016年的AlphaGo之后,ChatGPT再度一石激起千層浪,引發(fā)全球公眾對人工智能領域的關注。

ChatGPT是由人工智能驅動的自然語言處理工具,擁有語言理解和文本生成能力,它通過海量數據訓練模型,使其幾乎無所不知。令人們驚訝和著迷的是,ChatGPT還能根據聊天的上下文,模擬類似真實人類的聊天過程,撰寫郵件、文案、翻譯、代碼等任務。ChatGPT還預設了某種道德準則,一旦判定用戶的話語中包含惡意或犯罪意圖,就會拒絕提供答案。ChatGPT的橫空出世標志著人工智能領域的重大發(fā)展,而隨著用戶積極地發(fā)現它越來越多的用途,它改變甚至顛覆既有生活方式、社會常規(guī)和政治經濟秩序的可能性也在漸漸浮現。

技術與人的關系是同濟大學人文學院副教授、哲學系副主任余明鋒近年來重要的研究方向,2022年出版的《還原與無限》一書是他的“技術時代三部曲的開篇。余明鋒認為,ChatGPT在開啟了人工智能新時代的同時,對經濟、政治、日常生活,乃至人類的自我理解、哲學思考、基本的價值信念、社會法則等方面帶來了深刻的挑戰(zhàn)。

余明鋒(采訪對象供圖)

在接受界面文化(ID: Booksandfun)專訪時,余明鋒談到了ChatGPT可能對大學教育、人類自我身份認同、價值觀、就業(yè)機會和社會公平正義等方面產生的影響。他認為,ChatGPT帶來的挑戰(zhàn)固然很多,引發(fā)的許多問題還只是猜想沒有答案,但以ChatGPT為代表的人工智能技術同樣也是人類反思自身和既有社會問題的契機。為此,我們需要以更積極的姿態(tài)應對技術變革,在巨大的社會變動和價值觀沖撞中謀求某種共識。

01 AlphaGo預告過靴子將落下,ChatGPT就是第一只

界面文化:你對ChatGPT這項技術的出現有怎樣的感受?

余明鋒:ChatGPT好像是從北美刮過來的一陣旋風,瞬間成為了一個全球性話題。我試用之后,幾乎每天都在中英文媒體上看各種報道和分析,大致形成了自己的判斷。

人類仿佛又到了一個接近技術奇點的時刻。2016AlphaGo掀起了對于人工智能的狂想,面對ChatGPT我們會有似曾相識的感覺,但這一次人工智能突破的不是一個規(guī)則清晰的棋類游戲,而是有著相當的模糊性和高度靈活性的人類自然語言領域,這是一個非常大的不同。在OpenAI開放ChatGPT讓全球所有人去體驗之前,很多人是不相信它能實現突破的——語言是人類世界中最神秘的現象之一,可以說是人類思維和全部人類文明的基本載體,我們的自我和世界其實是通過語言打開的,這是哲學的基本看法。所以這一次技術突破確實會帶來巨大的影響。

AlphaGo2016年預告了靴子即將落下,ChatGPT就是第一只落下來的靴子,它開啟了人工智能的新時代。這個技術突破不但關系到互聯網領域的投資和商業(yè)領域的變革,而且會深刻影響我們的日常生活。當然,ChatGPT只是GPT3的一個衍生產品,是AIGC(內容生成型人工智能)大家族中異軍突起的一支而已。不過,它大大加劇了群雄逐鹿的形勢,也許會在很大程度上擠占其他枝杈的生存空間,化生為未來的根脈。人工智能的另一個興奮點是谷歌旗下的Alphafold,那意味著人工智能與生物技術的結合。

無論如何,我們有理由相信內容生產型的人工智能會有廣闊的前景,這一只靴子我們可以斷定它已經落下,可還有另一只靴子,這是我想說的重點:人工智能的廣泛應用,究竟意味著什么?它對經濟、政治、日常生活,乃至人類的自我理解,對我們的哲學思考和基本的價值信念、社會法則等等會帶來哪些深刻的挑戰(zhàn)?這是未來會發(fā)生的事情,也是我們作為思想者如此關注它的更為重要的原因。所以,關于此的公共討論非常有必要。

攝影:范劍磊

界面文化:你用ChatGPT問了什么問題?

余明鋒:比如人類什么時候會滅亡?它的回答比我想象得悲觀。它說有關于此,學者們尚且無法確定,但大多數人認為,幾十年后,由于不可避免的氣候變化、環(huán)境污染、社會分歧、人口過剩等社會現象,人類將面臨滅亡的威脅。不過,也有朋友提醒我,用英文提問,答案會不一樣。無論如何,我大體了解了為什么大家那么興奮和驚訝,因為它確實會聊天,能夠進行有連續(xù)性、有邏輯的對談,而且表述確實是它自己綜合網絡資源生成的。

02 ChatGPT或將改變既有的人文教育模式

界面文化:美國的一項實驗發(fā)現,OpenAIGPT-3模型在經過數百萬單詞的訓練后,已經能夠偽裝成美國哲學家丹尼爾·丹尼特(Daniel Dennett)與人討論哲學問題,很多時候我們難以分辨AI生成的評論到底是否出自丹尼特之口。作為一位大學老師和哲學學者,你是否會有危機感?

余明鋒:這是一個我特別想談的問題,但我想首先對人工智能技術做一番祛魅的思考。某種意義上,人工智能天然地有一種魔術的性質。魔術有自我隱藏的特征,魔術師不會把TA的技巧給你看,而是給你看效果。這是魔術的基本特征,人工智能也是如此。

我們需要意識到,ChatGPT不是真的在聊天,而是一個有交互性的數據處理。面對高度復雜、有很強模糊的人類語言,它能夠實現這樣的數據處理當然是驚人的,但數據處理依然是它的本質。這個區(qū)分非常重要。真正的聊天不是單純的信息交流,而是有著豐富的人性要素。這是我首先想說明的,它對于我們接下來的討論非常重要。

也會有人反過來問,我們難道不可以把人類的智能理解為復雜的數據處理嗎?這是一個非常有趣的哲學問題。我個人認為這是對人類智能的高度簡化。人類的聊天不只是在處理信息,其中情緒性、直覺性、聯想性的東西,不能化約為數據處理。當然,人工智能的研究者肯定在未來試圖把它們化約為數據處理——當我們把它們還原為數據處理的時候,我們就可以使機器更接近人類的需要。但我們要意識到這是兩件本質不同的事情。數據處理本身是對人類精神世界的一個巨大簡化,雖然這樣的簡化會越來越有效,而且會帶來一些巨大的改變。可簡化總是有損失的,再有效的簡化也不同于事情本身。

明白這一點后,我們再來看它對哲學研究和哲學教學的影響。黑格爾、海德格爾等著名哲學家都會說一些“黑話,就是個人特征非常明顯的語言,這樣的語言是可以作為語料庫來訓練的,但這不哲學研究,而是在模仿人類既有的思想成果。真正的哲學研究需要創(chuàng)造性提問,并且要結合自己的生存處境、自我認識、世界上的種種矛盾,提出切身的問題,這甚至是一個哲學家最重要的品質。全新的提問方式會把我們帶入全新的思想世界,這種創(chuàng)造性是不能簡單被機器替代的。

但對學者而言,影響會很大。學者和哲學家的區(qū)別在于學者處理前人的文本,他們解釋黑格爾談了什么、丹尼特談了什么。這種處理既定文本的能力也是有創(chuàng)造性的,而不是簡單的復述。我作為一個尼采研究者解釋尼采的時候,帶入了我自己的視角,帶入了我們時代的關切,他的思想在我們這個時代之所以有研究的必要,是因為和我們當下的生存有相關性。

但另一方面,現在的論文學術體制中大量的工作就是文獻梳理,這個工作在未來會被包括ChatGPT在內的人工智能技術大大影響。已經有很多國外著名期刊要求作者必須聲明自己在寫作時是否使用了這個軟件,或者直接拒絕有ChatGPT參與的論文,國內的期刊也開始有反應。這是非常有意思的事情,充分說明了ChatGPT對這個層面的學術研究的影響。它會形成一個錯亂的機制,一篇基于ChatGPT的綜述寫成文章算不算作者自己的成果?如何評估它的影響又是一件有趣的事情。對于真正有創(chuàng)造性的學者來說,ChatGPT當然可以節(jié)約時間,因為學術研究確實有很大一部分時間是在處理信息,ChatGPT可以在處理二手文獻方面提供很大幫助,大量的二手文獻只有瀏覽和綜述的價值。這個意義上,我個人有很強的興奮感去了解它,因為在我看來,論文寫作在當下過多地擠占了真正的哲學思考,哲學的本意在今天其實已陷入巨大危機。

界面文化:我們再從學生的角度聊聊這個問題吧。ChatGPT能歸納、總結、舉例、理解上下文,能夠回答開放性、創(chuàng)意性的問題,甚至在一些涉及倫理安全的敏感問題上都能答得很好。我們是否到了需要擔心人工智能會沖擊文科教育的時候?微軟已宣布在搜索引擎Bing中引入ChatGPT,我們熟悉的搜索框將變?yōu)閷υ捒颍窈?/span>Bing將對復雜的搜索請求給出更完善的答案。在此之前,搜索引擎對我們獲取信息、學習知識的方式的改變就已有諸多爭議,當有技術甚至能直接給出參考答案時,是否會進一步削弱我們閱讀原典的動力?它是否會導致智識上的懶惰?

余明鋒:如果我們沒有把經典文本裝在心里,其實是沒有辦法對它做深入分析的,因為經典文本需要玩味,需要化入自己的生命。我們這一代的學者已經非常習慣于用PDF的搜索功能去查關鍵術語出現的概率和語境,這種處理方式會讓我們的思考偏于機械化。在這個意義上,無疑有一種退化。

隨著更強大工具的興起,深入閱讀后歸納總結、撰寫文獻綜述的能力也會發(fā)生普遍的退化,這不是一個太聳人聽聞的觀點。還有一件很重要的事情是注意力。對于一個思想者來說,注意力極為重要,它不但是有效學習、深入思考的前提,而且是個人幸福感的重要要素。

目前大家更憂慮的是,學生以后還會不會獨立寫論文了,教育者又要如何判定學生的論文。我試著反過來看這個問題,論文寫作這件事在今天是不是被過于強調了?學生的能力通過論文來評判,學者的生產力由論文數量和被引率來評判,這件事本身值得反思。論文寫作對學術初學者來說固然是一種重要的訓練,但更基本的訓練恐怕是非常基礎的人文教育,比如深入經典文本的能力、傾聽和對話的能力、歷史感和社會關懷等等。

ChatGPT對論文的挑戰(zhàn),也許會促使我們調整既有的教育模式。真正有效的哲學教育很大程度上體現在學生是否被“打開”,他們的問答是否具有反思性和邏輯性,他們是否被啟發(fā)著去質疑和反思,去進行有邏輯性和有創(chuàng)造性地論辯,他們在論辯時是著力于為自己辯護還是著力于事情本身的澄清,等等。

所以在我的教學范圍內,我不是特別擔心這件事,雖然危險的確存在,但它也可以是一個我們解決既有問題的契機。包括哲學在內的人文教育真正的意義不是培養(yǎng)學者,而是培育真正意義上的人,甚至大寫的人。可我們仿佛本末倒置了,這是尼采在100多年前就痛心疾首的事情。人文教育關系到青年靈魂的成長、生命的塑造、對偉大傳統的理解和對世界的開放態(tài)度。ChatGPT的回答追求正確,可真正的人文教育關注的恰恰不是給出全然正確的答案,而是基于深切的關懷和深厚的學養(yǎng)去追問,由此打開新的反思空間、新的生命空間。在這個意義上,哲學思考有行動的性質,這些都是無法被機器取代的。

03 人工智能的政治正確可能會加劇價值觀沖突

界面文化:當人工智能已經在一定程度上可以做到近似人類的思考,人類要如何保持自己的身份認同呢?和人工智能的“思維方式相比,人類的思維方式還保有哪些獨到之處?

余明鋒:哪怕一個小孩給出了錯誤的答案,TA回答過程所關聯到的要素都比信息處理來得豐富。TA有想象,有直覺,還有一些莫名其妙但真實感受到的東西。我在寫完《還原與無限》后準備撰寫的第二本書叫《感知論》,感知這件事其實非常要緊,而人類過去包括哲學在內更強調理知理知當中有很大一部分是可以被機器替代掉的,而感知這種能力其實對文學藝術創(chuàng)作、哲學思考來說極為重要。它不是簡單的信息處理,很多時候是跳躍性的、從無到有的,甚至莫名其妙地生發(fā)出來的。

ChatGPT的一個問題在于,它使用的是過往的語料庫,你如果現在問它2022年的事情,它是不知道的。這還在其次,畢竟它可以更新。更重要的是,它是在處理海量數據中生成的回答。這意味著,它的回答基于出現頻率最高的、在大多數人當中流行的說法??烧胬?/span>往往掌握在少數人手上,人類自古以來如此。真正有創(chuàng)造性的思想,在當時常常是不被接受的。內容生成型人工智能的核心原理是貝葉斯公式,數學家貝葉斯(Thomas Bayes, 1702-1761)在世時沒有得到承認,貝葉斯公式是在后世不斷的運用中贏得了聲譽。

在這個層面上,我覺得ChatGPT是一個巨大的危險:數據處理可能會加固人類既有的流行觀念,而嚴肅的思考恰恰需要質疑這些東西。另一方面,人類反饋訓練的環(huán)節(jié)事實上是培養(yǎng)了人工智能的政治正確,目前ChatGPT的處理方法是擱置關于道德、宗教或政治方面的很多話題,然后在其他一些問題中把違背人類直覺或道德底線的一些東西排除掉。我們可以設想,尼采的文本可能通不過它的檢驗尼采后期自稱是非道德主義者,有很多激進的言論,這些言論對人類的道德反思做出了重要的貢獻。比如說,他認為許多看上去善良溫和的道德其實是出于我們的怨恨,背后可能是人類的權力欲望,這是一個高度批判性但是值得我們深思的視角。ChatGPT這樣的信息處理當中,這樣的答案大概率會被過濾掉。于是它將形成一個新的人類知識庫,加固正確的意見。

界面文化:也就是說,ChatGPT的一個潛在威脅,是可能無法容忍超出現有道德倫理框架的一些觀點。

余明鋒:對,而且現有的人類道德倫理框架還有國族和文化差異,這就很麻煩。比如關于女性的觀點,美國人和阿拉伯世界的人差異巨大。目前ChatGPT簡單又聰明的處理辦法就是擱置這些話題,但如果真的要與ChatGPT深入聊天,很多問答會不會隱含這些價值判斷?那么當ChatGPT被訓練為給出標準的、政治正確的回答,這一機制就會成為人類自我理解的一面鏡子。如果持有不同價值觀的政治共同體訓練不同的聊天機器,是否會導致人與人的隔閡越來越深?這都是問題。

04 是機器主體性在提升,還是我們的主體性在沒落?

界面文化:ChatGPT的出現加劇了另一種恐懼——人類的工作崗位是不是會進一步加快流失?也有一種對技術進步更樂觀的觀點認為,我們應該爭取一個人工智能+人類(而非人工智能取代人類)的未來,在人機密切合作的時代里,人工智能成為人類的個人助理。你對此怎么看?

余明鋒:我覺得兩方面的觀點都有道理。首先談就業(yè)焦慮的問題。其實現在最焦慮的不是普通的打工人,而是互聯網巨頭,因為這一次人工智能突破涉及到的會是新一輪的互聯網基建。各大搜索引擎和APP如果要植入ChatGPT,都需要重新改造。通用人工智能的巨大應用前景是讓谷歌、臉書這樣的互聯網巨頭非常緊張,這個轉變的關口如果沒有跟上,就沒有辦法與微軟競爭了。

攝影:范劍磊

回到普通人來說,如果說工業(yè)革命替代的是低端的體力勞動,那么人工智能革命替代的會是低端的腦力勞動。前兩年大家討論大衛(wèi)·格雷伯的《毫無意義的工作》,我想很多人意識到了生活中很多的工作就是狗屁工作,寫發(fā)言稿、填表格、做方案等等都是低端的腦力勞動??傮w來說,這些低端的腦力勞動未來會在相當程度上被替代。但就像工業(yè)革命會產生新型的低端體力勞動一樣(比如農民可能去開收割機,或在流水線上按螺絲),人工智能也可能會產生一些新的崗位,比如訓練人工智能的標記員,可這甚至已經不能算是腦力勞動了。總之,就業(yè)會發(fā)生大規(guī)模的縮減和轉移,這兩者會同時發(fā)生。

《毫無意義的工作》
[美]大衛(wèi)·格雷伯 著 呂宇珺 譯
中信出版集團 2022-7

第二個相關的看法是,我們需要反思今天的中國教育。如果我們目前培養(yǎng)的就是低端腦力勞動者,那么未來是很容易被替代的。今天的大學教育非常成問題的一點是普遍的績點制,大學變成了高中的延續(xù),老師在忙寫論文,學生在忙考試、爭取高績點,這使得自由討論、質疑、批評的氛圍,甚至一些值得鼓勵的偏離軌道的嘗試大大減少。改變教育體制不容易,因為教育在我們的社會也是一個公平機制。依照考試成績和論文數量來評判的機制無論如何僵化,都成了社會公平的底線。這是我們的教育“不能承受之重”,是其社會功能所在也是癥結所在。任何一種變化,如何能夠同時維系社會公平?

也許,一個辦法是做出區(qū)分,在基礎教育階段強調公平,但在高等教育階段,既然已經擇優(yōu)培養(yǎng),那就要卸下這個社會職能的重擔,讓該精英的部分精英起來。我個人在這方面不是特別樂觀,但它值得我們進行廣泛的公共討論。不然我們將不止在ChatGPT這一步落后,還可能落后于整個人工智能的未來發(fā)展方向。我們雖然無法要求所有人都有創(chuàng)造力,但至少能培養(yǎng)出具有靈活性、不是成天從事那些狗屁工作的人, 君子不器是我們該有的人格理想。

界面文化:格雷伯對狗屁工作有很多不同的分類,狗屁工作當然和剛剛提到的低端的腦力勞動有很大的重合度,但其實很多工作的存在(比如“隨從類工作)是為了滿足職場上位者的需求,無論是虛榮心還是權力欲望。這一類工作雖然毫無意義,但它是根據人性需求創(chuàng)造出來的。人性很難改變,那技術也不大可能改變這樣一種職場權力結構。

余明鋒:這里涉及到一個問題,就是人工智能的主體性認定。我們之所以要一個人做隨從,是因為TA是人,如果后面跟著人工智能好像沒什么值得驕傲的,就沒有刷存在感的空間了,是吧?現在有人提出一個問題,我們是不是應該拓展主體性的概念,當機器能夠與我們互動時,我們是否應該承認它的主體性?

我個人比較傾向于前面說的,要人性思維數據計算之間做出本質區(qū)分,人工智能畢竟是一種魔術。雖然這種魔術愈發(fā)逼真,就像電影《她》(Her)展示的,人工智能在未來可能會滿足很多人的情感需要,比如說晚上睡不著,把你的伴侶吵醒是件很糟糕的事情,而聊天機器可以給你講個故事。可主體性的確認恰恰需要差異性的張力,如果我們的情感需要都寄托在方便的TA上面,那恐怕不是機器的主體性的提升,而是我們自己的主體性的沒落。

不止居上位者有權力欲,普通人的權力欲未來可能是需要通過機器去滿足的,就像人們會養(yǎng)寵物一樣,未來可能會養(yǎng)自己的聊天機器,你可以養(yǎng)出一個文質彬彬或心直口快的聊天機器,而這都關系到主體性的維系和沒落。

此外,我想說一個哲學上非常值得注意的問題,就是人類的自我理解。它不止事關個體,也涉及到人的社會性,涉及到人把什么作為他者。隨著人性化的人工智能進入我們的生活,它對人類心理的這種微妙影響力其實值得關注?,F在的青少年已經出現了這個狀況,就是人性的交流大大不足。很多青少年在需要交流的時候被打發(fā)去玩iPad、打游戲或者聽故事,過度的人機交流其實會對人的內心產生負面影響。而當ChatGPT顯得更加人性化的時候,也更容易替代人進入親子交流的領域,這對孩子的影響會是怎樣的?ChatGPT畢竟和父母的角色是不同的,它甚至和真正的寵物也不同。寵物不止聽話,它不是一個絕對順從的對象,它還會帶來麻煩,它也會有情緒。機器的陪伴在帶來便利的同時是否會阻礙健全主體性的養(yǎng)成?

還有老年人的照護問題,機器人會如何處理?這里有很多倫理取向的難題。把人工反饋加入ChatGPT后是有倫理取向的設置的,那么人類價值觀會不會趨于單一化?人類的社會性思考會不會趨于簡化?人工智能會不會培養(yǎng)出看上去很樂觀、事實上內心冰涼的人?也許未來會有這樣的問題,值得我們思考。

05  未來最大的不平等存在于被喂養(yǎng)信息的人站在后臺的人之間

界面文化:你在《還原與無限》中提出,“資本-技術-政治三位一體的存在為19世紀后的現代世界的全面展開提供了動力,技術深深嵌入資本和政治的系統之中。如果你在撰寫這本書的時候ChatGPT就已經出現了,你會如何討論它呢?

余明鋒:ChatGPT可以說是還原論的又一次重大進步,涉及的是日常語言如何被還原為機器語言的問題。 

我們剛才談的所有問題,某種意義上都是另一只靴子的組成部分。ChatGPT不止是一個工具,科技和資本、政治系統是有關聯的?,F在國內外的討論主要和經濟有關,因為ChatGPT是投資的熱土,這就是技術和資本的密切關聯。資本在過去幾年其實缺少投資熱點,現在終于有了一個新的風口。另一方面,ChatGPT的誕生本身就和資本的力量分不開,微軟注入了大量資本,以海量數據為基礎進行訓練,它帶來的效益也首先表現在經濟方面。

與此同時,它也會重塑我們的生活方式,這是我作為一個哲學研究者非常關注這個問題的原因。這是我們時代真實發(fā)生的事件,它不是一個局部的問題,而是影響到我們的社會組織、生活方式的整體性問題。資本-科學-技術系統當然和政治有關系,比如美國總統大選期間,媒體平臺、公共平臺對選舉的影響是很大的,ChatGPT信息機制之后在多大程度上會影響選民?

《還原與無限:技術時代的哲學問題》
余明鋒 著
上海三聯書店 2022-8

未來世界最大的一個分野,恐怕就在于你是站在后臺的人還是站在前臺的人。站在后臺的人是掌握數據處理機制的人,他們即便無法全權掌握海量數據,但可以影響數據的處理機制。現在互聯網巨頭競爭的其實是是否能率先搭建平臺、成為后臺,用戶就會成為站在前臺的人,這件事就和政治太有關系了。

界面文化:我們對ChatGPT的擔憂之一是它會加劇不平等:如果人工智能的發(fā)明是為了讓人類的生活變得更好,那它應該促進自由、平等、透明和財富的分享,但我們擔心ChatGPT和其他類似的應用會進一步幫助資本逐利。1930年,凱恩斯就預測隨著技術發(fā)展人類每周工作時間可能不超過15個小時,但至今他的預言不僅沒有實現,反而我們的加班時間越來越長。也就是說,技術進步的果實其實沒有被普通的勞動者享受到。

余明鋒:這是我在《還原與無限》中著重分析的問題,為什么會這樣?技術不是簡單地讓我們有了更便利的生活,而是把我們從原來的生活方式中“解放出來,置入一個無限增長的系統。技術系統之所以會有中立的假象,就因為它唯一的目的在于增長本身。資本因為有時間價值,所以有強制增長的內在要求,有時間價值意味著明天一定要比今天多,要不然就虧了被置入資本-科學-技術的系統之后,看上去大家的生活改善了,但其實我們原先的生活是沒有那么多增長需要的,增長也不是生命的唯一追求,甚至也不是主要追求。在古代世界,就價值觀而言,人追求的是德性的上升,比如中世紀基督教追求的主要是靈魂的純化,這些東西在今天的我們聽起來像天方夜譚一樣。今天最主要的追求就是增長,整個社會都有增長強制,這是你剛才所說的現象的原因。

再回到不平等的問題。我在《還原與無限》中有一個基本判斷,我們認同現代社會的一個基本原因是認同自由與平等,但在今天這兩項現代性的承諾都落空了。剛才我們談到信息繭房和數據后臺,當我們的每一步行動都變成數據,當算法深入到我們全部的生活細節(jié),我們的個人偏好成為商業(yè)開發(fā)對象的時候,自由的承諾難道不是落空了嗎?平等的承諾也是如此。未來的不平等可能更多表現在你是被喂養(yǎng)信息的人,還是你是站在后臺的人,這種不平等恐怕是一個絕對的不平等,不只是財富上的,而且是人格上的。未來的不平等還體現在,勞動在現代世界被認為是個人實現自我成長的途徑,但今天的勞動變成了單純的績效追求和自我施加的暴力。我們每天的工作除了增長和謀生意義之外,沒有了真正的自我實現的含義,這在未來恐怕也會加劇。

界面文化:人工智能會改變我們的價值觀和政治經濟制度嗎?

余明鋒:現代性的后果已經越來越明顯,人類正在經歷一次價值觀的大沖撞,這種沖撞在我們的社會中也感受得很明顯,好像共識不再存在。如果人類未來要形成具有共識性的價值觀,恐怕將會基于對現代性后果的消化。這里面既有思想者的工作,也有社會本身的演化。

技術的發(fā)展使得社會處于巨大的動蕩之中,幾年就有一個新的技術概念被跑出來,雖然它可能離實現還很遠(比如元宇宙),但巨大的投資進入后,技術發(fā)展是一個加速的過程。當我們意識到技術永遠有另外一只靴子的時候,意味著社會在經歷技術發(fā)展的同時也會一次次地重組,那么它對社會、政治、價值觀的影響會是巨大的。

我們仍然處于這個變化之中,恐怕我們這一代人甚至幾代人(如果人類還沒有毀滅)還得去忍受這種價值觀上的不安。這是變動中的社會必定會有的后果和挑戰(zhàn),我們正在經歷一個不可思議的時代,一個注定不安的時代。在這個意義上,人工智能和其他技術的發(fā)展一樣,都是人類反思自身的契機。我們需要以積極的姿態(tài)去充分介入另一只靴子的落下,它和每一個人切身相關。

未經正式授權嚴禁轉載本文,侵權必究。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

哲學學者余明鋒:ChatGPT的回答追求正確,真正的人文教育并非如此 | 專訪

我們正在經歷一個不可思議的時代,一個注定不安的時代。在這個意義上,人工智能和其他技術的發(fā)展一樣,都是人類反思自身的契機。

攝影:范劍磊

界面新聞記者 | 林子人

界面新聞編輯 | 黃月

2022年11月,美國人工智能研究實驗室OpenAI推出了ChatGPT。截至20231月末,其月度活躍用戶已突破1億人次,成為史上用戶增長速度最快的消費級應用程序。繼2016年的AlphaGo之后,ChatGPT再度一石激起千層浪,引發(fā)全球公眾對人工智能領域的關注。

ChatGPT是由人工智能驅動的自然語言處理工具,擁有語言理解和文本生成能力,它通過海量數據訓練模型,使其幾乎無所不知。令人們驚訝和著迷的是,ChatGPT還能根據聊天的上下文,模擬類似真實人類的聊天過程,撰寫郵件、文案、翻譯、代碼等任務。ChatGPT還預設了某種道德準則,一旦判定用戶的話語中包含惡意或犯罪意圖,就會拒絕提供答案。ChatGPT的橫空出世標志著人工智能領域的重大發(fā)展,而隨著用戶積極地發(fā)現它越來越多的用途,它改變甚至顛覆既有生活方式、社會常規(guī)和政治經濟秩序的可能性也在漸漸浮現。

技術與人的關系是同濟大學人文學院副教授、哲學系副主任余明鋒近年來重要的研究方向,2022年出版的《還原與無限》一書是他的“技術時代三部曲的開篇。余明鋒認為,ChatGPT在開啟了人工智能新時代的同時,對經濟、政治、日常生活,乃至人類的自我理解、哲學思考、基本的價值信念、社會法則等方面帶來了深刻的挑戰(zhàn)。

余明鋒(采訪對象供圖)

在接受界面文化(ID: Booksandfun)專訪時,余明鋒談到了ChatGPT可能對大學教育、人類自我身份認同、價值觀、就業(yè)機會和社會公平正義等方面產生的影響。他認為,ChatGPT帶來的挑戰(zhàn)固然很多,引發(fā)的許多問題還只是猜想沒有答案,但以ChatGPT為代表的人工智能技術同樣也是人類反思自身和既有社會問題的契機。為此,我們需要以更積極的姿態(tài)應對技術變革,在巨大的社會變動和價值觀沖撞中謀求某種共識。

01 AlphaGo預告過靴子將落下,ChatGPT就是第一只

界面文化:你對ChatGPT這項技術的出現有怎樣的感受?

余明鋒:ChatGPT好像是從北美刮過來的一陣旋風,瞬間成為了一個全球性話題。我試用之后,幾乎每天都在中英文媒體上看各種報道和分析,大致形成了自己的判斷。

人類仿佛又到了一個接近技術奇點的時刻。2016AlphaGo掀起了對于人工智能的狂想,面對ChatGPT我們會有似曾相識的感覺,但這一次人工智能突破的不是一個規(guī)則清晰的棋類游戲,而是有著相當的模糊性和高度靈活性的人類自然語言領域,這是一個非常大的不同。在OpenAI開放ChatGPT讓全球所有人去體驗之前,很多人是不相信它能實現突破的——語言是人類世界中最神秘的現象之一,可以說是人類思維和全部人類文明的基本載體,我們的自我和世界其實是通過語言打開的,這是哲學的基本看法。所以這一次技術突破確實會帶來巨大的影響。

AlphaGo2016年預告了靴子即將落下,ChatGPT就是第一只落下來的靴子,它開啟了人工智能的新時代。這個技術突破不但關系到互聯網領域的投資和商業(yè)領域的變革,而且會深刻影響我們的日常生活。當然,ChatGPT只是GPT3的一個衍生產品,是AIGC(內容生成型人工智能)大家族中異軍突起的一支而已。不過,它大大加劇了群雄逐鹿的形勢,也許會在很大程度上擠占其他枝杈的生存空間,化生為未來的根脈。人工智能的另一個興奮點是谷歌旗下的Alphafold,那意味著人工智能與生物技術的結合。

無論如何,我們有理由相信內容生產型的人工智能會有廣闊的前景,這一只靴子我們可以斷定它已經落下,可還有另一只靴子,這是我想說的重點:人工智能的廣泛應用,究竟意味著什么?它對經濟、政治、日常生活,乃至人類的自我理解,對我們的哲學思考和基本的價值信念、社會法則等等會帶來哪些深刻的挑戰(zhàn)?這是未來會發(fā)生的事情,也是我們作為思想者如此關注它的更為重要的原因。所以,關于此的公共討論非常有必要。

攝影:范劍磊

界面文化:你用ChatGPT問了什么問題?

余明鋒:比如人類什么時候會滅亡?它的回答比我想象得悲觀。它說有關于此,學者們尚且無法確定,但大多數人認為,幾十年后,由于不可避免的氣候變化、環(huán)境污染、社會分歧、人口過剩等社會現象,人類將面臨滅亡的威脅。不過,也有朋友提醒我,用英文提問,答案會不一樣無論如何,我大體了解了為什么大家那么興奮和驚訝,因為它確實會聊天,能夠進行有連續(xù)性、有邏輯的對談,而且表述確實是它自己綜合網絡資源生成的。

02 ChatGPT或將改變既有的人文教育模式

界面文化:美國的一項實驗發(fā)現,OpenAIGPT-3模型在經過數百萬單詞的訓練后,已經能夠偽裝成美國哲學家丹尼爾·丹尼特(Daniel Dennett)與人討論哲學問題,很多時候我們難以分辨AI生成的評論到底是否出自丹尼特之口。作為一位大學老師和哲學學者,你是否會有危機感?

余明鋒:這是一個我特別想談的問題,但我想首先對人工智能技術做一番祛魅的思考。某種意義上,人工智能天然地有一種魔術的性質。魔術有自我隱藏的特征,魔術師不會把TA的技巧給你看,而是給你看效果。這是魔術的基本特征,人工智能也是如此。

我們需要意識到,ChatGPT不是真的在聊天,而是一個有交互性的數據處理。面對高度復雜、有很強模糊的人類語言,它能夠實現這樣的數據處理當然是驚人的,但數據處理依然是它的本質。這個區(qū)分非常重要。真正的聊天不是單純的信息交流,而是有著豐富的人性要素。這是我首先想說明的,它對于我們接下來的討論非常重要。

也會有人反過來問,我們難道不可以把人類的智能理解為復雜的數據處理嗎?這是一個非常有趣的哲學問題。我個人認為這是對人類智能的高度簡化。人類的聊天不只是在處理信息,其中情緒性、直覺性、聯想性的東西,不能化約為數據處理。當然,人工智能的研究者肯定在未來試圖把它們化約為數據處理——當我們把它們還原為數據處理的時候,我們就可以使機器更接近人類的需要。但我們要意識到這是兩件本質不同的事情。數據處理本身是對人類精神世界的一個巨大簡化,雖然這樣的簡化會越來越有效,而且會帶來一些巨大的改變。可簡化總是有損失的,再有效的簡化也不同于事情本身。

明白這一點后,我們再來看它對哲學研究和哲學教學的影響。黑格爾、海德格爾等著名哲學家都會說一些“黑話,就是個人特征非常明顯的語言,這樣的語言是可以作為語料庫來訓練的,但這不哲學研究,而是在模仿人類既有的思想成果。真正的哲學研究需要創(chuàng)造性提問,并且要結合自己的生存處境、自我認識、世界上的種種矛盾,提出切身的問題,這甚至是一個哲學家最重要的品質。全新的提問方式會把我們帶入全新的思想世界,這種創(chuàng)造性是不能簡單被機器替代的。

但對學者而言,影響會很大。學者和哲學家的區(qū)別在于學者處理前人的文本,他們解釋黑格爾談了什么、丹尼特談了什么。這種處理既定文本的能力也是有創(chuàng)造性的,而不是簡單的復述。我作為一個尼采研究者解釋尼采的時候,帶入了我自己的視角,帶入了我們時代的關切,他的思想在我們這個時代之所以有研究的必要,是因為和我們當下的生存有相關性。

但另一方面,現在的論文學術體制中大量的工作就是文獻梳理,這個工作在未來會被包括ChatGPT在內的人工智能技術大大影響。已經有很多國外著名期刊要求作者必須聲明自己在寫作時是否使用了這個軟件,或者直接拒絕有ChatGPT參與的論文,國內的期刊也開始有反應。這是非常有意思的事情,充分說明了ChatGPT對這個層面的學術研究的影響。它會形成一個錯亂的機制,一篇基于ChatGPT的綜述寫成文章算不算作者自己的成果?如何評估它的影響又是一件有趣的事情。對于真正有創(chuàng)造性的學者來說,ChatGPT當然可以節(jié)約時間,因為學術研究確實有很大一部分時間是在處理信息,ChatGPT可以在處理二手文獻方面提供很大幫助,大量的二手文獻只有瀏覽和綜述的價值。這個意義上,我個人有很強的興奮感去了解它,因為在我看來,論文寫作在當下過多地擠占了真正的哲學思考,哲學的本意在今天其實已陷入巨大危機。

界面文化:我們再從學生的角度聊聊這個問題吧。ChatGPT能歸納、總結、舉例、理解上下文,能夠回答開放性、創(chuàng)意性的問題,甚至在一些涉及倫理安全的敏感問題上都能答得很好。我們是否到了需要擔心人工智能會沖擊文科教育的時候?微軟已宣布在搜索引擎Bing中引入ChatGPT,我們熟悉的搜索框將變?yōu)閷υ捒?,今?/span>Bing將對復雜的搜索請求給出更完善的答案。在此之前,搜索引擎對我們獲取信息、學習知識的方式的改變就已有諸多爭議,當有技術甚至能直接給出參考答案時,是否會進一步削弱我們閱讀原典的動力?它是否會導致智識上的懶惰?

余明鋒:如果我們沒有把經典文本裝在心里其實是沒有辦法對它做深入分析的,因為經典文本需要玩味,需要化入自己的生命。我們這一代的學者已經非常習慣于用PDF的搜索功能去查關鍵術語出現的概率和語境,這種處理方式會讓我們的思考偏于機械化。在這個意義上,無疑有一種退化。

隨著更強大工具的興起,深入閱讀后歸納總結、撰寫文獻綜述的能力也會發(fā)生普遍的退化,這不是一個太聳人聽聞的觀點。還有一件很重要的事情是注意力。對于一個思想者來說,注意力極為重要,它不但是有效學習、深入思考的前提,而且是個人幸福感的重要要素。

目前大家更憂慮的是學生以后還會不會獨立寫論文了,教育者又要如何判定學生的論文。我試著反過來看這個問題,論文寫作這件事在今天是不是被過于強調了?學生的能力通過論文來評判,學者的生產力由論文數量和被引率來評判,這件事本身值得反思。論文寫作對學術初學者來說固然是一種重要的訓練,但更基本的訓練恐怕是非?;A的人文教育,比如深入經典文本的能力、傾聽和對話的能力、歷史感和社會關懷等等

ChatGPT對論文的挑戰(zhàn),也許會促使我們調整既有的教育模式真正有效的哲學教育很大程度上體現在學生是否被“打開”,他們的問答是否具有反思性和邏輯性,他們是否被啟發(fā)著去質疑和反思,去進行有邏輯性和有創(chuàng)造性地論辯,他們在論辯時是著力于為自己辯護還是著力于事情本身的澄清,等等。

所以在我的教學范圍內,我不是特別擔心這件事,雖然危險的確存在,但它也可以是一個我們解決既有問題的契機。包括哲學在內的人文教育,真正的意義不是培養(yǎng)學者,而是培育真正意義上的人,甚至大寫的人。可我們仿佛本末倒置了,這是尼采在100多年前就痛心疾首的事情人文教育關系到青年靈魂的成長、生命的塑造、對偉大傳統的理解和對世界的開放態(tài)度。ChatGPT的回答追求正確,可真正的人文教育關注的恰恰不是給出全然正確的答案,而是基于深切的關懷和深厚的學養(yǎng)去追問,由此打開新的反思空間、新的生命空間。在這個意義上,哲學思考有行動的性質,這些都是無法被機器取代的。

03 人工智能的政治正確可能會加劇價值觀沖突

界面文化:當人工智能已經在一定程度上可以做到近似人類的思考,人類要如何保持自己的身份認同呢?和人工智能的“思維方式相比,人類的思維方式還保有哪些獨到之處?

余明鋒:哪怕一個小孩給出了錯誤的答案,TA回答過程所關聯到的要素都比信息處理來得豐富。TA有想象,有直覺,還有一些莫名其妙但真實感受到的東西。我在寫完《還原與無限》后準備撰寫的第二本書叫《感知論》,感知這件事其實非常要緊,而人類過去包括哲學在內更強調理知。理知當中有很大一部分是可以被機器替代掉的,而感知這種能力其實對文學藝術創(chuàng)作、哲學思考來說極為重要。它不是簡單的信息處理,很多時候是跳躍性的、從無到有的,甚至莫名其妙地生發(fā)出來的。

ChatGPT的一個問題在于,它使用的是過往的語料庫,你如果現在問它2022年的事情,它是不知道的。這還在其次,畢竟它可以更新。更重要的是,它是在處理海量數據中生成的回答。這意味著,它的回答基于出現頻率最高的、在大多數人當中流行的說法??烧胬?/span>往往掌握在少數人手上,人類自古以來如此。真正有創(chuàng)造性的思想,在當時常常是不被接受的。內容生成型人工智能的核心原理是貝葉斯公式,數學家貝葉斯(Thomas Bayes, 1702-1761)在世時沒有得到承認,貝葉斯公式是在后世不斷的運用中贏得了聲譽。

在這個層面上,我覺得ChatGPT是一個巨大的危險:數據處理可能會加固人類既有的流行觀念,而嚴肅的思考恰恰需要質疑這些東西。另一方面,人類反饋訓練的環(huán)節(jié)事實上是培養(yǎng)了人工智能的政治正確,目前ChatGPT的處理方法是擱置關于道德、宗教或政治方面的很多話題,然后在其他一些問題中把違背人類直覺或道德底線的一些東西排除掉。我們可以設想,尼采的文本可能通不過它的檢驗。尼采后期自稱是非道德主義者,有很多激進的言論,這些言論對人類的道德反思做出了重要的貢獻。比如說他認為許多看上去善良溫和的道德其實是出于我們的怨恨,背后可能是人類的權力欲望,這是一個高度批判性但是值得我們深思的視角。ChatGPT這樣的信息處理當中,這樣的答案大概率會被過濾掉。于是它將形成一個新的人類知識庫,加固正確的意見。

界面文化:也就是說,ChatGPT的一個潛在威脅,是可能無法容忍超出現有道德倫理框架的一些觀點。

余明鋒:對,而且現有的人類道德倫理框架還有國族和文化差異,這就很麻煩。比如關于女性的觀點,美國人和阿拉伯世界的人差異巨大。目前ChatGPT簡單又聰明的處理辦法就是擱置這些話題,但如果真的要與ChatGPT深入聊天,很多問答會不會隱含這些價值判斷?那么當ChatGPT被訓練為給出標準的、政治正確的回答,這一機制就會成為人類自我理解的一面鏡子。如果持有不同價值觀的政治共同體訓練不同的聊天機器,是否會導致人與人的隔閡越來越深?這都是問題。

04 是機器主體性在提升,還是我們的主體性在沒落?

界面文化:ChatGPT的出現加劇了另一種恐懼——人類的工作崗位是不是會進一步加快流失?也有一種對技術進步更樂觀的觀點認為,我們應該爭取一個人工智能+人類(而非人工智能取代人類)的未來,在人機密切合作的時代里,人工智能成為人類的個人助理。你對此怎么看?

余明鋒:我覺得兩方面的觀點都有道理。首先談就業(yè)焦慮的問題。其實現在最焦慮的不是普通的打工人,而是互聯網巨頭,因為這一次人工智能突破涉及到的會是新一輪的互聯網基建。各大搜索引擎和APP如果要植入ChatGPT,都需要重新改造。通用人工智能的巨大應用前景是讓谷歌、臉書這樣的互聯網巨頭非常緊張,這個轉變的關口如果沒有跟上,就沒有辦法與微軟競爭了。

攝影:范劍磊

回到普通人來說,如果說工業(yè)革命替代的是低端的體力勞動,那么人工智能革命替代的會是低端的腦力勞動。前兩年大家討論大衛(wèi)·格雷伯的《毫無意義的工作》,我想很多人意識到了生活中很多的工作就是狗屁工作,寫發(fā)言稿、填表格、做方案等等都是低端的腦力勞動??傮w來說,這些低端的腦力勞動未來會在相當程度上被替代。但就像工業(yè)革命會產生新型的低端體力勞動一樣(比如農民可能去開收割機,或在流水線上按螺絲),人工智能也可能會產生一些新的崗位,比如訓練人工智能的標記員,可這甚至已經不能算是腦力勞動了。總之,就業(yè)會發(fā)生大規(guī)模的縮減和轉移,這兩者會同時發(fā)生。

《毫無意義的工作》
[美]大衛(wèi)·格雷伯 著 呂宇珺 譯
中信出版集團 2022-7

第二個相關的看法是,我們需要反思今天的中國教育。如果我們目前培養(yǎng)的就是低端腦力勞動者,那么未來是很容易被替代的。今天的大學教育非常成問題的一點是普遍的績點制,大學變成了高中的延續(xù),老師在忙寫論文,學生在忙考試爭取高績點,這使得自由討論、質疑、批評的氛圍,甚至一些值得鼓勵的偏離軌道的嘗試大大減少。改變教育體制不容易,因為教育在我們的社會也是一個公平機制。依照考試成績和論文數量來評判的機制無論如何僵化,都成了社會公平的底線。這是我們的教育“不能承受之重”,是其社會功能所在也是癥結所在。任何一種變化,如何能夠同時維系社會公平?

也許,一個辦法是做出區(qū)分,在基礎教育階段強調公平,但在高等教育階段,既然已經擇優(yōu)培養(yǎng),那就要卸下這個社會職能的重擔,讓該精英的部分精英起來。我個人在這方面不是特別樂觀,但它值得我們進行廣泛的公共討論。不然我們將不止在ChatGPT這一步落后,還可能落后于整個人工智能的未來發(fā)展方向。我們雖然無法要求所有人都有創(chuàng)造力,但至少能培養(yǎng)出具有靈活性、不是成天從事那些狗屁工作的人, 君子不器是我們該有的人格理想。

界面文化:格雷伯對狗屁工作有很多不同的分類,狗屁工作當然和剛剛提到的低端的腦力勞動有很大的重合度,但其實很多工作的存在(比如“隨從類工作)是為了滿足職場上位者的需求,無論是虛榮心還是權力欲望。這一類工作雖然毫無意義,但它是根據人性需求創(chuàng)造出來的。人性很難改變,那技術也不大可能改變這樣一種職場權力結構。

余明鋒:這里涉及到一個問題,就是人工智能的主體性認定。我們之所以要一個人做隨從,是因為TA是人,如果后面跟著人工智能好像沒什么值得驕傲的,就沒有刷存在感的空間了,是吧?現在有人提出一個問題,我們是不是應該拓展主體性的概念,當機器能夠與我們互動時,我們是否應該承認它的主體性?

我個人比較傾向于前面說的,要人性思維數據計算之間做出本質區(qū)分,人工智能畢竟是一種魔術。雖然這種魔術愈發(fā)逼真,就像電影《她》(Her)展示的,人工智能在未來可能會滿足很多人的情感需要,比如說晚上睡不著,把你的伴侶吵醒是件很糟糕的事情,而聊天機器可以給你講個故事。可主體性的確認恰恰需要差異性的張力,如果我們的情感需要都寄托在方便的TA上面,那恐怕不是機器的主體性的提升,而是我們自己的主體性的沒落。

不止居上位者有權力欲,普通人的權力欲未來可能是需要通過機器去滿足的,就像人們會養(yǎng)寵物一樣,未來可能會養(yǎng)自己的聊天機器,你可以養(yǎng)出一個文質彬彬或心直口快的聊天機器,而這都關系到主體性的維系和沒落。

此外,我想說一個哲學上非常值得注意的問題,就是人類的自我理解。它不止事關個體,也涉及到人的社會性,涉及到人把什么作為他者。隨著人性化的人工智能進入我們的生活,它對人類心理的這種微妙影響力其實值得關注?,F在的青少年已經出現了這個狀況,就是人性的交流大大不足。很多青少年在需要交流的時候被打發(fā)去玩iPad、打游戲或者聽故事,過度的人機交流其實會對人的內心產生負面影響。而當ChatGPT顯得更加人性化的時候,也更容易替代人進入親子交流的領域,這對孩子的影響會是怎樣的?ChatGPT畢竟和父母的角色是不同的,它甚至和真正的寵物也不同。寵物不止聽話,它不是一個絕對順從的對象,它還會帶來麻煩,它也會有情緒。機器的陪伴在帶來便利的同時是否會阻礙健全主體性的養(yǎng)成?

還有老年人的照護問題,機器人會如何處理?這里有很多倫理取向的難題把人工反饋加入ChatGPT后是有倫理取向的設置的,那么人類價值觀會不會趨于單一化?人類的社會性思考會不會趨于簡化?人工智能會不會培養(yǎng)出看上去很樂觀、事實上內心冰涼的人?也許未來會有這樣的問題,值得我們思考。

05  未來最大的不平等存在于被喂養(yǎng)信息的人站在后臺的人之間

界面文化:你在《還原與無限》中提出,“資本-技術-政治三位一體的存在為19世紀后的現代世界的全面展開提供了動力,技術深深嵌入資本和政治的系統之中。如果你在撰寫這本書的時候ChatGPT就已經出現了,你會如何討論它呢?

余明鋒:ChatGPT可以說是還原論的又一次重大進步,涉及的是日常語言如何被還原為機器語言的問題。 

我們剛才談的所有問題,某種意義上都是另一只靴子的組成部分。ChatGPT不止是一個工具,科技和資本、政治系統是有關聯的?,F在國內外的討論主要和經濟有關,因為ChatGPT是投資的熱土,這就是技術和資本的密切關聯。資本在過去幾年其實缺少投資熱點,現在終于有了一個新的風口。另一方面,ChatGPT的誕生本身就和資本的力量分不開,微軟注入了大量資本,以海量數據為基礎進行訓練,它帶來的效益也首先表現在經濟方面。

與此同時,它也會重塑我們的生活方式,這是我作為一個哲學研究者非常關注這個問題的原因。這是我們時代真實發(fā)生的事件,它不是一個局部的問題,而是影響到我們的社會組織、生活方式的整體性問題。資本-科學-技術系統當然和政治有關系,比如美國總統大選期間,媒體平臺、公共平臺對選舉的影響是很大的,ChatGPT信息機制之后在多大程度上會影響選民?

《還原與無限:技術時代的哲學問題》
余明鋒 著
上海三聯書店 2022-8

未來世界最大的一個分野,恐怕就在于你是站在后臺的人還是站在前臺的人。站在后臺的人是掌握數據處理機制的人,他們即便無法全權掌握海量數據,但可以影響數據的處理機制。現在互聯網巨頭競爭的其實是是否能率先搭建平臺、成為后臺,用戶就會成為站在前臺的人,這件事就和政治太有關系了。

界面文化:我們對ChatGPT的擔憂之一是它會加劇不平等:如果人工智能的發(fā)明是為了讓人類的生活變得更好,那它應該促進自由、平等、透明和財富的分享,但我們擔心ChatGPT和其他類似的應用會進一步幫助資本逐利。1930年,凱恩斯就預測隨著技術發(fā)展人類每周工作時間可能不超過15個小時,但至今他的預言不僅沒有實現,反而我們的加班時間越來越長。也就是說,技術進步的果實其實沒有被普通的勞動者享受到。

余明鋒:這是我在《還原與無限》中著重分析的問題,為什么會這樣?技術不是簡單地讓我們有了更便利的生活,而是把我們從原來的生活方式中“解放出來,置入一個無限增長的系統。技術系統之所以會有中立的假象,就因為它唯一的目的在于增長本身。資本因為有時間價值,所以有強制增長的內在要求,有時間價值意味著明天一定要比今天多,要不然就虧了被置入資本-科學-技術的系統之后,看上去大家的生活改善了,但其實我們原先的生活是沒有那么多增長需要的,增長也不是生命的唯一追求,甚至也不是主要追求。在古代世界,就價值觀而言,人追求的是德性的上升,比如中世紀基督教追求的主要是靈魂的純化,這些東西在今天的我們聽起來像天方夜譚一樣。今天最主要的追求就是增長,整個社會都有增長強制,這是你剛才所說的現象的原因。

再回到不平等的問題。我在《還原與無限》中有一個基本判斷,我們認同現代社會的一個基本原因是認同自由與平等,但在今天這兩項現代性的承諾都落空了。剛才我們談到信息繭房和數據后臺,當我們的每一步行動都變成數據,當算法深入到我們全部的生活細節(jié),我們的個人偏好成為商業(yè)開發(fā)對象的時候,自由的承諾難道不是落空了嗎?平等的承諾也是如此。未來的不平等可能更多表現在你是被喂養(yǎng)信息的人,還是你是站在后臺的人,這種不平等恐怕是一個絕對的不平等,不只是財富上的,而且是人格上的。未來的不平等還體現在,勞動在現代世界被認為是個人實現自我成長的途徑,但今天的勞動變成了單純的績效追求和自我施加的暴力。我們每天的工作除了增長和謀生意義之外,沒有了真正的自我實現的含義,這在未來恐怕也會加劇。

界面文化:人工智能會改變我們的價值觀和政治經濟制度嗎?

余明鋒:現代性的后果已經越來越明顯,人類正在經歷一次價值觀的大沖撞,這種沖撞在我們的社會中也感受得很明顯,好像共識不再存在。如果人類未來要形成具有共識性的價值觀,恐怕將會基于對現代性后果的消化。這里面既有思想者的工作,也有社會本身的演化。

技術的發(fā)展使得社會處于巨大的動蕩之中,幾年就有一個新的技術概念被跑出來,雖然它可能離實現還很遠(比如元宇宙),但巨大的投資進入后,技術發(fā)展是一個加速的過程。當我們意識到技術永遠有另外一只靴子的時候,意味著社會在經歷技術發(fā)展的同時也會一次次地重組,那么它對社會、政治、價值觀的影響會是巨大的。

我們仍然處于這個變化之中,恐怕我們這一代人甚至幾代人(如果人類還沒有毀滅)還得去忍受這種價值觀上的不安。這是變動中的社會必定會有的后果和挑戰(zhàn),我們正在經歷一個不可思議的時代,一個注定不安的時代。在這個意義上,人工智能和其他技術的發(fā)展一樣,都是人類反思自身的契機。我們需要以積極的姿態(tài)去充分介入另一只靴子的落下,它和每一個人切身相關。

未經正式授權嚴禁轉載本文,侵權必究。