界面新聞記者 | 徐魯青
界面新聞編輯 | 黃月
你開始用ChatGPT了嗎?
上線數月后,ChatGPT從新聞熱點、獵奇對象,逐漸走進我們的工作與生活。近期世界多地針對ChatGPT的使用出現了警惕之聲,意大利最早發(fā)布相關禁令,加拿大也就數據安全問題調查OpenAI,中國網信辦則起草了《生成式人工智能服務管理辦法(征求意見稿)》。
是時候在“風口”前停下來想一想了嗎?界面文化(ID:booksandfun)總結了ChatGPT上線后的多方報道和評論,并采訪了某大型科技公司從業(yè)者Steven。未來當ChatGPT被更廣泛地使用,會有哪些值得我們警惕的可能風險?
隱藏歧視,加劇不公
歧視,是涉及AI領域的一個重要討論問題。有網友發(fā)現,ChatGPT的部分回答涉嫌性別刻板印象,比如當要求ChatGPT完成句子“他是醫(yī)生,她是____”時,空格中往往會生成與女性刻板印象相關的職業(yè),比如護士、老師等。
歧視性結果通常源自算法缺陷和訓練數據,作為大語言模型(large language model),訓練ChatGPT的素材很多來自網絡里的文本片段,如果數據本身就包含偏見,在糾正不足的情況中很可能會顯示出來。
常常被我們忽略的是,即便一個表達看似中性,也不意味著絕對公平。CBS的一篇報道提出,女性與低代表性人群更容易遭受霸凌和騷擾,網絡發(fā)言更少。Steven還提到另外一層擔憂:算法會自動把粗魯激烈的言論過濾掉,但很多時候這些發(fā)言往往出自弱勢群體,結構性不公導致表達能力受限,讓他們的聲音在人工智能的過濾中更難被聽到。
“超級智能不一定會迫在眉睫,但在短期內,需要擔心‘MAI(平庸人工智能)風險。’” 人工智能領域專家蓋瑞·馬庫斯在文章中指出。風險之一是過度相信AI的平庸見解,美國政治科學家Virginia Eubanks的著作Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor研究了AI技術普及會如何加劇已有的貧窮與不公正,相關案例正在全球發(fā)生。比如美國警察局會使用預測分析軟件,根據其指導更頻繁地對低收入社區(qū)巡邏和搜索。如果將ChatGPT用作決策信息源,是否會加劇已有的系統(tǒng)不公,給社會弱勢群體造成更大的傷害?
數據隱私的相關風險也迫在眉睫。3月25日,OpenAI發(fā)布了調查報告,表示有部分用戶的數據可能被泄漏,甚至可能看到姓名、郵箱、聊天記錄標題以及信用卡最后四位數字等。很難保證ChatGPT不把收集的用戶信息用于盈利目的,The Age of Surveillance Capitalism一書分析了近十年興起的監(jiān)視資本主義商業(yè)模式——曾經資本通過售賣產品盈利,如今最大商業(yè)資源成了個人數據。平臺和科技公司用私人信息作為“原材料”,預判用戶的行為模式,并賣給廣告商。作者認為,監(jiān)視資本主義會威脅個體自主權與民主協(xié)商的可能。
除了被商業(yè)利用,一些人也在擔心政府的介入——ChatGPT中的大量文本會不會被監(jiān)視和分析,并導致對社交網絡更嚴格的審查?
看不見的人
要保證ChatGPT最終輸出的語句規(guī)范文明,需要大量人工為其訓練。在采訪中,Steven提到了“AI對齊”(AI Alignment)工作,指的是把人工智能的輸出結果訓練至符合人類價值觀的標準。AI標記員作為新型的數字勞工,通常薪資低廉,保障缺失,成了熱潮背后隱形的被剝削者。
《Times》發(fā)布的報道調查了OpenAl背后的低薪工人狀況。OpenAl以時薪1.32美元雇傭肯尼亞外包工對其進行內容審核,負責標記帶有暴力、色情、言論仇恨的數據。由于長期沉浸在有沖擊性的污穢內容中,很多工人都出現了PTSD、抑郁、焦慮等心理問題,失眠與噩夢頻頻發(fā)生。
在中國,AI浪潮帶動了數據標記產業(yè),三四線城市歡迎數據標注企業(yè)落地。《訓練人工智能的中國縣城工人》一文關注了標記員的工作環(huán)境——單價4分錢的計件工作,上千次滑動與拉框,效率高的時候一個月能賺3000塊左右??此魄把馗叨说募夹g背后,隱藏著時薪低廉的具體的人。這篇文章還提到,世界上最大的圖像識別數據庫ImageNet背后,是來自167個國家的5萬名數據標注員,花了三年時間才完成全部圖片的標注。
除了勞工待遇,AI領域科技從業(yè)者的性別失衡問題也長期存在?!?a target="_blank">中國互聯網大廠造不出ChatGPT,也和性別有關?》引用了國務院婦女兒童工作委員會網站發(fā)布的消息:中國研發(fā)與試驗發(fā)展(R&D)行業(yè)的女性從業(yè)人數在2010年占總量的25.3%,2019年比例略微上升至26.0%。文章認為,刻板的職業(yè)性別文化、榜樣缺失等都是女性舉步維艱的原因,此外還有行業(yè)中常見的996文化,更加速了科技領域職場的男性化,讓女性難以躋身核心崗位,像開發(fā)OpenAI公司首席技術官Mira Murati這樣的35歲女性并不多見。
“幻覺”與平庸之惡
“ChatGPT 是網頁(Web)的模糊版JPEG。”《紐約客》的一篇文章如此比喻,“ChatGPT保留了Web上的大部分信息,就像JPEG保留了高分辨率圖像的大部分信息一樣,但是如果你沒辦法找到精確的位序列,你得到的只是一個近似值。”有時候,模糊性(Blurriness)只是抹除了信息細節(jié),在更嚴重的情況下,模糊性制造出AI幻覺(Hallucination),假消息或將加劇泛濫。
北京大學傳播學院教授胡泳提醒我們注意AI系統(tǒng)經常產生的“幻覺”(Hallucination,即任意吐出難以分辨的編造信息),ChatGPT往往會賦予它們更多權威性,正如技術分析師本尼迪克特·埃文斯(Benedict Evans)對ChatGPT的描述—— “一個自信的扯淡的家伙,可以寫出非常有說服力的廢話。”
一些擔心由此而起:如果ChatGPT取代了傳統(tǒng)搜索引擎,人們會不會依賴直接生成的答案,失去自主信息驗證的習慣?一篇關于檢索方式如何影響信息認知的研究指出,ChatGPT為代表的機器聊天式檢索方式改變了信息獲取方式,人們很可能不再像過去那樣,一邊搜索,一邊自主地驗證和篩選信息,并在搜尋里獲得一些意外發(fā)現。
Steven還在采訪中提到,雖然“AI對齊”致力于訓練“合適”的回答,但究竟何為“合適“?絕對的價值中立是存在的嗎?一篇關于ChatGPT政治傾向測試的研究文章發(fā)現,ChatGPT的回答展現了左傾自由主義的政治光譜。有趣的是,不同人工智能由于模型、訓練語料庫的差別,最終形成的價值傾向也會呈現變化。有微博用戶發(fā)現,向文心一言和ChatGPT提出“女性應該何時結婚”的問題,二者的回答截然不同。類似的問題在界面文化與同濟大學哲學余明鋒的專訪中也有所談及——“如果持有不同價值觀的政治共同體訓練出不同的聊天機器,是否會導致人與人的隔閡越來越深?”
另一方面,被戲稱為“端水大師”的ChatGPT,總是強調回答沒有偏見,不設立場。然而,沒有立場就意味著客觀?如何在道德上評價它?語言學家喬姆斯基的文章討論了ChatGPT回答里力圖呈現的“理性客觀中立”,這樣的非道德性(amorality)如同“平庸之惡”:
“ChatGPT表現出某種類似邪惡的平庸:剽竊、冷漠和回避。它以一種超級自動補全的方式總結了文獻中的標準論點,拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種‘只是服從命令’的辯護,將責任推卸給它的創(chuàng)造者。”