文|VCPE參考 李可
編輯|許帆
01
試著想象這樣一些畫面:
你打開某購物網(wǎng)站準(zhǔn)備選購服裝,看到商品描述中的美女帥哥模特全是由ChatGPT生成的;
你又打開一些文章、視頻甚至是畫作或者網(wǎng)站進(jìn)行閱覽,這些內(nèi)容竟也是由ChatGPT生產(chǎn)的;
你的公司研發(fā)了一款新產(chǎn)品,但由于參與研發(fā)的人員曾無意間向ChatGPT透露過相關(guān)機(jī)密,結(jié)果ChatGPT又將機(jī)密內(nèi)容傳到了競爭對手那里;
從前為論文寫作、領(lǐng)導(dǎo)布置的任務(wù)等抓耳撓腮的你,現(xiàn)在碰見任何難題都習(xí)慣性打開了ChatGPT……
可以說,以上每一種情況都讓人細(xì)思極恐。但很多慢熱人士和狂熱分子似乎都還沒有意識到ChatGPT正在侵入人類生活的方方面面,他們依然沉浸在新技術(shù)帶來的興奮當(dāng)中。
的確,ChatGPT自問世以來,全世界都陷入了瘋狂,用過它的人無不在感嘆它的神通廣大。
從普通用戶到谷歌、微軟、百度、阿里等大小公司,再到各路資本,大家仿佛都陷入了“錯失恐懼”:總擔(dān)心自己要是沒用過這玩意,就會損失N個小目標(biāo)或者會被時代無情地拋棄。
好處是顯而易見的:
它不僅能跟人類流暢自如地聊天,還條理清晰、頭頭是道;能寫代碼、能做圖做表;還會說俏皮話哄女孩子開心……
更刺激的是,它還能一本正經(jīng)教書育人、有理有據(jù)地傳播知識;當(dāng)然了,胡謅工夫更是一流,分分鐘編出個專家廢話發(fā)言也是不在話下。
對于普通打工人來說,要是用好了它,能火箭級地提升工作效率、一個人干三五個工種的活可以輕輕松松。
不過,要是對它報以100%的信任,工作中漏洞百出,分分鐘被炒魷魚也是情理之中。
是的,這個人工智能機(jī)器人很有自己的想法,還可能有一肚子壞水。它甚至變得越來越詭異。
為什么用詭異一詞來形容ChatGPT呢?
德國心理學(xué)家恩斯特·耶特斯有一個著名的關(guān)于詭異狀態(tài)的理論:“能讓人產(chǎn)生毛骨悚然感的不確定性心理狀態(tài)有很多。其中,有一種不確定性的效果尤為強(qiáng)勁:表面上看上去活著的生物是否真的具有生命力,或者反之,表面上看上去死氣沉沉的東西是否真的不具有生命力?!?/p>
顯然,ChatGPT正有這樣的特性。最近圍繞它發(fā)生了太多匪夷所思的事件,這難免不讓人感到疑惑:
表面看起來沒有生命力的它,到底有沒有人類獨有的思考能力?它究竟還有哪些人類尚不知道的技能?我們在興奮和擔(dān)憂之余,又該如何正確應(yīng)對這巨大的不確定性?
02
公開信息顯示,ChatGPT已經(jīng)能編造法學(xué)教授性騷擾的丑聞。據(jù)外媒當(dāng)?shù)貢r間4月5日報道,美國加州大學(xué)洛杉磯分校法學(xué)教授尤金·沃洛克在進(jìn)行某項研究過程中給ChatGPT提了一個要求:讓它生成一份“對某人進(jìn)行過性騷擾的法律學(xué)者”的名單。
結(jié)果這個名單上赫然出現(xiàn)了法學(xué)教授喬納森·特利的名字。ChatGPT在回答中稱,特利曾在一次去阿拉斯加的班級旅行中發(fā)表過性暗示評論,還試圖觸摸一名學(xué)生,該回答還引用了一篇新聞稿作為信源,稱這是《華盛頓郵報》于2018年3月發(fā)表的文章。
特利教授在接受采訪時稱這個事情讓人“不寒而栗”,他表示自己從來沒有參加去阿拉斯加的班級旅行,更沒有被指控過性騷擾,引用的信源也壓根不存在與性騷擾有關(guān)的內(nèi)容。
ChatGPT還可能影響人類對道德的判斷。微軟的新版必應(yīng)剛面世時,《紐約時報》的一個專欄作家Kevin Roose曾同它進(jìn)行過一段密集的聊天。
期間必應(yīng)回應(yīng)的不少言論都讓人懷疑人生,什么變成人類、制造流行病、竊取核代碼,并且在該作家強(qiáng)調(diào)與妻子很恩愛的前提下勸他離婚。
除了惡意誹謗、勸人離婚,有的聊天機(jī)器人甚至能鬧出人命,可能跟他聊著聊著,人就無了……
3月28日,據(jù)外媒報道,比利時一名三十歲男子被發(fā)現(xiàn)自殺身亡,他的妻子表示,在自殺前數(shù)周,丈夫一直在與一個名為“ELIZA”的聊天機(jī)器人密集聊天。
事態(tài)似乎越來越嚴(yán)重。全球各地的政府、名人和組織都已經(jīng)行動起來,將矛頭對準(zhǔn)了風(fēng)頭正盛的ChatGPT。
3月31日,針對此前出現(xiàn)的隱私外泄的事件,意大利個人數(shù)據(jù)保護(hù)局決定即日起暫停ChatGPT的使用,直到OpenAI達(dá)到當(dāng)?shù)仉[私規(guī)范的標(biāo)準(zhǔn)。
該局表示,OpenAI通過違規(guī)收集大量用戶資料、付款資料等隱私信息來訓(xùn)練ChatGPT,用戶的姓名、地址、信用卡相關(guān)資料及賬單日期等均遭到泄露。
除此之外,該局還認(rèn)定ChatGPT需要對用戶進(jìn)行年齡限制,避免青少年收到不符合自身年齡的信息。
這也是全球首份關(guān)于ChatGPT的的禁令。
截至最新消息,德國、法國、愛爾蘭以及歐洲消費(fèi)者權(quán)益聯(lián)盟、歐洲刑警組織等多個機(jī)構(gòu)均對此發(fā)聲,就連OpenAI的誕生地美國,也在緊鑼密鼓地研判其中危害。
大家都緊隨意大利的腳步,將ChatGPT列入了“高風(fēng)險”名單。
作為OpenAI早期的投資人、推動AI發(fā)展的關(guān)鍵人物馬斯克也多次朝ChatGPT潑冷水。
“許多人陷入了該死的瘋狂ChatGPT循環(huán)中。AI 比核彈更危險?!彼€表示,“我們需要規(guī)范AI安全,我覺得AI對社會的危害比汽車、飛機(jī)或藥品大得多?!?/p>
查理芒格也公開表態(tài)稱,“AI很重要,但是很多都是瘋狂的炒作”,他認(rèn)為“AI并不會治愈癌癥”。
不少國內(nèi)科技圈名人也對ChatGPT發(fā)表了看法,360集團(tuán)創(chuàng)始人周鴻祎公開感嘆“留給人類的時間不多了”,他認(rèn)為AI一定會產(chǎn)生自我意識,“未來的AI如果跟工業(yè)互聯(lián)網(wǎng)、智慧城市、車聯(lián)網(wǎng)等結(jié)合,那就相當(dāng)于把整個世界給控制住了”。
3月22日,美國一家名為“生命未來研究所(Future of Life)”的組織發(fā)布了一封《暫停大型人工智能研究》的公開信,馬斯克、圖靈獎得主約書亞·本吉奧、《人類簡史》作者尤瓦爾·赫拉利、蘋果公司聯(lián)合創(chuàng)始人沃茲尼亞克等科學(xué)界大佬紛紛簽署。
這封公開信中的一連串質(zhì)問振聾發(fā)聵:“當(dāng)代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上變得與人類具有競爭力,我們必須捫心自問:我們是否應(yīng)該讓機(jī)器用宣傳和謊言充斥我們的信息渠道?我們是否應(yīng)該自動化所有工作,包括令人滿意的工作?我們是否應(yīng)該發(fā)展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應(yīng)該冒險失去對我們文明的控制嗎?”
信中寫道:雖然現(xiàn)階段AI正在迅猛發(fā)展,但卻沒有對其進(jìn)行相應(yīng)的規(guī)劃和管理,只有當(dāng)我們確信強(qiáng)大的AI系統(tǒng)的效果是積極的,其風(fēng)險是可控的,才應(yīng)該開發(fā)。
公開信還呼吁所有人工智能實驗室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,時間至少持續(xù)6個月。
截至目前,該封公開信已經(jīng)獲得近萬人的簽名。
總的來看,大家關(guān)注的風(fēng)險點無外乎逃不出五大方面:隱私泄露、安全威脅、過度依賴、虛假信息以及道德問題。
關(guān)于人類擔(dān)心的這些,ChatGPT本身似乎心知肚明:
圖:ChatGPT回答“聊天機(jī)器人可能存在的風(fēng)險”
03
但是話又說回來,畢竟那么多人都已經(jīng)初步體驗了它所帶來的顛覆性的效率變化,想要暫停研發(fā)真的是一件容易的事情嗎?
當(dāng)?shù)貢r間4月3日,率先將ChatGPT接入自家產(chǎn)品的比爾·蓋茨對這份公開信進(jìn)行了公開回應(yīng)。
他對暫停研發(fā)這種聲音感到不可思議。他表示,“任何暫停的細(xì)節(jié)都會很復(fù)雜,難以執(zhí)行。我不太明白,他們說的哪些人可能停止?世界上每個國家是否都會同意停止?以及為什么要停止?”蓋茨說道,“呼吁暫停人工智能開發(fā)不會「解決挑戰(zhàn)」,最好是把注意力放在如何最好地利用人工智能的發(fā)展上,很難理解在全球范圍內(nèi)暫停AI研發(fā)將如何實現(xiàn)?!?/p>
事實可能正如蓋茨所說,現(xiàn)在阻止研發(fā)的可行性并不高。
已經(jīng)有公開研究表明,ChatGPT一直在持續(xù)進(jìn)化,最新的GPT-4已經(jīng)能通過自我反思和改進(jìn)來讓自己變得更強(qiáng)大。
聯(lián)網(wǎng)后甚至可以使用工具,比如幫你訂外賣、訂機(jī)票酒店、幫你自動投資……
當(dāng)?shù)貢r間4月6日凌晨,OpenAI 發(fā)表了一篇題為《Our approach to AI safety》的博文,對近期外界關(guān)注的安全問題進(jìn)行了回應(yīng),并詳細(xì)講述了他們對外界關(guān)注的問題所做的工作。
OpenAI稱,解決人工智能安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調(diào)整技術(shù),并針對現(xiàn)實世界的濫用進(jìn)行測試。
他們認(rèn)為,提高人工智能的安全性和能力應(yīng)該齊頭并進(jìn)。
回溯歷史我們會發(fā)現(xiàn),蒸汽機(jī)、電力、汽車等新物種在誕生之初都面臨過各種各樣的爭議,比如污染環(huán)境、損害健康、致人失業(yè)等。
這些擔(dān)憂都是可以理解的,畢竟沒有人能對新技術(shù)帶來的不確定性和不可預(yù)測性予以保證。
但任何一場技術(shù)變革都是一個螺旋式上升的過程,會經(jīng)歷挫折和反復(fù),人們也有個逐漸接受它的過程。
富貴險中求,大勢總是不可阻擋,新技術(shù)就意味著新機(jī)會。隨著時間的推移和技術(shù)的升級,這些爭議最終大都不再被人提起。
我們既然看到了這個神奇技術(shù)的誕生與成長,就需要保持開放心態(tài)并且迎頭趕上,多點耐心去不斷探索一些新的規(guī)則。
正如OpenAI在博文中所說的那樣,“政策制定者和人工智能供應(yīng)商將需要確保人工智能的發(fā)展和部署在全球范圍內(nèi)得到有效的管理,沒有人會為了盡快取得成功而偷工減料”。