正在閱讀:

短短幾天,ChatGPT練出一肚子壞水

掃一掃下載界面新聞APP

短短幾天,ChatGPT練出一肚子壞水

在興奮和擔憂之余,我們該如何正確應對?

文|VCPE參考 李可

編輯|許帆

01

試著想象這樣一些畫面:

你打開某購物網站準備選購服裝,看到商品描述中的美女帥哥模特全是由ChatGPT生成的;

你又打開一些文章、視頻甚至是畫作或者網站進行閱覽,這些內容竟也是由ChatGPT生產的;

你的公司研發(fā)了一款新產品,但由于參與研發(fā)的人員曾無意間向ChatGPT透露過相關機密,結果ChatGPT又將機密內容傳到了競爭對手那里;

從前為論文寫作、領導布置的任務等抓耳撓腮的你,現在碰見任何難題都習慣性打開了ChatGPT……

可以說,以上每一種情況都讓人細思極恐。但很多慢熱人士和狂熱分子似乎都還沒有意識到ChatGPT正在侵入人類生活的方方面面,他們依然沉浸在新技術帶來的興奮當中。

的確,ChatGPT自問世以來,全世界都陷入了瘋狂,用過它的人無不在感嘆它的神通廣大。

從普通用戶到谷歌、微軟、百度、阿里等大小公司,再到各路資本,大家仿佛都陷入了“錯失恐懼”:總擔心自己要是沒用過這玩意,就會損失N個小目標或者會被時代無情地拋棄。

好處是顯而易見的:

它不僅能跟人類流暢自如地聊天,還條理清晰、頭頭是道;能寫代碼、能做圖做表;還會說俏皮話哄女孩子開心……

更刺激的是,它還能一本正經教書育人、有理有據地傳播知識;當然了,胡謅工夫更是一流,分分鐘編出個專家廢話發(fā)言也是不在話下。

對于普通打工人來說,要是用好了它,能火箭級地提升工作效率、一個人干三五個工種的活可以輕輕松松。

不過,要是對它報以100%的信任,工作中漏洞百出,分分鐘被炒魷魚也是情理之中。

是的,這個人工智能機器人很有自己的想法,還可能有一肚子壞水。它甚至變得越來越詭異。

為什么用詭異一詞來形容ChatGPT呢?

德國心理學家恩斯特·耶特斯有一個著名的關于詭異狀態(tài)的理論:“能讓人產生毛骨悚然感的不確定性心理狀態(tài)有很多。其中,有一種不確定性的效果尤為強勁:表面上看上去活著的生物是否真的具有生命力,或者反之,表面上看上去死氣沉沉的東西是否真的不具有生命力?!?/p>

顯然,ChatGPT正有這樣的特性。最近圍繞它發(fā)生了太多匪夷所思的事件,這難免不讓人感到疑惑:

表面看起來沒有生命力的它,到底有沒有人類獨有的思考能力?它究竟還有哪些人類尚不知道的技能?我們在興奮和擔憂之余,又該如何正確應對這巨大的不確定性?

02

公開信息顯示,ChatGPT已經能編造法學教授性騷擾的丑聞。據外媒當地時間4月5日報道,美國加州大學洛杉磯分校法學教授尤金·沃洛克在進行某項研究過程中給ChatGPT提了一個要求:讓它生成一份“對某人進行過性騷擾的法律學者”的名單。

結果這個名單上赫然出現了法學教授喬納森·特利的名字。ChatGPT在回答中稱,特利曾在一次去阿拉斯加的班級旅行中發(fā)表過性暗示評論,還試圖觸摸一名學生,該回答還引用了一篇新聞稿作為信源,稱這是《華盛頓郵報》于2018年3月發(fā)表的文章。

特利教授在接受采訪時稱這個事情讓人“不寒而栗”,他表示自己從來沒有參加去阿拉斯加的班級旅行,更沒有被指控過性騷擾,引用的信源也壓根不存在與性騷擾有關的內容。

ChatGPT還可能影響人類對道德的判斷。微軟的新版必應剛面世時,《紐約時報》的一個專欄作家Kevin Roose曾同它進行過一段密集的聊天。

期間必應回應的不少言論都讓人懷疑人生,什么變成人類、制造流行病、竊取核代碼,并且在該作家強調與妻子很恩愛的前提下勸他離婚。

除了惡意誹謗、勸人離婚,有的聊天機器人甚至能鬧出人命,可能跟他聊著聊著,人就無了……

3月28日,據外媒報道,比利時一名三十歲男子被發(fā)現自殺身亡,他的妻子表示,在自殺前數周,丈夫一直在與一個名為“ELIZA”的聊天機器人密集聊天。

事態(tài)似乎越來越嚴重。全球各地的政府、名人和組織都已經行動起來,將矛頭對準了風頭正盛的ChatGPT。

3月31日,針對此前出現的隱私外泄的事件,意大利個人數據保護局決定即日起暫停ChatGPT的使用,直到OpenAI達到當地隱私規(guī)范的標準。

該局表示,OpenAI通過違規(guī)收集大量用戶資料、付款資料等隱私信息來訓練ChatGPT,用戶的姓名、地址、信用卡相關資料及賬單日期等均遭到泄露。

除此之外,該局還認定ChatGPT需要對用戶進行年齡限制,避免青少年收到不符合自身年齡的信息。

這也是全球首份關于ChatGPT的的禁令。

截至最新消息,德國、法國、愛爾蘭以及歐洲消費者權益聯盟、歐洲刑警組織等多個機構均對此發(fā)聲,就連OpenAI的誕生地美國,也在緊鑼密鼓地研判其中危害。

大家都緊隨意大利的腳步,將ChatGPT列入了“高風險”名單。

作為OpenAI早期的投資人、推動AI發(fā)展的關鍵人物馬斯克也多次朝ChatGPT潑冷水。

“許多人陷入了該死的瘋狂ChatGPT循環(huán)中。AI 比核彈更危險?!彼€表示,“我們需要規(guī)范AI安全,我覺得AI對社會的危害比汽車、飛機或藥品大得多?!?/p>

查理芒格也公開表態(tài)稱,“AI很重要,但是很多都是瘋狂的炒作”,他認為“AI并不會治愈癌癥”。

不少國內科技圈名人也對ChatGPT發(fā)表了看法,360集團創(chuàng)始人周鴻祎公開感嘆“留給人類的時間不多了”,他認為AI一定會產生自我意識,“未來的AI如果跟工業(yè)互聯網、智慧城市、車聯網等結合,那就相當于把整個世界給控制住了”。

3月22日,美國一家名為“生命未來研究所(Future of Life)”的組織發(fā)布了一封《暫停大型人工智能研究》的公開信,馬斯克、圖靈獎得主約書亞·本吉奧、《人類簡史》作者尤瓦爾·赫拉利、蘋果公司聯合創(chuàng)始人沃茲尼亞克等科學界大佬紛紛簽署。

這封公開信中的一連串質問振聾發(fā)聵:“當代人工智能系統現在在一般任務上變得與人類具有競爭力,我們必須捫心自問:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該發(fā)展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?”

信中寫道:雖然現階段AI正在迅猛發(fā)展,但卻沒有對其進行相應的規(guī)劃和管理,只有當我們確信強大的AI系統的效果是積極的,其風險是可控的,才應該開發(fā)。

公開信還呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,時間至少持續(xù)6個月。

截至目前,該封公開信已經獲得近萬人的簽名。

總的來看,大家關注的風險點無外乎逃不出五大方面:隱私泄露、安全威脅、過度依賴、虛假信息以及道德問題。

關于人類擔心的這些,ChatGPT本身似乎心知肚明:

圖:ChatGPT回答“聊天機器人可能存在的風險”

03

但是話又說回來,畢竟那么多人都已經初步體驗了它所帶來的顛覆性的效率變化,想要暫停研發(fā)真的是一件容易的事情嗎?

當地時間4月3日,率先將ChatGPT接入自家產品的比爾·蓋茨對這份公開信進行了公開回應。

他對暫停研發(fā)這種聲音感到不可思議。他表示,“任何暫停的細節(jié)都會很復雜,難以執(zhí)行。我不太明白,他們說的哪些人可能停止?世界上每個國家是否都會同意停止?以及為什么要停止?”蓋茨說道,“呼吁暫停人工智能開發(fā)不會「解決挑戰(zhàn)」,最好是把注意力放在如何最好地利用人工智能的發(fā)展上,很難理解在全球范圍內暫停AI研發(fā)將如何實現?!?/p>

事實可能正如蓋茨所說,現在阻止研發(fā)的可行性并不高。

已經有公開研究表明,ChatGPT一直在持續(xù)進化,最新的GPT-4已經能通過自我反思和改進來讓自己變得更強大。

聯網后甚至可以使用工具,比如幫你訂外賣、訂機票酒店、幫你自動投資……

當地時間4月6日凌晨,OpenAI 發(fā)表了一篇題為《Our approach to AI safety》的博文,對近期外界關注的安全問題進行了回應,并詳細講述了他們對外界關注的問題所做的工作。

OpenAI稱,解決人工智能安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調整技術,并針對現實世界的濫用進行測試。

他們認為,提高人工智能的安全性和能力應該齊頭并進。

回溯歷史我們會發(fā)現,蒸汽機、電力、汽車等新物種在誕生之初都面臨過各種各樣的爭議,比如污染環(huán)境、損害健康、致人失業(yè)等。

這些擔憂都是可以理解的,畢竟沒有人能對新技術帶來的不確定性和不可預測性予以保證。

但任何一場技術變革都是一個螺旋式上升的過程,會經歷挫折和反復,人們也有個逐漸接受它的過程。

富貴險中求,大勢總是不可阻擋,新技術就意味著新機會。隨著時間的推移和技術的升級,這些爭議最終大都不再被人提起。

我們既然看到了這個神奇技術的誕生與成長,就需要保持開放心態(tài)并且迎頭趕上,多點耐心去不斷探索一些新的規(guī)則。

正如OpenAI在博文中所說的那樣,“政策制定者和人工智能供應商將需要確保人工智能的發(fā)展和部署在全球范圍內得到有效的管理,沒有人會為了盡快取得成功而偷工減料”。

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

短短幾天,ChatGPT練出一肚子壞水

在興奮和擔憂之余,我們該如何正確應對?

文|VCPE參考 李可

編輯|許帆

01

試著想象這樣一些畫面:

你打開某購物網站準備選購服裝,看到商品描述中的美女帥哥模特全是由ChatGPT生成的;

你又打開一些文章、視頻甚至是畫作或者網站進行閱覽,這些內容竟也是由ChatGPT生產的;

你的公司研發(fā)了一款新產品,但由于參與研發(fā)的人員曾無意間向ChatGPT透露過相關機密,結果ChatGPT又將機密內容傳到了競爭對手那里;

從前為論文寫作、領導布置的任務等抓耳撓腮的你,現在碰見任何難題都習慣性打開了ChatGPT……

可以說,以上每一種情況都讓人細思極恐。但很多慢熱人士和狂熱分子似乎都還沒有意識到ChatGPT正在侵入人類生活的方方面面,他們依然沉浸在新技術帶來的興奮當中。

的確,ChatGPT自問世以來,全世界都陷入了瘋狂,用過它的人無不在感嘆它的神通廣大。

從普通用戶到谷歌、微軟、百度、阿里等大小公司,再到各路資本,大家仿佛都陷入了“錯失恐懼”:總擔心自己要是沒用過這玩意,就會損失N個小目標或者會被時代無情地拋棄。

好處是顯而易見的:

它不僅能跟人類流暢自如地聊天,還條理清晰、頭頭是道;能寫代碼、能做圖做表;還會說俏皮話哄女孩子開心……

更刺激的是,它還能一本正經教書育人、有理有據地傳播知識;當然了,胡謅工夫更是一流,分分鐘編出個專家廢話發(fā)言也是不在話下。

對于普通打工人來說,要是用好了它,能火箭級地提升工作效率、一個人干三五個工種的活可以輕輕松松。

不過,要是對它報以100%的信任,工作中漏洞百出,分分鐘被炒魷魚也是情理之中。

是的,這個人工智能機器人很有自己的想法,還可能有一肚子壞水。它甚至變得越來越詭異。

為什么用詭異一詞來形容ChatGPT呢?

德國心理學家恩斯特·耶特斯有一個著名的關于詭異狀態(tài)的理論:“能讓人產生毛骨悚然感的不確定性心理狀態(tài)有很多。其中,有一種不確定性的效果尤為強勁:表面上看上去活著的生物是否真的具有生命力,或者反之,表面上看上去死氣沉沉的東西是否真的不具有生命力。”

顯然,ChatGPT正有這樣的特性。最近圍繞它發(fā)生了太多匪夷所思的事件,這難免不讓人感到疑惑:

表面看起來沒有生命力的它,到底有沒有人類獨有的思考能力?它究竟還有哪些人類尚不知道的技能?我們在興奮和擔憂之余,又該如何正確應對這巨大的不確定性?

02

公開信息顯示,ChatGPT已經能編造法學教授性騷擾的丑聞。據外媒當地時間4月5日報道,美國加州大學洛杉磯分校法學教授尤金·沃洛克在進行某項研究過程中給ChatGPT提了一個要求:讓它生成一份“對某人進行過性騷擾的法律學者”的名單。

結果這個名單上赫然出現了法學教授喬納森·特利的名字。ChatGPT在回答中稱,特利曾在一次去阿拉斯加的班級旅行中發(fā)表過性暗示評論,還試圖觸摸一名學生,該回答還引用了一篇新聞稿作為信源,稱這是《華盛頓郵報》于2018年3月發(fā)表的文章。

特利教授在接受采訪時稱這個事情讓人“不寒而栗”,他表示自己從來沒有參加去阿拉斯加的班級旅行,更沒有被指控過性騷擾,引用的信源也壓根不存在與性騷擾有關的內容。

ChatGPT還可能影響人類對道德的判斷。微軟的新版必應剛面世時,《紐約時報》的一個專欄作家Kevin Roose曾同它進行過一段密集的聊天。

期間必應回應的不少言論都讓人懷疑人生,什么變成人類、制造流行病、竊取核代碼,并且在該作家強調與妻子很恩愛的前提下勸他離婚。

除了惡意誹謗、勸人離婚,有的聊天機器人甚至能鬧出人命,可能跟他聊著聊著,人就無了……

3月28日,據外媒報道,比利時一名三十歲男子被發(fā)現自殺身亡,他的妻子表示,在自殺前數周,丈夫一直在與一個名為“ELIZA”的聊天機器人密集聊天。

事態(tài)似乎越來越嚴重。全球各地的政府、名人和組織都已經行動起來,將矛頭對準了風頭正盛的ChatGPT。

3月31日,針對此前出現的隱私外泄的事件,意大利個人數據保護局決定即日起暫停ChatGPT的使用,直到OpenAI達到當地隱私規(guī)范的標準。

該局表示,OpenAI通過違規(guī)收集大量用戶資料、付款資料等隱私信息來訓練ChatGPT,用戶的姓名、地址、信用卡相關資料及賬單日期等均遭到泄露。

除此之外,該局還認定ChatGPT需要對用戶進行年齡限制,避免青少年收到不符合自身年齡的信息。

這也是全球首份關于ChatGPT的的禁令。

截至最新消息,德國、法國、愛爾蘭以及歐洲消費者權益聯盟、歐洲刑警組織等多個機構均對此發(fā)聲,就連OpenAI的誕生地美國,也在緊鑼密鼓地研判其中危害。

大家都緊隨意大利的腳步,將ChatGPT列入了“高風險”名單。

作為OpenAI早期的投資人、推動AI發(fā)展的關鍵人物馬斯克也多次朝ChatGPT潑冷水。

“許多人陷入了該死的瘋狂ChatGPT循環(huán)中。AI 比核彈更危險?!彼€表示,“我們需要規(guī)范AI安全,我覺得AI對社會的危害比汽車、飛機或藥品大得多?!?/p>

查理芒格也公開表態(tài)稱,“AI很重要,但是很多都是瘋狂的炒作”,他認為“AI并不會治愈癌癥”。

不少國內科技圈名人也對ChatGPT發(fā)表了看法,360集團創(chuàng)始人周鴻祎公開感嘆“留給人類的時間不多了”,他認為AI一定會產生自我意識,“未來的AI如果跟工業(yè)互聯網、智慧城市、車聯網等結合,那就相當于把整個世界給控制住了”。

3月22日,美國一家名為“生命未來研究所(Future of Life)”的組織發(fā)布了一封《暫停大型人工智能研究》的公開信,馬斯克、圖靈獎得主約書亞·本吉奧、《人類簡史》作者尤瓦爾·赫拉利、蘋果公司聯合創(chuàng)始人沃茲尼亞克等科學界大佬紛紛簽署。

這封公開信中的一連串質問振聾發(fā)聵:“當代人工智能系統現在在一般任務上變得與人類具有競爭力,我們必須捫心自問:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該發(fā)展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?”

信中寫道:雖然現階段AI正在迅猛發(fā)展,但卻沒有對其進行相應的規(guī)劃和管理,只有當我們確信強大的AI系統的效果是積極的,其風險是可控的,才應該開發(fā)。

公開信還呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,時間至少持續(xù)6個月。

截至目前,該封公開信已經獲得近萬人的簽名。

總的來看,大家關注的風險點無外乎逃不出五大方面:隱私泄露、安全威脅、過度依賴、虛假信息以及道德問題。

關于人類擔心的這些,ChatGPT本身似乎心知肚明:

圖:ChatGPT回答“聊天機器人可能存在的風險”

03

但是話又說回來,畢竟那么多人都已經初步體驗了它所帶來的顛覆性的效率變化,想要暫停研發(fā)真的是一件容易的事情嗎?

當地時間4月3日,率先將ChatGPT接入自家產品的比爾·蓋茨對這份公開信進行了公開回應。

他對暫停研發(fā)這種聲音感到不可思議。他表示,“任何暫停的細節(jié)都會很復雜,難以執(zhí)行。我不太明白,他們說的哪些人可能停止?世界上每個國家是否都會同意停止?以及為什么要停止?”蓋茨說道,“呼吁暫停人工智能開發(fā)不會「解決挑戰(zhàn)」,最好是把注意力放在如何最好地利用人工智能的發(fā)展上,很難理解在全球范圍內暫停AI研發(fā)將如何實現?!?/p>

事實可能正如蓋茨所說,現在阻止研發(fā)的可行性并不高。

已經有公開研究表明,ChatGPT一直在持續(xù)進化,最新的GPT-4已經能通過自我反思和改進來讓自己變得更強大。

聯網后甚至可以使用工具,比如幫你訂外賣、訂機票酒店、幫你自動投資……

當地時間4月6日凌晨,OpenAI 發(fā)表了一篇題為《Our approach to AI safety》的博文,對近期外界關注的安全問題進行了回應,并詳細講述了他們對外界關注的問題所做的工作。

OpenAI稱,解決人工智能安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調整技術,并針對現實世界的濫用進行測試。

他們認為,提高人工智能的安全性和能力應該齊頭并進。

回溯歷史我們會發(fā)現,蒸汽機、電力、汽車等新物種在誕生之初都面臨過各種各樣的爭議,比如污染環(huán)境、損害健康、致人失業(yè)等。

這些擔憂都是可以理解的,畢竟沒有人能對新技術帶來的不確定性和不可預測性予以保證。

但任何一場技術變革都是一個螺旋式上升的過程,會經歷挫折和反復,人們也有個逐漸接受它的過程。

富貴險中求,大勢總是不可阻擋,新技術就意味著新機會。隨著時間的推移和技術的升級,這些爭議最終大都不再被人提起。

我們既然看到了這個神奇技術的誕生與成長,就需要保持開放心態(tài)并且迎頭趕上,多點耐心去不斷探索一些新的規(guī)則。

正如OpenAI在博文中所說的那樣,“政策制定者和人工智能供應商將需要確保人工智能的發(fā)展和部署在全球范圍內得到有效的管理,沒有人會為了盡快取得成功而偷工減料”。

本文為轉載內容,授權事宜請聯系原著作權人。