正在閱讀:

人類生成 or 機(jī)器生成?ChatGPT引發(fā)了一場(chǎng)真假辯論

掃一掃下載界面新聞APP

人類生成 or 機(jī)器生成?ChatGPT引發(fā)了一場(chǎng)真假辯論

如何判斷文本是由機(jī)器還是人類生成的?

編譯|巴比特

像 ChatGPT 這樣的大型語言模型是合理性的提供者。 許多聊天機(jī)器人基于所謂的生成式人工智能,經(jīng)過訓(xùn)練可以通過在互聯(lián)網(wǎng)上搜索相關(guān)信息并收集連貫的答案來回答用戶的問題,從而生成令人信服的學(xué)生論文、權(quán)威的法律文件和可信的新聞報(bào)道。

但是,由于公開可用的數(shù)據(jù)包含錯(cuò)誤信息和虛假信息,一些機(jī)器生成的文本可能不準(zhǔn)確或不真實(shí)。 這引發(fā)了人們爭(zhēng)相開發(fā)工具來識(shí)別文本是由人還是機(jī)器起草的。 科學(xué)也在努力適應(yīng)這個(gè)新時(shí)代,現(xiàn)場(chǎng)討論是否應(yīng)該允許聊天機(jī)器人撰寫科學(xué)論文,甚至產(chǎn)生新的假說。

區(qū)分人工智能和人類智能的重要性與日俱增。 本月,瑞銀分析師透露,ChatGPT 是歷史上增長(zhǎng)最快的網(wǎng)絡(luò)應(yīng)用程序,1 月份每月活躍用戶達(dá)到 1 億。 一些部門已經(jīng)決定沒有必要鎖住穩(wěn)定的大門:周一,國(guó)際文憑組織表示,學(xué)生將被允許使用 ChatGPT 撰寫論文,前提是他們注明引用了它。

平心而論,這項(xiàng)技術(shù)的創(chuàng)造者坦率地指出了它的局限性。 OpenAI 首席執(zhí)行官薩姆奧特曼 (Sam Altman) 去年 12 月警告說,ChatGPT“在某些方面足夠出色,足以給人一種偉大的誤導(dǎo)印象”。 我們?cè)诜€(wěn)健性和真實(shí)性方面還有很多工作要做?!?該公司正在為其內(nèi)容輸出開發(fā)加密水印,這是一種機(jī)器可讀的秘密標(biāo)點(diǎn)符號(hào)、拼寫和詞序序列; 并且正在磨練一個(gè)“分類器”來區(qū)分合成文本和人工生成的文本,使用兩者的例子來訓(xùn)練它。

斯坦福大學(xué)的研究生 Eric Mitchell 認(rèn)為分類器需要大量的訓(xùn)練數(shù)據(jù)。 他與同事一起提出了 DetectGPT,這是一種發(fā)現(xiàn)差異的“零樣本”方法,這意味著該方法不需要事先學(xué)習(xí)。 相反,該方法會(huì)自行啟動(dòng)聊天機(jī)器人,以嗅探出自己的輸出。

它是這樣工作的:DetectGPT 詢問聊天機(jī)器人它對(duì)示例文本的“喜歡”程度,“喜歡”是示例與其自己的創(chuàng)作有多相似的簡(jiǎn)寫。 DetectGPT 然后更進(jìn)一步——它“擾亂”了文本,稍微改變了措辭。 假設(shè)是聊天機(jī)器人在“喜歡”更改后的人工生成文本方面比更改后的機(jī)器文本更具可變性。 研究人員聲稱,在早期測(cè)試中,該方法在 95% 的時(shí)間內(nèi)正確地區(qū)分了人類和機(jī)器作者。

需要注意的是:這些結(jié)果尚未經(jīng)過同行評(píng)審; 該方法雖然優(yōu)于隨機(jī)猜測(cè),但在所有生成式 AI 模型中的工作可靠性并不相同。 對(duì)合成文本進(jìn)行人為調(diào)整可能會(huì)愚弄 DetectGPT。

這一切對(duì)科學(xué)意味著什么? 科學(xué)出版是研究的命脈,將想法、假設(shè)、論據(jù)和證據(jù)注入全球科學(xué)經(jīng)典。 一些人很快就將 ChatGPT 作為研究助理,一些有爭(zhēng)議的論文將 AI 列為合著者。

Meta 甚至推出了一款名為 Galactica 的科學(xué)專用文本生成器。 三天后它被撤回了。 在它被使用的這段時(shí)間,構(gòu)建了一段熊在太空旅行的虛構(gòu)歷史。

Tübingen 的馬克斯普朗克智能系統(tǒng)研究所的邁克爾·布萊克教授當(dāng)時(shí)在推特上表示,他對(duì) Galactica 對(duì)有關(guān)他自己研究領(lǐng)域的多項(xiàng)詢問的回答感到“困擾”,包括將虛假論文歸咎于真正的研究人員。 “在所有情況下,[Galactica] 都是錯(cuò)誤的或有偏見的,但聽起來是正確和權(quán)威的。 我認(rèn)為這很危險(xiǎn)?!?/p>

危險(xiǎn)來自于看似合理的文本滑入真正的科學(xué)提交,用虛假引用充斥文獻(xiàn)并永遠(yuǎn)歪曲經(jīng)典。 《科學(xué)》雜志現(xiàn)在完全禁止生成文本; 《自然》雜志則允許使用它,前提是必須對(duì)使用進(jìn)行了聲明,但禁止將其列為共同作者。

話又說回來,大多數(shù)人不會(huì)查閱高端期刊來指導(dǎo)他們的科學(xué)思維。 如果狡猾的人如此傾向,這些聊天機(jī)器人可以按需噴出大量引用偽科學(xué),解釋為什么疫苗不起作用,或者為什么全球變暖是個(gè)騙局。 在線發(fā)布的誤導(dǎo)性材料可能會(huì)被未來的生成人工智能吞噬,產(chǎn)生新的謊言迭代,進(jìn)一步污染公共話語。

販賣懷疑的商人肯定已經(jīng)摩拳擦掌,迫不及待了。

來源:英國(guó)《金融時(shí)報(bào)》

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

人類生成 or 機(jī)器生成?ChatGPT引發(fā)了一場(chǎng)真假辯論

如何判斷文本是由機(jī)器還是人類生成的?

編譯|巴比特

像 ChatGPT 這樣的大型語言模型是合理性的提供者。 許多聊天機(jī)器人基于所謂的生成式人工智能,經(jīng)過訓(xùn)練可以通過在互聯(lián)網(wǎng)上搜索相關(guān)信息并收集連貫的答案來回答用戶的問題,從而生成令人信服的學(xué)生論文、權(quán)威的法律文件和可信的新聞報(bào)道。

但是,由于公開可用的數(shù)據(jù)包含錯(cuò)誤信息和虛假信息,一些機(jī)器生成的文本可能不準(zhǔn)確或不真實(shí)。 這引發(fā)了人們爭(zhēng)相開發(fā)工具來識(shí)別文本是由人還是機(jī)器起草的。 科學(xué)也在努力適應(yīng)這個(gè)新時(shí)代,現(xiàn)場(chǎng)討論是否應(yīng)該允許聊天機(jī)器人撰寫科學(xué)論文,甚至產(chǎn)生新的假說。

區(qū)分人工智能和人類智能的重要性與日俱增。 本月,瑞銀分析師透露,ChatGPT 是歷史上增長(zhǎng)最快的網(wǎng)絡(luò)應(yīng)用程序,1 月份每月活躍用戶達(dá)到 1 億。 一些部門已經(jīng)決定沒有必要鎖住穩(wěn)定的大門:周一,國(guó)際文憑組織表示,學(xué)生將被允許使用 ChatGPT 撰寫論文,前提是他們注明引用了它。

平心而論,這項(xiàng)技術(shù)的創(chuàng)造者坦率地指出了它的局限性。 OpenAI 首席執(zhí)行官薩姆奧特曼 (Sam Altman) 去年 12 月警告說,ChatGPT“在某些方面足夠出色,足以給人一種偉大的誤導(dǎo)印象”。 我們?cè)诜€(wěn)健性和真實(shí)性方面還有很多工作要做。” 該公司正在為其內(nèi)容輸出開發(fā)加密水印,這是一種機(jī)器可讀的秘密標(biāo)點(diǎn)符號(hào)、拼寫和詞序序列; 并且正在磨練一個(gè)“分類器”來區(qū)分合成文本和人工生成的文本,使用兩者的例子來訓(xùn)練它。

斯坦福大學(xué)的研究生 Eric Mitchell 認(rèn)為分類器需要大量的訓(xùn)練數(shù)據(jù)。 他與同事一起提出了 DetectGPT,這是一種發(fā)現(xiàn)差異的“零樣本”方法,這意味著該方法不需要事先學(xué)習(xí)。 相反,該方法會(huì)自行啟動(dòng)聊天機(jī)器人,以嗅探出自己的輸出。

它是這樣工作的:DetectGPT 詢問聊天機(jī)器人它對(duì)示例文本的“喜歡”程度,“喜歡”是示例與其自己的創(chuàng)作有多相似的簡(jiǎn)寫。 DetectGPT 然后更進(jìn)一步——它“擾亂”了文本,稍微改變了措辭。 假設(shè)是聊天機(jī)器人在“喜歡”更改后的人工生成文本方面比更改后的機(jī)器文本更具可變性。 研究人員聲稱,在早期測(cè)試中,該方法在 95% 的時(shí)間內(nèi)正確地區(qū)分了人類和機(jī)器作者。

需要注意的是:這些結(jié)果尚未經(jīng)過同行評(píng)審; 該方法雖然優(yōu)于隨機(jī)猜測(cè),但在所有生成式 AI 模型中的工作可靠性并不相同。 對(duì)合成文本進(jìn)行人為調(diào)整可能會(huì)愚弄 DetectGPT。

這一切對(duì)科學(xué)意味著什么? 科學(xué)出版是研究的命脈,將想法、假設(shè)、論據(jù)和證據(jù)注入全球科學(xué)經(jīng)典。 一些人很快就將 ChatGPT 作為研究助理,一些有爭(zhēng)議的論文將 AI 列為合著者。

Meta 甚至推出了一款名為 Galactica 的科學(xué)專用文本生成器。 三天后它被撤回了。 在它被使用的這段時(shí)間,構(gòu)建了一段熊在太空旅行的虛構(gòu)歷史。

Tübingen 的馬克斯普朗克智能系統(tǒng)研究所的邁克爾·布萊克教授當(dāng)時(shí)在推特上表示,他對(duì) Galactica 對(duì)有關(guān)他自己研究領(lǐng)域的多項(xiàng)詢問的回答感到“困擾”,包括將虛假論文歸咎于真正的研究人員。 “在所有情況下,[Galactica] 都是錯(cuò)誤的或有偏見的,但聽起來是正確和權(quán)威的。 我認(rèn)為這很危險(xiǎn)?!?/p>

危險(xiǎn)來自于看似合理的文本滑入真正的科學(xué)提交,用虛假引用充斥文獻(xiàn)并永遠(yuǎn)歪曲經(jīng)典。 《科學(xué)》雜志現(xiàn)在完全禁止生成文本; 《自然》雜志則允許使用它,前提是必須對(duì)使用進(jìn)行了聲明,但禁止將其列為共同作者。

話又說回來,大多數(shù)人不會(huì)查閱高端期刊來指導(dǎo)他們的科學(xué)思維。 如果狡猾的人如此傾向,這些聊天機(jī)器人可以按需噴出大量引用偽科學(xué),解釋為什么疫苗不起作用,或者為什么全球變暖是個(gè)騙局。 在線發(fā)布的誤導(dǎo)性材料可能會(huì)被未來的生成人工智能吞噬,產(chǎn)生新的謊言迭代,進(jìn)一步污染公共話語。

販賣懷疑的商人肯定已經(jīng)摩拳擦掌,迫不及待了。

來源:英國(guó)《金融時(shí)報(bào)》

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。