正在閱讀:

看完4個國產(chǎn)大模型的用戶協(xié)議,我整個人都不好了

掃一掃下載界面新聞APP

看完4個國產(chǎn)大模型的用戶協(xié)議,我整個人都不好了

你對大模型輸入的隱私或機密信息,會被怎樣處理?

文 | 娛樂資本論 付夢珍

編輯 | James

前幾天,有人發(fā)現(xiàn)訊飛的“星火認知大模型”官方體驗平臺SparkDesk在用戶協(xié)議中有一條令人不解的規(guī)定:

根據(jù)娛樂資本論的查詢,SparkDesk 的用戶體驗規(guī)則中確實有相關含義的條文。就此,我們一同查詢了國內(nèi)幾款已經(jīng)公測的大模型產(chǎn)品的用戶協(xié)議、測試規(guī)則和隱私條款,發(fā)現(xiàn)諸如“用戶生成內(nèi)容屬于平臺”、“注銷大模型服務會同時注銷其它服務”、“平臺可以收集在公開渠道、社交網(wǎng)絡上發(fā)現(xiàn)的你的個人信息”等不盡合理的規(guī)定還有很多。

所以,我們想在本文中告訴你:

哪些你認為完全合理的AI大模型使用方法,其實是“違反用戶協(xié)議”的?

你對大模型輸入的隱私或機密信息,會被怎樣處理?

當你有可能違反了AI大模型的使用條款時,這意味著什么?

一不小心,就違反協(xié)議了

3月中旬,百度文心一言開放產(chǎn)品測試,4月7日阿里的“通義千問”啟動內(nèi)測,4月17日昆侖萬維“天工”啟動內(nèi)測,4月24日科大訊飛“星火認知大模型”啟動內(nèi)測。

它們都為用戶提供了一個相對非常簡短的“測試規(guī)則”來代替以往冗長的用戶協(xié)議,例如《文心一言測試規(guī)則》,相對的用戶也必須完全閱讀并同意后才能使用。

一般來說,這些測試規(guī)則只講了三件事:1.請不要發(fā)布違法違規(guī)的內(nèi)容;2.我們還很不成熟,會有錯誤,請不要拿生成結果直接用于嚴肅的場合;3.請盡量多給我們提供反饋。

然而,訊飛的SparkDesk額外規(guī)定了你不能把它生成的東西,甚至包括它的界面,以任何形式公開出去。也就是說,當你在微信群里跟人截圖炫耀自己獲得內(nèi)測資格的一瞬間,你已經(jīng)違反了他們的條款。娛樂資本論在《SparkDesk用戶體驗規(guī)則》中找到了對應的規(guī)定原文:

“鑒于SparkDesk服務目前處于體驗階段,SparkDesk的有關計算機程序、代碼、技術數(shù)據(jù)、系統(tǒng)及應用軟件、數(shù)據(jù)庫、算法、交互界面(包含輸入和輸出內(nèi)容)、產(chǎn)品設計、產(chǎn)品發(fā)布與規(guī)劃信息等技術信息或商業(yè)信息屬于保密信息。

您知悉并同意,對前述保密信息嚴格保密!未經(jīng)允許,您不得將前述保密信息以任何形式(包括截圖、打印、軟盤、光盤、硬盤、電子郵件、網(wǎng)絡、無線通訊等手段)披露、使用或允許他人使用,或者發(fā)送至網(wǎng)站、微博、微信群組或朋友圈、自媒體賬號等網(wǎng)絡環(huán)境中。

若您違反本規(guī)則約定的保密義務,我們有權依法追究您的法律責任。”

很顯然,“交互界面(包含輸入和輸出內(nèi)容)”涵蓋了我們在使用SparkDesk時,對著它的對話框輸入的內(nèi)容,以及它返回給我們的結果。而往往我們都會用微信截圖發(fā)給群里的朋友,這是再自然不過的舉動了。

而且輸入SparkDesk的名字,你就能發(fā)現(xiàn)有不少公眾號作者,先是在注冊時看到了這段禁止截圖的話,點完同意以后馬上開始截圖體驗,即使水印帶著他的手機號也毫不畏懼。

我們很好奇,這種制定時就應該預見到不可能執(zhí)行的規(guī)定,到底是怎么被放上去的。

我能把自己的小秘密告訴大模型嗎?

除了抓取公網(wǎng)信息外,大模型也會保留用戶與它的聊天數(shù)據(jù)用作訓練,因此用戶的個人信息或企業(yè)的商業(yè)秘密也有暴露在公眾面前的風險。此前,三星電子的半導體部門發(fā)生了3起將商業(yè)機密輸入ChatGPT的事件。

ChatGPT也曾泄露部分ChatGPT Plus訂閱者的個人信息,這違反了歐盟的GDPR隱私條款規(guī)定。

那么,國產(chǎn)大模型會在協(xié)議中說明它們收集用戶的哪些信息呢?

與ChatGPT等相同,國產(chǎn)AI大模型都會收集用戶與模型的問答歷史。如果你對某個回答點了旁邊的“贊”或“踩”,這些進一步的反饋信息也在被收集的信息之列。

這種問答數(shù)據(jù)的收集主要用于優(yōu)化產(chǎn)品。不過百度文心一言規(guī)定,這些信息還可以被百度方面用作商業(yè)用途。

《文心一言(測試版)個人信息保護規(guī)則》提到:

“我們通過技術手段對個人信息進行去標識化處理后,去標識化處理的信息將無法識別主體。請您了解并同意,在此情況下我們有權使用已經(jīng)去標識化的信息;在不透露您個人信息的前提下,我們有權對參與測試人員數(shù)據(jù)庫進行分析并予以商業(yè)化的利用。

當我們展示您的個人信息時,我們會采用包括內(nèi)容替換、匿名處理方式對您的信息進行脫敏展示,以保護您的信息安全?!?/em>

實際上,百度已經(jīng)收集了部分用戶使用文心一言生成的“趣味圖”,比如“夫妻肺片”“松鼠鱖魚”這種文不對題的聊天記錄,并公開在百度的視頻號等宣傳渠道中。

用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的其中一件事。用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。

然而,如果大模型的開發(fā)商或者新聞媒體將你的心理咨詢作為案例而其中又夾雜了太多你自己的個人信息以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這種可能性也影響到了將這些大模型的通用版本直接用作心理咨詢的用途,不過,以他們?yōu)锳PI的商業(yè)版本則可能會實現(xiàn)對用戶數(shù)據(jù)的保密,所以希望大家在放飛自我之前好好想想。

我們關注的幾款國內(nèi)大模型,普遍都提到會用“脫敏”方式處理大家的隱私信息,例如“在經(jīng)過去標識化且無法重新識別特定個人的前提下”等表述。但是總體上講,平臺收集的信息越少越好,這才是對你隱私的最大保護。

實際情況是相反的:因為用戶都是排隊等著獲取體驗名額,這些大模型產(chǎn)品在審核試用申請時,會傾向于給那些更詳細提交自己身份信息的用戶。

用戶對AI生成的回答可以通過點贊和點踩,反饋滿意與否。開發(fā)商們也非常希望一些不好的生成例子,是最先在平臺內(nèi)部發(fā)現(xiàn)和反饋的。然而對開發(fā)商而言“遺憾”的是,很多比較奇葩的問題,用戶并不是乖乖內(nèi)部反饋,而是直接發(fā)到了小紅書、微博等社交網(wǎng)絡。

此時,我們發(fā)現(xiàn)有模型在隱私政策中提到,萬一有必要,它們也會通過社交網(wǎng)絡資料知道某個截屏的人是誰:

“在法律允許的情況下,我們還會從公用或商用來源獲取有關您的信息,包括第三方社交網(wǎng)絡服務獲取有關您的信息。

用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的事情之一?!?/p>

然而,如果大模型的開發(fā)商或新聞媒體,將你向模型做的心理咨詢作為案例,而其中又夾雜了太多你自己的個人信息,以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這可能就是為什么某些主攻心理咨詢的GPT套殼類應用(有的叫“AI佛祖”什么的)被下架處理。所以希望大家在放飛自我之前好好想想,或者如果看到什么截圖出來,千萬別承認那是你聊的內(nèi)容,也行。

正如通義千問的條款所說:

“如您拒絕我們收集和處理前述信息,請您謹慎輸入文本信息。一旦您參與測試體驗,將被視為您已經(jīng)接受以上條款。”

要是我違規(guī)了,會有什么處罰?

眾所周知,AI生成的內(nèi)容多年來在各國法律判決中,大多被視為不受到版權保護,也就是任何人都可以拿去使用和修改。各國判例中主要認為,AI不是人,所以不是知識產(chǎn)權的所有者。

很多用戶天然的認為,在大模型平臺上生成的內(nèi)容是屬于自己的,或者可以隨意取用和修改。而我們翻查的各家國產(chǎn)大模型的條款,并非都是這樣規(guī)定的。

訊飛星火的“保密條款”我們已經(jīng)見識過了。而昆侖萬維天工(條款中自稱“奇點”)是不允許用戶商業(yè)使用所生成的內(nèi)容,當然這個背后可能也有避免麻煩的考量,畢竟可能數(shù)據(jù)集本身的版權也很模糊。

“除非奇點另行書面授權,否則,您只能將天工服務用于非商業(yè)用途。您承諾不對天工服務任何部分或天工服務之使用或獲得,進行復制、拷貝、出售、轉售或用于廣告或其他商業(yè)目的?!?/em>

阿里通義千問將屬于用戶的內(nèi)容劃歸給用戶。百度文心一言未在這方面作出明確規(guī)定,所以你應該可以隨意使用它們。

相比之下,OpenAI則體現(xiàn)了對客戶的一種溫情:它明確將用戶生成的內(nèi)容的所有權利、所有權和利益轉讓給客戶。

此時,問題來了——如果我真的把平臺不讓商用的生成結果拿去商用了,我會被抓起來嗎?

事實上,內(nèi)測用戶積極申請國產(chǎn)大模型的測試資格,當然不全是為了玩。他們產(chǎn)出的內(nèi)容,肯定想盡量用于自己的工作中,真正實現(xiàn)效率的提升。平臺禁止生成內(nèi)容商用的規(guī)定顯得不合情理,但考慮到開發(fā)商們有可能有將API商用的打算,我們也大致能理解為什么會有這樣的規(guī)定。

唯一的問題是,就像秘塔科技:“中國的Grammarly”如何應對GPT時代的“降維打擊”秘塔科技的COO王益為之前對娛樂資本論講的那樣,市場上目前沒有一種工具能真正檢測什么段落是由AI生成的?!叭绻幸患艺f,我就針對某一家的大模型專門去訓練,或許有一點點可能檢測到這一種模型生產(chǎn)的痕跡,但要說能全都檢測出市面上這些大模型生成的結果,那是不可能的?!?/p>

另外,這些國產(chǎn)大模型為盡量實現(xiàn)可溯源的目標,都采用了在界面添加水印的方法,來保留用戶的個人信息。而我們已經(jīng)發(fā)現(xiàn)了有些瀏覽器插件可以專門清除這些大模型界面上的水印。

效果還挺完美的。

最后還有個問題:假如你覺得這些條款里有些“霸王條款”的成分,或者別的原因,使得你想注銷賬號了,這會很困難嗎?

對于訊飛星火和昆侖萬維天工而言,這兩家的賬號或通行證都不會附帶某些特別重要的產(chǎn)品或服務,所以是方便的(有些人可能是訊飛聽寫等的付費用戶,或在使用訊飛的API,此時需要特別注意)。

然而,如果你想停用通義千問,這意味著要刪除你的阿里云賬號;如果你想停用文心一言,這意味著要刪除你的百度賬號。這兩個的麻煩可就大多了。

百度為文心一言用戶提供了在不刪除賬號的前提下,訪問、處理和請求消除個人數(shù)據(jù)的多種方式,個性化的需求可以給他們發(fā)郵件來申訴。不過它也提到,清空對話界面上的對話記錄,并不等于立即消除這些記錄在服務器上的緩存:

當您從我們的服務中刪除信息后,我們可能不會立即從備份系統(tǒng)中刪除相應的信息,但會在備份更新時刪除這些信息。

通義千問的條款指出,“您可以登錄賬號中心后申請注銷賬戶以刪除您的全部信息?!边@個賬號中心并不在通義千問的界面里,只能在阿里云的控制臺找到,這意味著注銷賬戶的意思就是注銷你的阿里云賬號。

總之,在這些服務能脫離開賬號附帶的其它業(yè)務,允許被單獨注銷之前,建議你在很介意的情況下,使用自己不太常用的賬號來申請注冊這些大模型。

寫在最后

當我們追問這些大模型在用戶協(xié)議里一些“強人所難”的規(guī)定時,我們實際上在問的是,平臺與用戶權利、義務的邊界到底在哪兒?

大模型開發(fā)商對用戶數(shù)據(jù)收集的范圍比較廣。這些數(shù)據(jù)能為大模型改進產(chǎn)品提供依據(jù),但也讓用戶承擔了諸多風險。相應的,它們對自身承擔的有限責任劃定則十分保守,反復提醒用戶,作為一項實驗性的功能,大模型不為用戶使用后發(fā)生的任何問題或損失承擔責任。

“沒有100%的數(shù)據(jù)安全”。AI大模型和其它互聯(lián)網(wǎng)產(chǎn)品一樣,在數(shù)據(jù)傳輸、存儲和處理過程中都會存在潛在的風險。這還沒有涉及到像ChatGPT那種根據(jù)輸入語料而學習的潛在的泄密方式。

雖然開發(fā)商自稱會對用戶信息“脫敏”,用戶仍應當定期檢查自己在這些平臺上的隱私設置,并及時關注平臺以小字、彈窗等不確定的形態(tài)發(fā)布的任何通知。

用戶協(xié)議是企業(yè)常用來和用戶締結契約的方式。在簽署了合同的情況下,用戶不能以“我沒看”“不知情”等理由要求撤銷合同。為最大限度地保障自身的合法權益與個人信息安全,各位用戶們需要仔細閱讀用戶協(xié)議、隱私政策等,再點擊那個醒目的“同意并繼續(xù)”。

尤瓦爾·赫拉利曾在《人類簡史》中說:“人是可以為了方便而犧牲部分隱私的”。的確,大模型發(fā)展的趨勢之一,便是提高人類生活的便捷性,在這個過程中,用戶“讓渡隱私權”似乎不可避免。

但是,通過仔細閱讀那些常被人忽略的協(xié)議和條款,我們試圖讓一些可能不太合理的地方引起大家足夠的注意,也由此呼吁平臺的進一步改進。

我們也希望各家國產(chǎn)大模型的用戶權益保護工作,可以跟模型的研發(fā)進度同步,在收集用戶信息時能夠取舍有度,從長遠利益出發(fā),審慎行之。

本文為轉載內(nèi)容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

看完4個國產(chǎn)大模型的用戶協(xié)議,我整個人都不好了

你對大模型輸入的隱私或機密信息,會被怎樣處理?

文 | 娛樂資本論 付夢珍

編輯 | James

前幾天,有人發(fā)現(xiàn)訊飛的“星火認知大模型”官方體驗平臺SparkDesk在用戶協(xié)議中有一條令人不解的規(guī)定:

根據(jù)娛樂資本論的查詢,SparkDesk 的用戶體驗規(guī)則中確實有相關含義的條文。就此,我們一同查詢了國內(nèi)幾款已經(jīng)公測的大模型產(chǎn)品的用戶協(xié)議、測試規(guī)則和隱私條款,發(fā)現(xiàn)諸如“用戶生成內(nèi)容屬于平臺”、“注銷大模型服務會同時注銷其它服務”、“平臺可以收集在公開渠道、社交網(wǎng)絡上發(fā)現(xiàn)的你的個人信息”等不盡合理的規(guī)定還有很多。

所以,我們想在本文中告訴你:

哪些你認為完全合理的AI大模型使用方法,其實是“違反用戶協(xié)議”的?

你對大模型輸入的隱私或機密信息,會被怎樣處理?

當你有可能違反了AI大模型的使用條款時,這意味著什么?

一不小心,就違反協(xié)議了

3月中旬,百度文心一言開放產(chǎn)品測試,4月7日阿里的“通義千問”啟動內(nèi)測,4月17日昆侖萬維“天工”啟動內(nèi)測,4月24日科大訊飛“星火認知大模型”啟動內(nèi)測。

它們都為用戶提供了一個相對非常簡短的“測試規(guī)則”來代替以往冗長的用戶協(xié)議,例如《文心一言測試規(guī)則》,相對的用戶也必須完全閱讀并同意后才能使用。

一般來說,這些測試規(guī)則只講了三件事:1.請不要發(fā)布違法違規(guī)的內(nèi)容;2.我們還很不成熟,會有錯誤,請不要拿生成結果直接用于嚴肅的場合;3.請盡量多給我們提供反饋。

然而,訊飛的SparkDesk額外規(guī)定了你不能把它生成的東西,甚至包括它的界面,以任何形式公開出去。也就是說,當你在微信群里跟人截圖炫耀自己獲得內(nèi)測資格的一瞬間,你已經(jīng)違反了他們的條款。娛樂資本論在《SparkDesk用戶體驗規(guī)則》中找到了對應的規(guī)定原文:

“鑒于SparkDesk服務目前處于體驗階段,SparkDesk的有關計算機程序、代碼、技術數(shù)據(jù)、系統(tǒng)及應用軟件、數(shù)據(jù)庫、算法、交互界面(包含輸入和輸出內(nèi)容)、產(chǎn)品設計、產(chǎn)品發(fā)布與規(guī)劃信息等技術信息或商業(yè)信息屬于保密信息。

您知悉并同意,對前述保密信息嚴格保密!未經(jīng)允許,您不得將前述保密信息以任何形式(包括截圖、打印、軟盤、光盤、硬盤、電子郵件、網(wǎng)絡、無線通訊等手段)披露、使用或允許他人使用,或者發(fā)送至網(wǎng)站、微博、微信群組或朋友圈、自媒體賬號等網(wǎng)絡環(huán)境中。

若您違反本規(guī)則約定的保密義務,我們有權依法追究您的法律責任。”

很顯然,“交互界面(包含輸入和輸出內(nèi)容)”涵蓋了我們在使用SparkDesk時,對著它的對話框輸入的內(nèi)容,以及它返回給我們的結果。而往往我們都會用微信截圖發(fā)給群里的朋友,這是再自然不過的舉動了。

而且輸入SparkDesk的名字,你就能發(fā)現(xiàn)有不少公眾號作者,先是在注冊時看到了這段禁止截圖的話,點完同意以后馬上開始截圖體驗,即使水印帶著他的手機號也毫不畏懼。

我們很好奇,這種制定時就應該預見到不可能執(zhí)行的規(guī)定,到底是怎么被放上去的。

我能把自己的小秘密告訴大模型嗎?

除了抓取公網(wǎng)信息外,大模型也會保留用戶與它的聊天數(shù)據(jù)用作訓練,因此用戶的個人信息或企業(yè)的商業(yè)秘密也有暴露在公眾面前的風險。此前,三星電子的半導體部門發(fā)生了3起將商業(yè)機密輸入ChatGPT的事件。

ChatGPT也曾泄露部分ChatGPT Plus訂閱者的個人信息,這違反了歐盟的GDPR隱私條款規(guī)定。

那么,國產(chǎn)大模型會在協(xié)議中說明它們收集用戶的哪些信息呢?

與ChatGPT等相同,國產(chǎn)AI大模型都會收集用戶與模型的問答歷史。如果你對某個回答點了旁邊的“贊”或“踩”,這些進一步的反饋信息也在被收集的信息之列。

這種問答數(shù)據(jù)的收集主要用于優(yōu)化產(chǎn)品。不過百度文心一言規(guī)定,這些信息還可以被百度方面用作商業(yè)用途。

《文心一言(測試版)個人信息保護規(guī)則》提到:

“我們通過技術手段對個人信息進行去標識化處理后,去標識化處理的信息將無法識別主體。請您了解并同意,在此情況下我們有權使用已經(jīng)去標識化的信息;在不透露您個人信息的前提下,我們有權對參與測試人員數(shù)據(jù)庫進行分析并予以商業(yè)化的利用。

當我們展示您的個人信息時,我們會采用包括內(nèi)容替換、匿名處理方式對您的信息進行脫敏展示,以保護您的信息安全?!?/em>

實際上,百度已經(jīng)收集了部分用戶使用文心一言生成的“趣味圖”,比如“夫妻肺片”“松鼠鱖魚”這種文不對題的聊天記錄,并公開在百度的視頻號等宣傳渠道中。

用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的其中一件事。用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。

然而,如果大模型的開發(fā)商或者新聞媒體將你的心理咨詢作為案例而其中又夾雜了太多你自己的個人信息以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這種可能性也影響到了將這些大模型的通用版本直接用作心理咨詢的用途,不過,以他們?yōu)锳PI的商業(yè)版本則可能會實現(xiàn)對用戶數(shù)據(jù)的保密,所以希望大家在放飛自我之前好好想想。

我們關注的幾款國內(nèi)大模型,普遍都提到會用“脫敏”方式處理大家的隱私信息,例如“在經(jīng)過去標識化且無法重新識別特定個人的前提下”等表述。但是總體上講,平臺收集的信息越少越好,這才是對你隱私的最大保護。

實際情況是相反的:因為用戶都是排隊等著獲取體驗名額,這些大模型產(chǎn)品在審核試用申請時,會傾向于給那些更詳細提交自己身份信息的用戶。

用戶對AI生成的回答可以通過點贊和點踩,反饋滿意與否。開發(fā)商們也非常希望一些不好的生成例子,是最先在平臺內(nèi)部發(fā)現(xiàn)和反饋的。然而對開發(fā)商而言“遺憾”的是,很多比較奇葩的問題,用戶并不是乖乖內(nèi)部反饋,而是直接發(fā)到了小紅書、微博等社交網(wǎng)絡。

此時,我們發(fā)現(xiàn)有模型在隱私政策中提到,萬一有必要,它們也會通過社交網(wǎng)絡資料知道某個截屏的人是誰:

“在法律允許的情況下,我們還會從公用或商用來源獲取有關您的信息,包括第三方社交網(wǎng)絡服務獲取有關您的信息。

用戶們把大模型當樹洞,把自己的什么見不得人的私事都交給這位賽博神父。用大模型作為心理咨詢工具,是人們拿到它之后最喜歡做的事情之一?!?/p>

然而,如果大模型的開發(fā)商或新聞媒體,將你向模型做的心理咨詢作為案例,而其中又夾雜了太多你自己的個人信息,以至于可識別出來的時候,這可能會給你帶來新的麻煩。

這可能就是為什么某些主攻心理咨詢的GPT套殼類應用(有的叫“AI佛祖”什么的)被下架處理。所以希望大家在放飛自我之前好好想想,或者如果看到什么截圖出來,千萬別承認那是你聊的內(nèi)容,也行。

正如通義千問的條款所說:

“如您拒絕我們收集和處理前述信息,請您謹慎輸入文本信息。一旦您參與測試體驗,將被視為您已經(jīng)接受以上條款?!?/em>

要是我違規(guī)了,會有什么處罰?

眾所周知,AI生成的內(nèi)容多年來在各國法律判決中,大多被視為不受到版權保護,也就是任何人都可以拿去使用和修改。各國判例中主要認為,AI不是人,所以不是知識產(chǎn)權的所有者。

很多用戶天然的認為,在大模型平臺上生成的內(nèi)容是屬于自己的,或者可以隨意取用和修改。而我們翻查的各家國產(chǎn)大模型的條款,并非都是這樣規(guī)定的。

訊飛星火的“保密條款”我們已經(jīng)見識過了。而昆侖萬維天工(條款中自稱“奇點”)是不允許用戶商業(yè)使用所生成的內(nèi)容,當然這個背后可能也有避免麻煩的考量,畢竟可能數(shù)據(jù)集本身的版權也很模糊。

“除非奇點另行書面授權,否則,您只能將天工服務用于非商業(yè)用途。您承諾不對天工服務任何部分或天工服務之使用或獲得,進行復制、拷貝、出售、轉售或用于廣告或其他商業(yè)目的?!?/em>

阿里通義千問將屬于用戶的內(nèi)容劃歸給用戶。百度文心一言未在這方面作出明確規(guī)定,所以你應該可以隨意使用它們。

相比之下,OpenAI則體現(xiàn)了對客戶的一種溫情:它明確將用戶生成的內(nèi)容的所有權利、所有權和利益轉讓給客戶。

此時,問題來了——如果我真的把平臺不讓商用的生成結果拿去商用了,我會被抓起來嗎?

事實上,內(nèi)測用戶積極申請國產(chǎn)大模型的測試資格,當然不全是為了玩。他們產(chǎn)出的內(nèi)容,肯定想盡量用于自己的工作中,真正實現(xiàn)效率的提升。平臺禁止生成內(nèi)容商用的規(guī)定顯得不合情理,但考慮到開發(fā)商們有可能有將API商用的打算,我們也大致能理解為什么會有這樣的規(guī)定。

唯一的問題是,就像秘塔科技:“中國的Grammarly”如何應對GPT時代的“降維打擊”秘塔科技的COO王益為之前對娛樂資本論講的那樣,市場上目前沒有一種工具能真正檢測什么段落是由AI生成的?!叭绻幸患艺f,我就針對某一家的大模型專門去訓練,或許有一點點可能檢測到這一種模型生產(chǎn)的痕跡,但要說能全都檢測出市面上這些大模型生成的結果,那是不可能的?!?/p>

另外,這些國產(chǎn)大模型為盡量實現(xiàn)可溯源的目標,都采用了在界面添加水印的方法,來保留用戶的個人信息。而我們已經(jīng)發(fā)現(xiàn)了有些瀏覽器插件可以專門清除這些大模型界面上的水印。

效果還挺完美的。

最后還有個問題:假如你覺得這些條款里有些“霸王條款”的成分,或者別的原因,使得你想注銷賬號了,這會很困難嗎?

對于訊飛星火和昆侖萬維天工而言,這兩家的賬號或通行證都不會附帶某些特別重要的產(chǎn)品或服務,所以是方便的(有些人可能是訊飛聽寫等的付費用戶,或在使用訊飛的API,此時需要特別注意)。

然而,如果你想停用通義千問,這意味著要刪除你的阿里云賬號;如果你想停用文心一言,這意味著要刪除你的百度賬號。這兩個的麻煩可就大多了。

百度為文心一言用戶提供了在不刪除賬號的前提下,訪問、處理和請求消除個人數(shù)據(jù)的多種方式,個性化的需求可以給他們發(fā)郵件來申訴。不過它也提到,清空對話界面上的對話記錄,并不等于立即消除這些記錄在服務器上的緩存:

當您從我們的服務中刪除信息后,我們可能不會立即從備份系統(tǒng)中刪除相應的信息,但會在備份更新時刪除這些信息。

通義千問的條款指出,“您可以登錄賬號中心后申請注銷賬戶以刪除您的全部信息?!边@個賬號中心并不在通義千問的界面里,只能在阿里云的控制臺找到,這意味著注銷賬戶的意思就是注銷你的阿里云賬號。

總之,在這些服務能脫離開賬號附帶的其它業(yè)務,允許被單獨注銷之前,建議你在很介意的情況下,使用自己不太常用的賬號來申請注冊這些大模型。

寫在最后

當我們追問這些大模型在用戶協(xié)議里一些“強人所難”的規(guī)定時,我們實際上在問的是,平臺與用戶權利、義務的邊界到底在哪兒?

大模型開發(fā)商對用戶數(shù)據(jù)收集的范圍比較廣。這些數(shù)據(jù)能為大模型改進產(chǎn)品提供依據(jù),但也讓用戶承擔了諸多風險。相應的,它們對自身承擔的有限責任劃定則十分保守,反復提醒用戶,作為一項實驗性的功能,大模型不為用戶使用后發(fā)生的任何問題或損失承擔責任。

“沒有100%的數(shù)據(jù)安全”。AI大模型和其它互聯(lián)網(wǎng)產(chǎn)品一樣,在數(shù)據(jù)傳輸、存儲和處理過程中都會存在潛在的風險。這還沒有涉及到像ChatGPT那種根據(jù)輸入語料而學習的潛在的泄密方式。

雖然開發(fā)商自稱會對用戶信息“脫敏”,用戶仍應當定期檢查自己在這些平臺上的隱私設置,并及時關注平臺以小字、彈窗等不確定的形態(tài)發(fā)布的任何通知。

用戶協(xié)議是企業(yè)常用來和用戶締結契約的方式。在簽署了合同的情況下,用戶不能以“我沒看”“不知情”等理由要求撤銷合同。為最大限度地保障自身的合法權益與個人信息安全,各位用戶們需要仔細閱讀用戶協(xié)議、隱私政策等,再點擊那個醒目的“同意并繼續(xù)”。

尤瓦爾·赫拉利曾在《人類簡史》中說:“人是可以為了方便而犧牲部分隱私的”。的確,大模型發(fā)展的趨勢之一,便是提高人類生活的便捷性,在這個過程中,用戶“讓渡隱私權”似乎不可避免。

但是,通過仔細閱讀那些常被人忽略的協(xié)議和條款,我們試圖讓一些可能不太合理的地方引起大家足夠的注意,也由此呼吁平臺的進一步改進。

我們也希望各家國產(chǎn)大模型的用戶權益保護工作,可以跟模型的研發(fā)進度同步,在收集用戶信息時能夠取舍有度,從長遠利益出發(fā),審慎行之。

本文為轉載內(nèi)容,授權事宜請聯(lián)系原著作權人。