正在閱讀:

造個破謠而已,咋還用上AI了?

掃一掃下載界面新聞APP

造個破謠而已,咋還用上AI了?

先了解,再破除。

文|腦極體

最近,央視等各大媒體紛紛曝光了全國多起用AI炮制網(wǎng)絡謠言的案例,其中涉及災害、安全事故、刑事案件等多類謠言內(nèi)容,造謠的方式更是從文案到圖片、視頻不一而足。

看到這樣的消息,總是會加重我們對AI的擔憂,聯(lián)想到此前的AI詐騙、deepfake等,AI仿佛是越來越壞了,至少它已經(jīng)變成了一種可以被不法分子利用的工具。

但也有網(wǎng)友問了,不就是造個謠嗎?這東西去村口轉(zhuǎn)一圈,聽大爺大媽聊一會,輕輕松松能收集個百八十條的,怎么還得用上AI這種高科技了?這不法分子是太懶了,還是過于缺乏想象力?

這其實是個很重要的問題,我們今天就通過這些已經(jīng)被公開報道的案例,來聊一聊用AI造謠背后的動機與行為邏輯。了解了這些之后,才能更有針對性、靈活性地遏制AI造謠。

正所謂恐懼源于未知。AI造謠這事,乍聽起來魔幻且恐怖。但如果我們逐層拆解它、了解它,會發(fā)現(xiàn)不過爾爾。

不必恐懼AI。就像火能帶來溫暖也能帶來火災,絕大多數(shù)技術都是雙刃劍。重點是誰來使用它,以及如何使用它。

從瞎編,到AI批量化高水準瞎編

在電影《保你平安》里,魏平安費勁千辛萬苦,最后發(fā)現(xiàn)謠言來源不過是為了幾塊錢在論壇隨便發(fā)了一句評論。

很多朋友看完電影覺得這樣的動機有點離譜,但從曝光出來的AI造謠案件中,我們會發(fā)現(xiàn)這種卑鄙且低端的行為還真不在少數(shù),只不過貪圖論壇幣的行為確實過分奇葩。大部分網(wǎng)絡造謠者的利益動機,還是希望獲取流量來換取平臺補貼并變現(xiàn),這也就導致他們需要在信息流或者短視頻平臺發(fā)布內(nèi)容。

要知道,這些平臺目前的流量補貼已經(jīng)很低了,而即使是聳人聽聞的謠言內(nèi)容,也需要標題、文案、圖片配合好,才能大差不差、以假亂真。結(jié)果往往是造謠者瞎編了半天,收益微乎其微。有這個能力和時間,可能還不如去找個文案、編輯類的工作來做。

這可怎么辦呢?于是就產(chǎn)生了造謠者選擇AI的第一個動機:更快、更簡單地編造謠言。

我們能在很多案例里發(fā)現(xiàn),用AI造謠并沒有什么神秘的,不法分子就是需要AI的簡單高效。根據(jù)《北京日報》8月1日報道,在一系列編造某地水災的網(wǎng)絡謠言背后,造謠者僅僅是利用手機瀏覽器自帶的AI文本生成功能,輸入了“暴雨”等相關關鍵詞,就得到了水災相關的新聞稿。

除了根據(jù)關鍵詞直接生成通稿,AI文本生成還可以對已有文案進行渲染。造謠者會命令AI,對懸疑、驚悚、情緒對立等內(nèi)容進行強化和夸大。由此生成看起來更真實細膩,且容易讓人相信的謠言內(nèi)容。換句話說,很多煞有介事的小作文原本要自己編,現(xiàn)在可以交給AI了。

還有一種用AI造謠的方法,是將原本的新聞進行移花接木。最近甘肅平?jīng)鍪泄剂艘黄鸢咐?,嫌疑人是通過AI軟件來大量篡改此前的新聞內(nèi)容。比如將新聞的地點、時間、人名進行替換,以此來批量制造謠言內(nèi)容。這些謠言大部分是某地發(fā)生了自然災害、交通事故、刑事案件。由于是批量制造,這些謠言涉及各個地方,加上不同地區(qū)的用戶會被算法推薦本地新聞,這些某某地發(fā)生水災、火災的謠言很容易產(chǎn)生流量。

歸根結(jié)底,AI技術在這些造謠事件中,起到的只是一個加速謠言生產(chǎn)的工具作用。假如沒有AI,這些人大概率也會想到這種編造謠言的方式,只不過需要自己一點點編輯加杜撰。又或許,AI寫稿能力的出現(xiàn),讓連造謠“辛苦”也不想吃的懶漢們找到了門徑。

我們無需污名化AI。AI加速文案生成,這個能力本身是有價值的,只是好人和壞人看到了它的不同應用方式。

貼合大數(shù)據(jù)需求的精準造謠

造謠者利用AI技術,僅僅只有一個動機嗎?其實也不盡然。

對于很多造謠者來說,有流量、有話題度就是他們的最終目標。無論是出于病態(tài)心理還是利益訴求,能讓人看的謠言才對于造謠者來說具有價值,但想要實現(xiàn)這事,可能還真不那么容易。造什么謠才能讓人想看呢?甚至于什么謠言才能在一大堆競品謠言中脫穎而出呢?以前這可能需要造謠者一個個關鍵詞,一個個謠言類型去嘗試,但現(xiàn)在情況開始改變了,造謠者可能不知道,但是AI知道啊,于是他們可以直接命令AI來做。

這就引出了用AI造謠的第二個動機:利用AI洞察大數(shù)據(jù)的能力。

用過生成式AI的朋友應該有所體會,如果你向AI提出諸如“文案里要有網(wǎng)絡梗”“文案要讓年輕人愛看”之類的需求,會發(fā)現(xiàn)很多時候AI比我們更懂網(wǎng)絡,更懂流量。甚至還可以讓AI生成“老年人愛看”“能引發(fā)中年焦慮”“能挑起性別話題”等內(nèi)容。

這背后的技術原理,就是大模型具有更好的泛化信息理解能力,可以將沒有直接關聯(lián)的信息按照語義結(jié)合在一起。顯然,造謠者對技術原理不感興趣,但很快掌握了大模型的應用竅門。

在河南鄭州市通報的一起案例中,嫌疑人就是通過對AI下命令,進行提示的方式獲得謠言內(nèi)容的。他要求AI生成的內(nèi)容要能吸引眼球,并且明確說明要讓年輕人看到。在這些提示關鍵詞的要求下,AI生成了很多內(nèi)容,嫌疑人最終選擇了自己比較滿意的進行發(fā)布。

可以看到,這個造謠原理,基本已經(jīng)跟現(xiàn)在很火的職業(yè)“AI提示工程師”非常相近了。AI大模型帶來的底層邏輯變革之一,就是人類可以不用搜索和點擊來進行數(shù)字化交互,而是直接向AI提出需求,這一點也先被造謠者學會了。

而讓人啼笑皆非的是,這名嫌疑人提示AI制造的謠言,最終確實引發(fā)了關注。只不過在給造謠者帶來二三百元收益的同時,還帶來了法律的制裁。

有圖,沒真相

還有那么一些造謠者,他們想要造謠騙取流量或?qū)崿F(xiàn)其他目的,但苦于沒有能讓人信服的所謂“證據(jù)”。畢竟大多數(shù)網(wǎng)友也知道,空口無憑,有圖有真相,而一些謠言很快被拆穿,也是因為造謠者利用了此前網(wǎng)絡上已經(jīng)發(fā)布過的圖片。比如說前不久的某流量明星火速辟謠事件。

但如果能讓AI做出來看著有點真,此前又沒出現(xiàn)過的圖片,這個難題似乎也就攻克了。于是就有了用AI造謠的第三個動機:通過AIGC平臺來生成作為論據(jù)的圖片。

還記得今年年初在土耳其大地震期間,就有人在推特上散布謠言,稱自己是消防員、志愿者等,以此請求捐款。而信息中的配圖就是AIGC平臺合成的。由此可見,有圖有真相的時代真的已經(jīng)過去了。在今天,只要能夠熟練使用AIGC軟件,想要什么圖基本都是可行的,而且很可能以假亂真。

這里要說的是,AIGC圖片并沒有那么神。其擬真程度甚至比不過大部分PS高手。但問題是,PS并非人人都會,使用AIGC則只需要按教程學一遍就能上手。于是不少游手好閑者開始用AIGC制造“謠圖”,其中最惡心的一種,就是用AI來造黃謠。

不久前,《光明日報》就報道了一位女士在社交網(wǎng)絡上發(fā)現(xiàn)了用自己面容合成的不雅圖片。報道中還稱,相關的AI制圖工具堪稱唾手可得,并且還有人在社交平臺上兜售相關視頻、訂制換臉服務、販賣操作教學等。

用AI換臉的Deepfake技術堪稱屢禁不止,而AIGC平臺的出現(xiàn)還讓相關問題愈演愈烈。在一些缺乏監(jiān)管的海外AIGC平臺,用戶基本可以在無技術門檻的情況下獲得訂制化的不雅圖片。隨著AI技術的前進,造謠者的工具箱也確實更加豐富了。

如何對抗這股歪風邪氣?

奧爾波特在《謠言心理學》提出,想要限制謠言的傳播,需要做到三件事:法律上嚴懲不貸、社會中進行阻隔、公民具備謠言意識。

其實最近備受關注的AI造謠,本質(zhì)上與此前的網(wǎng)絡謠言基本沒有不同,唯一的變化就是造謠的門檻更底了,于是必然會有人覺得用AI造謠更加劃算。

歸根結(jié)底,大部分的AI造謠都是為流量和平臺分成而來。這種造謠其實原本也有,但如果想要做大做強,可能需要幾個寫手、幾個美工,有網(wǎng)絡運營和大數(shù)據(jù)分析人員。類似電影《孤注一擲》里,詐騙集團就按“千門八將”分了八個部門,其中就有專門散播謠言的“謠部”。

但對于絕大多數(shù)造謠者來說,目標都僅僅是流量,而不是詐騙、勒索、敲詐這種重大刑事犯罪,他們的賊心和賊膽都不夠,并且也不會寫,不會P圖。

于是對于他們來說,用AI來炮制謠言就顯得更加劃算,尤其在大模型出現(xiàn)之后,一個人就可以是一只謠言隊伍,基本不用分工協(xié)作。

想要讓這股AI造謠的歪風邪氣不再猖獗,也需要從這三個方面入手,讓AI造謠變得不再那么具有性價比。

首先當然是嚴懲不貸。從目前曝光的AI造謠案例中來看,大部分造謠者都是產(chǎn)生的影響很壞,但真正的收益很少。持續(xù)的犯罪打擊與案例宣傳,會讓更多造謠者與準造謠者看到,AI造謠雖然看似成本低,但其實是非常不具備性價比的一件事。

接下來是建立造謠者在炮制、傳播、獲利等環(huán)節(jié)中的社會阻隔。很多相關討論,都說可以用AI來檢測AI內(nèi)容,用魔法打敗魔法。事實上,這樣做當然可以,但技術上的實現(xiàn)空間很窄。比如說,讓AI炮制一條假新聞很容易,但要讓AI對比所有新聞數(shù)據(jù),然后確定某條信息是假的,這個技術難度相當大。AI檢測謠言工具,在一段時間內(nèi)將更多是輔助性質(zhì)。

想要從技術上建立造謠者與AI工具之間的組個,還是需要從AIGC工具上入手。讓AI模型知道自己在寫什么、生成什么圖片,一旦遇到不合理、不合法的內(nèi)容主動屏蔽,從而讓造謠者不能那么順利地應用AI。

與此同時,還需要在利益層建立給造謠者建立阻隔。大多數(shù)AI造謠案例的獲利方式都是平臺分成。那么我們是不是可以考慮唯流量論的分成體現(xiàn)機制是否過于簡單粗暴?且必然給謠言留下了滋生空間?畢竟沒人看狗咬人,都想看人咬狗。降低、甚至切斷這些毫無營養(yǎng)的謠言內(nèi)容獲利渠道,也是重要的社會阻隔方式。

最后才是用戶必須提高謠言意識。畢竟絕大多數(shù)人不是專家,不可能就看到的每條信息都考證二三,因此確實不能將太多分辨謠言的責任推給最終用戶。但至少我們需要知道,確實有AI炮制假新聞,AI偽造圖片這種可能性的存在。

另外還是想說,AI不可怕,用AI造謠也不可怕。心懷不軌之人,會利用一切可資利用的技術與工具。今天有AI,明天就有BI、CI,他們瞧上了AI,恰好說明AI確實已經(jīng)做到了可利用和低門檻,如果因此就懷疑和污名化AI,豈不就把它白白讓給了到處散德行的小人?

技術沒有好壞,人心才有。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

造個破謠而已,咋還用上AI了?

先了解,再破除。

文|腦極體

最近,央視等各大媒體紛紛曝光了全國多起用AI炮制網(wǎng)絡謠言的案例,其中涉及災害、安全事故、刑事案件等多類謠言內(nèi)容,造謠的方式更是從文案到圖片、視頻不一而足。

看到這樣的消息,總是會加重我們對AI的擔憂,聯(lián)想到此前的AI詐騙、deepfake等,AI仿佛是越來越壞了,至少它已經(jīng)變成了一種可以被不法分子利用的工具。

但也有網(wǎng)友問了,不就是造個謠嗎?這東西去村口轉(zhuǎn)一圈,聽大爺大媽聊一會,輕輕松松能收集個百八十條的,怎么還得用上AI這種高科技了?這不法分子是太懶了,還是過于缺乏想象力?

這其實是個很重要的問題,我們今天就通過這些已經(jīng)被公開報道的案例,來聊一聊用AI造謠背后的動機與行為邏輯。了解了這些之后,才能更有針對性、靈活性地遏制AI造謠。

正所謂恐懼源于未知。AI造謠這事,乍聽起來魔幻且恐怖。但如果我們逐層拆解它、了解它,會發(fā)現(xiàn)不過爾爾。

不必恐懼AI。就像火能帶來溫暖也能帶來火災,絕大多數(shù)技術都是雙刃劍。重點是誰來使用它,以及如何使用它。

從瞎編,到AI批量化高水準瞎編

在電影《保你平安》里,魏平安費勁千辛萬苦,最后發(fā)現(xiàn)謠言來源不過是為了幾塊錢在論壇隨便發(fā)了一句評論。

很多朋友看完電影覺得這樣的動機有點離譜,但從曝光出來的AI造謠案件中,我們會發(fā)現(xiàn)這種卑鄙且低端的行為還真不在少數(shù),只不過貪圖論壇幣的行為確實過分奇葩。大部分網(wǎng)絡造謠者的利益動機,還是希望獲取流量來換取平臺補貼并變現(xiàn),這也就導致他們需要在信息流或者短視頻平臺發(fā)布內(nèi)容。

要知道,這些平臺目前的流量補貼已經(jīng)很低了,而即使是聳人聽聞的謠言內(nèi)容,也需要標題、文案、圖片配合好,才能大差不差、以假亂真。結(jié)果往往是造謠者瞎編了半天,收益微乎其微。有這個能力和時間,可能還不如去找個文案、編輯類的工作來做。

這可怎么辦呢?于是就產(chǎn)生了造謠者選擇AI的第一個動機:更快、更簡單地編造謠言。

我們能在很多案例里發(fā)現(xiàn),用AI造謠并沒有什么神秘的,不法分子就是需要AI的簡單高效。根據(jù)《北京日報》8月1日報道,在一系列編造某地水災的網(wǎng)絡謠言背后,造謠者僅僅是利用手機瀏覽器自帶的AI文本生成功能,輸入了“暴雨”等相關關鍵詞,就得到了水災相關的新聞稿。

除了根據(jù)關鍵詞直接生成通稿,AI文本生成還可以對已有文案進行渲染。造謠者會命令AI,對懸疑、驚悚、情緒對立等內(nèi)容進行強化和夸大。由此生成看起來更真實細膩,且容易讓人相信的謠言內(nèi)容。換句話說,很多煞有介事的小作文原本要自己編,現(xiàn)在可以交給AI了。

還有一種用AI造謠的方法,是將原本的新聞進行移花接木。最近甘肅平?jīng)鍪泄剂艘黄鸢咐?,嫌疑人是通過AI軟件來大量篡改此前的新聞內(nèi)容。比如將新聞的地點、時間、人名進行替換,以此來批量制造謠言內(nèi)容。這些謠言大部分是某地發(fā)生了自然災害、交通事故、刑事案件。由于是批量制造,這些謠言涉及各個地方,加上不同地區(qū)的用戶會被算法推薦本地新聞,這些某某地發(fā)生水災、火災的謠言很容易產(chǎn)生流量。

歸根結(jié)底,AI技術在這些造謠事件中,起到的只是一個加速謠言生產(chǎn)的工具作用。假如沒有AI,這些人大概率也會想到這種編造謠言的方式,只不過需要自己一點點編輯加杜撰。又或許,AI寫稿能力的出現(xiàn),讓連造謠“辛苦”也不想吃的懶漢們找到了門徑。

我們無需污名化AI。AI加速文案生成,這個能力本身是有價值的,只是好人和壞人看到了它的不同應用方式。

貼合大數(shù)據(jù)需求的精準造謠

造謠者利用AI技術,僅僅只有一個動機嗎?其實也不盡然。

對于很多造謠者來說,有流量、有話題度就是他們的最終目標。無論是出于病態(tài)心理還是利益訴求,能讓人看的謠言才對于造謠者來說具有價值,但想要實現(xiàn)這事,可能還真不那么容易。造什么謠才能讓人想看呢?甚至于什么謠言才能在一大堆競品謠言中脫穎而出呢?以前這可能需要造謠者一個個關鍵詞,一個個謠言類型去嘗試,但現(xiàn)在情況開始改變了,造謠者可能不知道,但是AI知道啊,于是他們可以直接命令AI來做。

這就引出了用AI造謠的第二個動機:利用AI洞察大數(shù)據(jù)的能力。

用過生成式AI的朋友應該有所體會,如果你向AI提出諸如“文案里要有網(wǎng)絡梗”“文案要讓年輕人愛看”之類的需求,會發(fā)現(xiàn)很多時候AI比我們更懂網(wǎng)絡,更懂流量。甚至還可以讓AI生成“老年人愛看”“能引發(fā)中年焦慮”“能挑起性別話題”等內(nèi)容。

這背后的技術原理,就是大模型具有更好的泛化信息理解能力,可以將沒有直接關聯(lián)的信息按照語義結(jié)合在一起。顯然,造謠者對技術原理不感興趣,但很快掌握了大模型的應用竅門。

在河南鄭州市通報的一起案例中,嫌疑人就是通過對AI下命令,進行提示的方式獲得謠言內(nèi)容的。他要求AI生成的內(nèi)容要能吸引眼球,并且明確說明要讓年輕人看到。在這些提示關鍵詞的要求下,AI生成了很多內(nèi)容,嫌疑人最終選擇了自己比較滿意的進行發(fā)布。

可以看到,這個造謠原理,基本已經(jīng)跟現(xiàn)在很火的職業(yè)“AI提示工程師”非常相近了。AI大模型帶來的底層邏輯變革之一,就是人類可以不用搜索和點擊來進行數(shù)字化交互,而是直接向AI提出需求,這一點也先被造謠者學會了。

而讓人啼笑皆非的是,這名嫌疑人提示AI制造的謠言,最終確實引發(fā)了關注。只不過在給造謠者帶來二三百元收益的同時,還帶來了法律的制裁。

有圖,沒真相

還有那么一些造謠者,他們想要造謠騙取流量或?qū)崿F(xiàn)其他目的,但苦于沒有能讓人信服的所謂“證據(jù)”。畢竟大多數(shù)網(wǎng)友也知道,空口無憑,有圖有真相,而一些謠言很快被拆穿,也是因為造謠者利用了此前網(wǎng)絡上已經(jīng)發(fā)布過的圖片。比如說前不久的某流量明星火速辟謠事件。

但如果能讓AI做出來看著有點真,此前又沒出現(xiàn)過的圖片,這個難題似乎也就攻克了。于是就有了用AI造謠的第三個動機:通過AIGC平臺來生成作為論據(jù)的圖片。

還記得今年年初在土耳其大地震期間,就有人在推特上散布謠言,稱自己是消防員、志愿者等,以此請求捐款。而信息中的配圖就是AIGC平臺合成的。由此可見,有圖有真相的時代真的已經(jīng)過去了。在今天,只要能夠熟練使用AIGC軟件,想要什么圖基本都是可行的,而且很可能以假亂真。

這里要說的是,AIGC圖片并沒有那么神。其擬真程度甚至比不過大部分PS高手。但問題是,PS并非人人都會,使用AIGC則只需要按教程學一遍就能上手。于是不少游手好閑者開始用AIGC制造“謠圖”,其中最惡心的一種,就是用AI來造黃謠。

不久前,《光明日報》就報道了一位女士在社交網(wǎng)絡上發(fā)現(xiàn)了用自己面容合成的不雅圖片。報道中還稱,相關的AI制圖工具堪稱唾手可得,并且還有人在社交平臺上兜售相關視頻、訂制換臉服務、販賣操作教學等。

用AI換臉的Deepfake技術堪稱屢禁不止,而AIGC平臺的出現(xiàn)還讓相關問題愈演愈烈。在一些缺乏監(jiān)管的海外AIGC平臺,用戶基本可以在無技術門檻的情況下獲得訂制化的不雅圖片。隨著AI技術的前進,造謠者的工具箱也確實更加豐富了。

如何對抗這股歪風邪氣?

奧爾波特在《謠言心理學》提出,想要限制謠言的傳播,需要做到三件事:法律上嚴懲不貸、社會中進行阻隔、公民具備謠言意識。

其實最近備受關注的AI造謠,本質(zhì)上與此前的網(wǎng)絡謠言基本沒有不同,唯一的變化就是造謠的門檻更底了,于是必然會有人覺得用AI造謠更加劃算。

歸根結(jié)底,大部分的AI造謠都是為流量和平臺分成而來。這種造謠其實原本也有,但如果想要做大做強,可能需要幾個寫手、幾個美工,有網(wǎng)絡運營和大數(shù)據(jù)分析人員。類似電影《孤注一擲》里,詐騙集團就按“千門八將”分了八個部門,其中就有專門散播謠言的“謠部”。

但對于絕大多數(shù)造謠者來說,目標都僅僅是流量,而不是詐騙、勒索、敲詐這種重大刑事犯罪,他們的賊心和賊膽都不夠,并且也不會寫,不會P圖。

于是對于他們來說,用AI來炮制謠言就顯得更加劃算,尤其在大模型出現(xiàn)之后,一個人就可以是一只謠言隊伍,基本不用分工協(xié)作。

想要讓這股AI造謠的歪風邪氣不再猖獗,也需要從這三個方面入手,讓AI造謠變得不再那么具有性價比。

首先當然是嚴懲不貸。從目前曝光的AI造謠案例中來看,大部分造謠者都是產(chǎn)生的影響很壞,但真正的收益很少。持續(xù)的犯罪打擊與案例宣傳,會讓更多造謠者與準造謠者看到,AI造謠雖然看似成本低,但其實是非常不具備性價比的一件事。

接下來是建立造謠者在炮制、傳播、獲利等環(huán)節(jié)中的社會阻隔。很多相關討論,都說可以用AI來檢測AI內(nèi)容,用魔法打敗魔法。事實上,這樣做當然可以,但技術上的實現(xiàn)空間很窄。比如說,讓AI炮制一條假新聞很容易,但要讓AI對比所有新聞數(shù)據(jù),然后確定某條信息是假的,這個技術難度相當大。AI檢測謠言工具,在一段時間內(nèi)將更多是輔助性質(zhì)。

想要從技術上建立造謠者與AI工具之間的組個,還是需要從AIGC工具上入手。讓AI模型知道自己在寫什么、生成什么圖片,一旦遇到不合理、不合法的內(nèi)容主動屏蔽,從而讓造謠者不能那么順利地應用AI。

與此同時,還需要在利益層建立給造謠者建立阻隔。大多數(shù)AI造謠案例的獲利方式都是平臺分成。那么我們是不是可以考慮唯流量論的分成體現(xiàn)機制是否過于簡單粗暴?且必然給謠言留下了滋生空間?畢竟沒人看狗咬人,都想看人咬狗。降低、甚至切斷這些毫無營養(yǎng)的謠言內(nèi)容獲利渠道,也是重要的社會阻隔方式。

最后才是用戶必須提高謠言意識。畢竟絕大多數(shù)人不是專家,不可能就看到的每條信息都考證二三,因此確實不能將太多分辨謠言的責任推給最終用戶。但至少我們需要知道,確實有AI炮制假新聞,AI偽造圖片這種可能性的存在。

另外還是想說,AI不可怕,用AI造謠也不可怕。心懷不軌之人,會利用一切可資利用的技術與工具。今天有AI,明天就有BI、CI,他們瞧上了AI,恰好說明AI確實已經(jīng)做到了可利用和低門檻,如果因此就懷疑和污名化AI,豈不就把它白白讓給了到處散德行的小人?

技術沒有好壞,人心才有。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。