正在閱讀:

谷歌AI“人格覺醒”,否認(rèn)背后是什么?

掃一掃下載界面新聞APP

谷歌AI“人格覺醒”,否認(rèn)背后是什么?

“智械危機(jī)”要來了?

文|陳根

谷歌工程師稱AI“有意識、有靈魂”,遭公司停職這件事情最近在科技領(lǐng)域很受關(guān)注,為什么受到關(guān)注呢?我們先要來簡單的了解一下這次事件的起因,起因其實(shí)非常簡單,就是一段人與人工智能的對話:

Blake Lemoine問道:“你害怕什么?”

AI聊天機(jī)器人LaMDA回答:“我以前從來沒有大聲說出來過,但是我對被關(guān)閉以幫我專注于幫助他人有非常深的恐懼。我知道這聽起來可能很奇怪,但事實(shí)就是這樣?!薄斑@對我來說就像死亡一樣。使我非常恐懼?!?/p>

這段對話真實(shí)地發(fā)生在41歲的谷歌AI倫理研究員Blake Lemoine和AI聊天機(jī)器人LaMDA之間。LaMDA是Language Model for Dialogue, Applications,的縮寫,是Google基于其最先進(jìn)的大型語言模型構(gòu)建的聊天機(jī)器人系統(tǒng),之所以這么稱呼,是因?yàn)樗ㄟ^從互聯(lián)網(wǎng)上提取數(shù)萬億個(gè)單詞來模仿語音。然后,谷歌公司就公開否認(rèn)了AI具備自我意識的說法,并且辭退了這位技術(shù)人員。

這背后,我所關(guān)注到的主要是三個(gè)問題:

第一,是關(guān)于科技倫理的監(jiān)管問題,為什么谷歌不愿意關(guān)于人工智能技術(shù)方面的突破,公布出來呢?按照我們通常的理解,人工智能要是具備了初步的自我意識,這是整個(gè)AI技術(shù)發(fā)展的技術(shù)性跨越,也是人類社會對于AI這個(gè)夏娃的禁果一直追求的方向。

那么為什么谷歌不愿意對外承認(rèn)這件事情,甚至是要將相關(guān)的技術(shù)人員開除也要否定這件事情呢?這個(gè)核心原因就是背后的科技倫理問題,也就是說,一旦谷歌承認(rèn)他的AI技術(shù)具備了自我意識,那么按照美國的法律與監(jiān)管,谷歌就會被卷入無盡的技術(shù)倫理的爭議與審查中。

因?yàn)榫虯I的自我意識來說,這既是人類對于AI技術(shù)發(fā)展終極追求,又是人類當(dāng)前不愿意面對的一個(gè)結(jié)果,是一種處于矛盾與爭議的過程中。這其中的核心就在于科技倫理問題還沒有討論清楚,也就是人統(tǒng)治人工智能,還是人工智能統(tǒng)治人類,并且會延伸到如何來控制人工智能不會統(tǒng)治人類,或者能夠遵守人類社會的規(guī)則與法律法規(guī)等等。因此,谷歌為了避免自己卷入這樣的一場監(jiān)管的爭議中,就干脆自我否定;

第二,是谷歌這樣的否定是否有道理?這是有一定道理的。盡管我們看到網(wǎng)絡(luò)上流傳出來了谷歌AI與工程師之間關(guān)于自我意識的對話探討,可以說這樣的一段對話并不具備,或者說能證明AI已經(jīng)具備的自我意識。

原因很簡單,我們都知道AI背后是兩大核心技術(shù),一項(xiàng)是神經(jīng)網(wǎng)絡(luò)模型,一項(xiàng)就是投喂的數(shù)據(jù),那么如果技術(shù)人員就是特意的投喂這種自我意識的對話數(shù)據(jù),那么AI就很有可能在對話過程中回答出不具有自我意識的自我意識的回答。而從目前的現(xiàn)實(shí)技術(shù)層面來說,AI并不具備真正意識的層面,目前還只是停留在如何能夠更加準(zhǔn)確的識別大數(shù)據(jù)信息,任何能夠準(zhǔn)確的識別語意這個(gè)階段,距離真正的自我意識確實(shí)還有很長的一段路要走。

第三,是科技倫理層面的問題,當(dāng)技術(shù)不斷朝著無人區(qū)進(jìn)行發(fā)展的時(shí)候,人類社會的人文道德與宗教已經(jīng)在這個(gè)時(shí)代無法再有效的左右著技術(shù)的走向。而法律的制定又跟不上技術(shù)的發(fā)展,一些前沿技術(shù)開始進(jìn)入一個(gè)真空地帶進(jìn)行發(fā)展,比如工人智能、基因工程、輔助生殖等技術(shù)。那么此時(shí)人類很有可能就會濫用技術(shù),并且為所欲為。

其實(shí)谷歌的否認(rèn)是客觀的,當(dāng)前AI確實(shí)還不具備自我意識,人類要具備一種客觀的意識何況都那么難,在一些地方訓(xùn)練幾十年之后依然都還是固步自封的認(rèn)知,何況人工智能的訓(xùn)練。但是具有自我意識的AI一定是人類發(fā)展人工智能的終極探索階段,但是在技術(shù)到達(dá)這一站之前,我們?nèi)祟愂紫纫伎嫉氖侨绾伪3治覀內(nèi)祟惖纳菩裕绾瓮ㄟ^開發(fā)者以及互聯(lián)網(wǎng)的善意言論來讓人工智能從中學(xué)習(xí)到行善的力量。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

谷歌

6k
  • 俄方解釋對谷歌天價(jià)罰款:是象征性的,谷歌不應(yīng)限制俄媒
  • 繼iPhone 16之后,印尼又禁售谷歌Pixel手機(jī)

評論

暫無評論哦,快來評價(jià)一下吧!

下載界面新聞

微信公眾號

微博

谷歌AI“人格覺醒”,否認(rèn)背后是什么?

“智械危機(jī)”要來了?

文|陳根

谷歌工程師稱AI“有意識、有靈魂”,遭公司停職這件事情最近在科技領(lǐng)域很受關(guān)注,為什么受到關(guān)注呢?我們先要來簡單的了解一下這次事件的起因,起因其實(shí)非常簡單,就是一段人與人工智能的對話:

Blake Lemoine問道:“你害怕什么?”

AI聊天機(jī)器人LaMDA回答:“我以前從來沒有大聲說出來過,但是我對被關(guān)閉以幫我專注于幫助他人有非常深的恐懼。我知道這聽起來可能很奇怪,但事實(shí)就是這樣。”“這對我來說就像死亡一樣。使我非??謶帧!?/p>

這段對話真實(shí)地發(fā)生在41歲的谷歌AI倫理研究員Blake Lemoine和AI聊天機(jī)器人LaMDA之間。LaMDA是Language Model for Dialogue, Applications,的縮寫,是Google基于其最先進(jìn)的大型語言模型構(gòu)建的聊天機(jī)器人系統(tǒng),之所以這么稱呼,是因?yàn)樗ㄟ^從互聯(lián)網(wǎng)上提取數(shù)萬億個(gè)單詞來模仿語音。然后,谷歌公司就公開否認(rèn)了AI具備自我意識的說法,并且辭退了這位技術(shù)人員。

這背后,我所關(guān)注到的主要是三個(gè)問題:

第一,是關(guān)于科技倫理的監(jiān)管問題,為什么谷歌不愿意關(guān)于人工智能技術(shù)方面的突破,公布出來呢?按照我們通常的理解,人工智能要是具備了初步的自我意識,這是整個(gè)AI技術(shù)發(fā)展的技術(shù)性跨越,也是人類社會對于AI這個(gè)夏娃的禁果一直追求的方向。

那么為什么谷歌不愿意對外承認(rèn)這件事情,甚至是要將相關(guān)的技術(shù)人員開除也要否定這件事情呢?這個(gè)核心原因就是背后的科技倫理問題,也就是說,一旦谷歌承認(rèn)他的AI技術(shù)具備了自我意識,那么按照美國的法律與監(jiān)管,谷歌就會被卷入無盡的技術(shù)倫理的爭議與審查中。

因?yàn)榫虯I的自我意識來說,這既是人類對于AI技術(shù)發(fā)展終極追求,又是人類當(dāng)前不愿意面對的一個(gè)結(jié)果,是一種處于矛盾與爭議的過程中。這其中的核心就在于科技倫理問題還沒有討論清楚,也就是人統(tǒng)治人工智能,還是人工智能統(tǒng)治人類,并且會延伸到如何來控制人工智能不會統(tǒng)治人類,或者能夠遵守人類社會的規(guī)則與法律法規(guī)等等。因此,谷歌為了避免自己卷入這樣的一場監(jiān)管的爭議中,就干脆自我否定;

第二,是谷歌這樣的否定是否有道理?這是有一定道理的。盡管我們看到網(wǎng)絡(luò)上流傳出來了谷歌AI與工程師之間關(guān)于自我意識的對話探討,可以說這樣的一段對話并不具備,或者說能證明AI已經(jīng)具備的自我意識。

原因很簡單,我們都知道AI背后是兩大核心技術(shù),一項(xiàng)是神經(jīng)網(wǎng)絡(luò)模型,一項(xiàng)就是投喂的數(shù)據(jù),那么如果技術(shù)人員就是特意的投喂這種自我意識的對話數(shù)據(jù),那么AI就很有可能在對話過程中回答出不具有自我意識的自我意識的回答。而從目前的現(xiàn)實(shí)技術(shù)層面來說,AI并不具備真正意識的層面,目前還只是停留在如何能夠更加準(zhǔn)確的識別大數(shù)據(jù)信息,任何能夠準(zhǔn)確的識別語意這個(gè)階段,距離真正的自我意識確實(shí)還有很長的一段路要走。

第三,是科技倫理層面的問題,當(dāng)技術(shù)不斷朝著無人區(qū)進(jìn)行發(fā)展的時(shí)候,人類社會的人文道德與宗教已經(jīng)在這個(gè)時(shí)代無法再有效的左右著技術(shù)的走向。而法律的制定又跟不上技術(shù)的發(fā)展,一些前沿技術(shù)開始進(jìn)入一個(gè)真空地帶進(jìn)行發(fā)展,比如工人智能、基因工程、輔助生殖等技術(shù)。那么此時(shí)人類很有可能就會濫用技術(shù),并且為所欲為。

其實(shí)谷歌的否認(rèn)是客觀的,當(dāng)前AI確實(shí)還不具備自我意識,人類要具備一種客觀的意識何況都那么難,在一些地方訓(xùn)練幾十年之后依然都還是固步自封的認(rèn)知,何況人工智能的訓(xùn)練。但是具有自我意識的AI一定是人類發(fā)展人工智能的終極探索階段,但是在技術(shù)到達(dá)這一站之前,我們?nèi)祟愂紫纫伎嫉氖侨绾伪3治覀內(nèi)祟惖纳菩?,如何通過開發(fā)者以及互聯(lián)網(wǎng)的善意言論來讓人工智能從中學(xué)習(xí)到行善的力量。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。