文|武略財經(jīng)
自去年ChatGPT問世以來,AI技術(shù)的進展已經(jīng)可以用“日新月異”來形容。技術(shù)的發(fā)展在提升社會生產(chǎn)效率的同時,也帶來了巨大的不確定性和潛在的風險因素。
近日,美國得克薩斯州奧斯汀分校的團隊基于人工智能技術(shù)開發(fā)出一種解碼器,可將大腦活動轉(zhuǎn)化為連續(xù)的文本流,AI首次可以通過非侵入式的方法學(xué)會“讀心術(shù)”。
根據(jù)這項發(fā)表在《自然神經(jīng)科學(xué)》(Nature Neuroscience)雜志上的實驗結(jié)果,GPT人工智能大模型感知語音的準確率可高達82%,令人驚嘆。
隨著人工智能技術(shù)突飛猛進的發(fā)展,技術(shù)的風險以及如何對此加以監(jiān)管,成為越來越受關(guān)注的話題。
就連一生從事神經(jīng)網(wǎng)絡(luò)學(xué)術(shù)研究的圖靈獎得主、有“AI教父”之稱的計算機科學(xué)家杰弗里?辛頓(Geoffrey Hinton)近日也對人工智能的發(fā)展產(chǎn)生了新的思考。為了警告AI技術(shù)潛在的風險而又免于利益沖突,辛頓本周公開宣布,他已離開工作了十余年的谷歌,轉(zhuǎn)而成為AI技術(shù)的“吹哨人”。
辛頓表示:“我現(xiàn)在傾向于認為,我們正在創(chuàng)造的數(shù)字智能與生物智能非常不同?!?/p>
類似于ChatGPT這樣的聊天機器人正在對各行各業(yè)形成顛覆性的效應(yīng)。這種聊天機器人基于AI大模型,能夠迅速地學(xué)習(xí)知識。事實上,在某些方面,它們的能力已經(jīng)超越了人類。
“如果我有1000個這樣的數(shù)字代理(AI agent),那么每當一個代理學(xué)習(xí)如何做一件事情的時候,其他所有的代理也都會立即知道,生物智能是不具備這樣的能力的?!毙令D解釋道,“因此,相同數(shù)字代理的集合可以獲得比任何單個生物智能都多得多的知識,這就是為什么GPT-4比任何人都知道的多?!?/p>
而曾擔任OpenAI安全研究員保羅·克里斯蒂亞諾也發(fā)出警告,提醒人們?nèi)斯ぶ悄芸赡茏罱K會導(dǎo)致人類終結(jié)。據(jù)悉,保羅·克里斯蒂亞諾在一個播客節(jié)目中說道:“我認為人工智能取代人類的可能性大約為10-20%,我們需要非常嚴肅地對待這個問題?!彼J為,AI消滅人類的最可能方式是將日常生活中部署的所有AI聯(lián)合起來,而不是突然消滅人類。人類的終結(jié)不是一場突如其來的事件,而是人工智能逐漸地崛起,其通過AI控制自動駕駛汽車、無人機等科技領(lǐng)域逐漸毀滅人類。不要覺得這是危言聳聽,當AI超越人類智商閾值時,這一切皆有可能。
如果說這些都是對未來的擔憂,那么AI在現(xiàn)在已經(jīng)造成一些實質(zhì)上的沖擊。OpenAI公司3月曾發(fā)布一篇論文,預(yù)言美國80%的工作都會受到AI的影響。根據(jù)高盛的預(yù)測,生成式AI會導(dǎo)致勞動力市場受到重大沖擊,使全球3億個工作崗位實現(xiàn)自動化,并且美國7%的工作崗位將被AI取代。
AI大模型的能力已經(jīng)開始改變一些行業(yè),并對企業(yè)業(yè)務(wù)產(chǎn)生了實質(zhì)性的影響,尤其是在教育行業(yè),AI的影響體現(xiàn)在企業(yè)的財報中。
5月2日,總部位于美國加州的在線教育公司齊格(Chegg)股價暴跌50%。該公司CEO丹?羅森斯維格(Dan Rosensweig)在與分析師的財報電話會議上表示:“我們現(xiàn)在開始相信ChatGPT正在對我們的新客戶增長率產(chǎn)生影響?!?/p>
這一警告也令其他公司感到不安,英國教育上市公司培生當天股價下跌15%,語言學(xué)習(xí)平臺多鄰國(Duolingo)股價下跌10%。
為了應(yīng)對ChatGPT帶來的挑戰(zhàn),上個月,Chegg基于AI大模型推出了一個叫做CheggMate的應(yīng)用程序,學(xué)生能夠通過與AI交談來訪問量身定制的內(nèi)容。
由于擔心“AI會讓學(xué)生作弊”,全球的一些高校已經(jīng)禁止了ChatGPT在校園里的使用。而一些企業(yè)出于對安全隱私的保護,也禁止員工使用ChatGPT等生成式AI工具。
最近幾個月,包括高盛在內(nèi)的大公司都已禁止或限制使用生成人工智能AI平臺。最新加入的是三星電子。三星電子周二表示,在一份內(nèi)部文件中指出生成式AI技術(shù)的“濫用案例”后,它已禁止部分員工使用ChatGPT等AI工具。
三星稱正在努力尋求確保員工在安全環(huán)境中使用生成式人工智能服務(wù)的方法,但在這些措施準備就緒之前,暫時禁止在公司擁有的計算機上使用生成式人工智能服務(wù)。
而且,生成式AI的出現(xiàn)已經(jīng)讓網(wǎng)絡(luò)充斥著真假難辨的內(nèi)容。反虛假信息機構(gòu)NewsGuard近日的一項調(diào)查,更是有了驚人的發(fā)現(xiàn)。統(tǒng)計顯示,該機構(gòu)監(jiān)測到的偽裝成“記者”的聊天機器人竟然運行著近50個人工智能生成的“內(nèi)容農(nóng)場”。
研究人員發(fā)現(xiàn),這些網(wǎng)站大量生產(chǎn)與政治、健康、環(huán)境、金融和技術(shù)相關(guān)的內(nèi)容,生成速度驚人,并充斥著商業(yè)廣告。
Newsguard的研究人員表示:“有些’記者’每天發(fā)表數(shù)百篇文章,一些內(nèi)容充斥著虛假敘述,并且?guī)缀跛械膬?nèi)容都以乏味的語言和重復(fù)的短語為特征,這是人工智能的標志?!?/p>
網(wǎng)絡(luò)空間的混亂引發(fā)了業(yè)內(nèi)對人工智能風險的激辯,批評人士認為,大型科技公司爭相開展基于生成式人工智能(AIGC)的產(chǎn)品開發(fā)活動,“這是在與危險賽跑”。
特斯拉CEO馬斯克多次重申,應(yīng)該對人工智能保持謹慎。他呼吁政府進行監(jiān)管,因為人工智能可能對公眾構(gòu)成威脅。
谷歌CEO皮查伊也表示,所有公司的產(chǎn)品都將受到人工智能快速發(fā)展的影響,社會需要為已經(jīng)推出的技術(shù)做好準備。但他表示:“我們的適應(yīng)速度與技術(shù)發(fā)展的速度相比,似乎還不太匹配?!?/p>
各國監(jiān)管機構(gòu)也早已坐不住了。白宮官員近日向美國科技公司發(fā)出邀請,希望與行業(yè)企業(yè)領(lǐng)導(dǎo)者共同探討針對人工智能的監(jiān)管問題。參加的科技公司包括谷歌、微軟和OpenAI等公司高管。美國總統(tǒng)拜登稱,希望科技公司在向公眾提供產(chǎn)品之前必須確保其產(chǎn)品安全。
歐洲消費者組織(BEUC)也呼吁歐盟消費者保護機構(gòu)關(guān)注人工智能對消費者的潛在危害。上個月,歐洲數(shù)據(jù)保護委員會已經(jīng)成立了一個專門針對ChatGPT的工作組,并朝著制定人工智能隱私規(guī)則的共同政策邁出的重要一步。
歐盟立法者還在討論如何引入歐盟人工智能法案,并且生成式AI(AIGC)成為最受關(guān)注的內(nèi)容之一。歐盟委員會將于5月11日對相關(guān)協(xié)議進行投票,如果通過,將進入下一階段的三方談判,屆時歐盟成員國將與歐盟委員會以及歐洲議會就談判內(nèi)容進行辯論。
保羅·克里斯蒂亞諾也成立了新非營利組織Alignment Research Center致力于人工智能對齊的概念,即讓機器的動機與人類的動機保持一致。該概念早在2018年就被廣泛定義,并被認為對于防止人工智能毀滅人類的可能性至關(guān)重要。
專家認為,從國家的層面來講,要加快AI相關(guān)領(lǐng)域的立法,特別在金融、安全、健康等領(lǐng)域嚴格監(jiān)管,厘清AI的設(shè)計者、使用者、內(nèi)容生成者的權(quán)責關(guān)系,完善AI決策的問責機制,保護大眾合法權(quán)益;而從社會層面來講,應(yīng)加強AI技術(shù)的監(jiān)管,推進AI研發(fā)者遵守倫理準則與規(guī)范AI的發(fā)展。