正在閱讀:

十年,谷歌是如何在聊天機器人競賽中落后微軟的?

掃一掃下載界面新聞APP

十年,谷歌是如何在聊天機器人競賽中落后微軟的?

谷歌對AI太過謹慎,給了微軟可乘之機。

編譯|智東西 吳菲凝

編輯|李水青

智東西3月9日報道,近日,外媒華爾街日報記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機器人的發(fā)展歷程,研發(fā)時間竟然已經(jīng)長達十年之久。在此期間,該項目更是經(jīng)歷了反復審查失敗、多次更名和多位核心人員離職等波折。

谷歌的聊天機器人投入可以追溯到2013年,而后研發(fā)出一款名為Meena的聊天機器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進展,至今產(chǎn)品仍未公開發(fā)布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走紅之后,谷歌匆忙公開了自己名為Bard的聊天機器人,但其卻在公開展示視頻中意外“翻車”。

華爾街日報兩名記者認為,谷歌此前對待AI的態(tài)度太過于謹慎,以至于現(xiàn)在陷到一個“起大早,趕晚集”的尷尬境地,為競爭對手微軟提供了可乘之機。

在谷歌內(nèi)部,高管們認為,谷歌必須保證AI技術足夠安全才能夠推向公眾。

01 兩年前聊天機器人已面世,因安全問題隱而未發(fā)

谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機器人Meena的研發(fā),據(jù)稱所使用的技術遠勝于當時其他任何技術。他們開發(fā)出的對話式計算機程序可以像人一樣自信地談論哲學,還能即興創(chuàng)作出一些雙關語。

據(jù)知情人士透露,這兩位研究人員向同事們稱,聊天機器人在AI的不斷進步的推動下,未來將徹底顛覆人們使用搜索引擎和與計算機交互的方式。

他們敦促谷歌向外部研究人員提供Meena的訪問權限,試圖將其集成到Google Assistant智能助手中,還要求谷歌公開演示這款機器人。

但谷歌高管多次明確拒絕了他們,高管認為該計劃不符合公司對AI系統(tǒng)安全性和公平性的標準。

谷歌這種拒絕公開發(fā)布的謹慎態(tài)度,主要是由于長年以來外界對于公司在AI方面的爭議。從關于AI的準確性和公正性的內(nèi)部爭論,再到公司去年公開解雇了一名聲稱AI已經(jīng)獲得人類感知的員工,谷歌一直處于輿論的風口浪尖之上。

據(jù)前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔心公開演示AI產(chǎn)品可能對公司聲譽和搜索廣告業(yè)務構成風險。據(jù)悉,谷歌母公司Alphabet去年營收近2830億美元,其中大部分收入來自搜索引擎廣告投放業(yè)務。

前谷歌產(chǎn)品經(jīng)理高拉夫·內(nèi)馬德(Gaurav Nemade)說:“谷歌正在努力在承擔風險和保持全球領導地位之間找到平衡。”

谷歌的謹慎態(tài)度如今看來是明智之舉。二月份時微軟曾宣布,針對于聊天機器人發(fā)表敏感言論的用戶報告反饋,未來將對機器人施加更多新限制。微軟高層解釋,當應用程序運轉到難以負荷時,它可能會出現(xiàn)“精神錯亂”的現(xiàn)象。

在上月一封發(fā)給全體員工的郵件中,Alphabet和谷歌的首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)稱:“一些最成功的產(chǎn)品并不是第一個推向市場,但卻能慢慢贏得用戶的信任。”他寫道,“這將是一段漫長的旅程——對每個人來說,都是如此。我們現(xiàn)在能做的最重要的事情是專注于打造一款偉大的產(chǎn)品,并負責任地開發(fā)它。”

02 十年秘密研發(fā):多次審查不過、內(nèi)部禁止,最終改名

谷歌在聊天機器人方面做出的努力可以追溯到2013年。

時任谷歌聯(lián)合創(chuàng)始人兼首席執(zhí)行官的拉里·佩奇(Larry Page)聘請了計算機科學家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個前所未有的概念“技術奇點”:即機器終有一天將超越人類的智慧。

此外,谷歌還收購了英國人工智能公司DeepMind,該公司同樣致力于創(chuàng)建通用AI或可以反映人類心理能力的軟件。

但與此同時,學者和技術專家開始對AI提出擔憂,比如它有可能通過面部識別軟件實現(xiàn)大規(guī)模監(jiān)控,他們開始向谷歌等科技公司施壓,要求他們承諾不會將某些技術用作非法途徑。

2015年,包括馬斯克在內(nèi)的一群科技企業(yè)家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確保AI不會成為企業(yè)利益的犧牲品,而是用于造福人類。

此前,谷歌與美國國防部擬定的一項名為“Project Maven”的合同遭到了員工的強烈反對,因為該合同涉及到使用AI自動識別并跟蹤潛在的無人機,谷歌最終放棄了這個項目。直至2018年,谷歌宣布承認不會將AI技術應用于軍事武器制造方面。

除此之外,CEO皮查伊還宣布了一套指導谷歌運作的7項AI原則,旨在限制不公正技術的傳播,比如人工智能工具應該對人負責,并“為安全而構建和測試”。

多年來,谷歌這款名為Meena的聊天機器人項目一直處于保密狀態(tài)中。一部分內(nèi)部員工對這類程序的風險表示擔憂,因為2016年時微軟曾因為一款名為Tay聊天機器人的誤導性回答,最終被迫終止公開發(fā)布。

直至2020年,外界才對Meena有所了解。在谷歌發(fā)布的一項研究論文當中稱,Meena已經(jīng)從公開的社交媒體對話中學習了近400億個單詞。而競爭對手OpenAI同樣開發(fā)了一個基于800萬個網(wǎng)頁的類似模型GPT-8。

在谷歌,Meena背后的團隊也希望能早日發(fā)布他們的工具,即使只是像OpenAI那樣以有限的格式發(fā)布。但谷歌高管們多次拒絕了這一提議,據(jù)前谷歌產(chǎn)品經(jīng)理內(nèi)馬德稱,他們給出的理由是聊天機器人不符合谷歌關于安全和公平的AI原則。

谷歌發(fā)言人稱,多年來,Meena經(jīng)過了無數(shù)次審查,但一直因為各種原因而被禁止進行更廣泛的發(fā)布。Google Brain人工智能研究部門的軟件工程師沙澤爾加入了這個項目,他們將Meena更名為LaMDA,意為“用于對話應用程序的語言模型”。團隊還為賦予了LaMDA更多的數(shù)據(jù)和計算能力。

然而,他們的技術很快引發(fā)了廣泛爭議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關于LaMDA等項目固有風險的研究論文而被解雇。谷歌則澄清該員工并未被解雇,并聲稱她的研究不夠嚴謹。

谷歌研究主管杰夫·迪恩(Jeff Dean)稱,谷歌將繼續(xù)投資對大眾負責的AI項目。

2021年5月,公司公開承諾會將AI道德小組的規(guī)模擴大一倍。

在一周后,皮查伊在公司年會上登臺,展示了兩段預先錄制的與LaMDA的對話,LaMDA根據(jù)命令對問題作出回應。據(jù)知情人士稱,谷歌研究人員在會議召開前幾天準備了這些問答案例,并在最后一刻向皮查伊演示。谷歌一再強調(diào)自身將努力使聊天機器人更加準確,并最大限度地減少其被濫用的機會。

谷歌的兩位副總裁當時在一篇博客文章中寫道:“在創(chuàng)建像LaMDA這樣的技術時,我們的首要任務是努力確保將風險降至最低。”

03 核心人員離職、工程師被解雇,微軟ChatGPT背刺谷歌

2020年時,弗里塔斯和沙澤爾還在研究如何將LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手機Pixel和家庭音箱系統(tǒng)上首次推出的一款軟件應用程序,每月有超過5億人使用Google Assistant來執(zhí)行一些基礎任務,比如查看天氣和安排約會。

知情人士稱,谷歌不愿向公眾發(fā)布LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,并使用類似技術建立一家自己的初創(chuàng)公司。中途皮查伊多次干預,要求兩人留下來繼續(xù)研究LaMDA,但卻沒有向他們承諾何時將會發(fā)布。

2021年,弗雷塔斯和沙澤爾正式離開谷歌,并于當年11月成立了初創(chuàng)公司Character Technologies。他們研發(fā)的AI軟件Character于2022年正式發(fā)布,該軟件允許用戶創(chuàng)建聊天機器人并與之互動,機器人甚至可以以蘇格拉底等知名人物的口吻與用戶對話。

“這款軟件的發(fā)布在谷歌內(nèi)部引起了一些轟動。”沙澤爾在YouTube的一段采訪中稱。在他看來,作為一家小初創(chuàng)公司來推出這款軟件可能更加幸運。

2022年5月,谷歌考慮在當月的旗艦會議上發(fā)布LaMDA。而據(jù)谷歌解雇的一名工程師布萊克·勒莫因(Blake Lemoine)后來透露,被解雇是因為他在社交平臺上發(fā)布了與聊天機器人的對話,并聲稱它是有知覺的。

在勒莫因發(fā)布的內(nèi)容引發(fā)廣泛爭議之后,谷歌取消了原本的發(fā)布安排。谷歌表示,勒莫因的公開披露違反了就業(yè)和數(shù)據(jù)安全政策,因此公司需要做出保守起見的安排。

自從微軟與OpenAI達成新協(xié)議以來,谷歌一直在努力向大眾展示自己作為AI創(chuàng)造者的行業(yè)地位。

在今年ChatGPT首次亮相后,谷歌也準備公開發(fā)布自己的聊天機器人Bard,該機器人部分技術基于弗雷塔斯和沙澤爾當年的研究,它搜集從網(wǎng)絡中獲取的信息,再以對話形式回答問題。谷歌在一次公開活動中表明,原計劃是想對Bard的區(qū)域性搜索功能更進一步的探討,讓媒體和公眾對Bard有新的認識,知曉它是一個使用類似LaMDA的AI技術來回應輸入文本的搜索工具。

據(jù)谷歌高層稱,谷歌經(jīng)常會重新評估發(fā)布一款產(chǎn)品的條件,但由于現(xiàn)在面臨太多的外界刺激,才在一個并不十全十美的情況下發(fā)布。

谷歌搜索副總裁伊麗莎白·里德(Elizabeth Reid)在接受采訪時稱,自去年年初以來,谷歌也對搜索產(chǎn)品進行了內(nèi)部演示,這些產(chǎn)品也整合了LaMDA等生成式AI的響應。

谷歌認為生成式AI最有用的搜索用途之一,是在沒有標準正確答案下進行的問題搜索,他們將其稱為“NORA”。里德說,傳統(tǒng)的搜索功能可能已經(jīng)滿足不了現(xiàn)在的用戶了,谷歌還看到了其他復雜搜索的潛在可能,比如說解一個數(shù)學題。

高管們說,和其它類似項目一樣,最大的問題是它的準確性。使用這些搜索工具的人說,基于LaMDA技術構建的工具在某些情況下會給出一些偏離主題的回答。

同樣,微軟新版Bing在上個月已經(jīng)發(fā)布,對于此前用戶報告的與聊天機器人之間產(chǎn)生的令人不安的對話,將會通過限制聊天時間的方式來減少機器人發(fā)出攻擊性或令人毛骨悚然的反應的機會。

谷歌和微軟都承認自己的聊天機器人還存在很多不準確的地方。

在談到像LaMDA這樣的語言模型時,里德認為像是“在和一個孩子說話”,當一個小孩子給不出大人想要的答案時,他會編造出一個聽上去合理的答案來應對。

谷歌未來還將繼續(xù)微調(diào)其模型,包括訓練模型承認自己不知道答案而不是編一個。

04 結語:AI領導者谷歌首戰(zhàn)失意,微軟略占上風

谷歌聊天機器人的研發(fā)自2013年起步,2017年時已實現(xiàn)了重大的技術突破——神經(jīng)網(wǎng)絡系統(tǒng)Transformer,這也是ChatGPT所用到的底層技術,隨后又發(fā)布了預訓練大模型BERT;21年,微軟發(fā)布了ChatGPT的前身GPT-3,谷歌緊接著發(fā)布了預訓練模型LaMDA,展示出自然的對話能力;如今,Bard也即將依托LaMDA的輕量級模型版本發(fā)布,谷歌在與微軟的較量中加快步伐。

長期以來的輿論壓力、層層加壓的安全審查,以及裁員后嚴重的人才流失情況,讓谷歌進入到一個短暫的業(yè)務疲軟時期,整體業(yè)績下滑。但從長期來看,谷歌并未輸?shù)暨@場巨頭之爭,它所擁有的LLM(語言大模型)團隊和定制芯片,在市場上難尋敵手。

與此同時,我們也不難發(fā)現(xiàn),大模型和生成式AI的產(chǎn)業(yè)落地必然是場艱難長跑,巨頭們在技術、產(chǎn)品、生態(tài)、安全等多方面面臨的壓力重重,隨著生成式AI大規(guī)模接入應用程序當中,穩(wěn)定性和可靠性也將成為用戶更看中的評判標準,也更考驗各家基礎設施的能力。

本文為轉載內(nèi)容,授權事宜請聯(lián)系原著作權人。

谷歌

6k
  • 俄方解釋對谷歌天價罰款:是象征性的,谷歌不應限制俄媒
  • 繼iPhone 16之后,印尼又禁售谷歌Pixel手機

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

十年,谷歌是如何在聊天機器人競賽中落后微軟的?

谷歌對AI太過謹慎,給了微軟可乘之機。

編譯|智東西 吳菲凝

編輯|李水青

智東西3月9日報道,近日,外媒華爾街日報記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機器人的發(fā)展歷程,研發(fā)時間竟然已經(jīng)長達十年之久。在此期間,該項目更是經(jīng)歷了反復審查失敗、多次更名和多位核心人員離職等波折。

谷歌的聊天機器人投入可以追溯到2013年,而后研發(fā)出一款名為Meena的聊天機器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進展,至今產(chǎn)品仍未公開發(fā)布。2022年底,在OpenAI旗下的ChatGPT亮相并迅速走紅之后,谷歌匆忙公開了自己名為Bard的聊天機器人,但其卻在公開展示視頻中意外“翻車”。

華爾街日報兩名記者認為,谷歌此前對待AI的態(tài)度太過于謹慎,以至于現(xiàn)在陷到一個“起大早,趕晚集”的尷尬境地,為競爭對手微軟提供了可乘之機。

在谷歌內(nèi)部,高管們認為,谷歌必須保證AI技術足夠安全才能夠推向公眾。

01 兩年前聊天機器人已面世,因安全問題隱而未發(fā)

谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機器人Meena的研發(fā),據(jù)稱所使用的技術遠勝于當時其他任何技術。他們開發(fā)出的對話式計算機程序可以像人一樣自信地談論哲學,還能即興創(chuàng)作出一些雙關語。

據(jù)知情人士透露,這兩位研究人員向同事們稱,聊天機器人在AI的不斷進步的推動下,未來將徹底顛覆人們使用搜索引擎和與計算機交互的方式。

他們敦促谷歌向外部研究人員提供Meena的訪問權限,試圖將其集成到Google Assistant智能助手中,還要求谷歌公開演示這款機器人。

但谷歌高管多次明確拒絕了他們,高管認為該計劃不符合公司對AI系統(tǒng)安全性和公平性的標準。

谷歌這種拒絕公開發(fā)布的謹慎態(tài)度,主要是由于長年以來外界對于公司在AI方面的爭議。從關于AI的準確性和公正性的內(nèi)部爭論,再到公司去年公開解雇了一名聲稱AI已經(jīng)獲得人類感知的員工,谷歌一直處于輿論的風口浪尖之上。

據(jù)前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔心公開演示AI產(chǎn)品可能對公司聲譽和搜索廣告業(yè)務構成風險。據(jù)悉,谷歌母公司Alphabet去年營收近2830億美元,其中大部分收入來自搜索引擎廣告投放業(yè)務。

前谷歌產(chǎn)品經(jīng)理高拉夫·內(nèi)馬德(Gaurav Nemade)說:“谷歌正在努力在承擔風險和保持全球領導地位之間找到平衡。”

谷歌的謹慎態(tài)度如今看來是明智之舉。二月份時微軟曾宣布,針對于聊天機器人發(fā)表敏感言論的用戶報告反饋,未來將對機器人施加更多新限制。微軟高層解釋,當應用程序運轉到難以負荷時,它可能會出現(xiàn)“精神錯亂”的現(xiàn)象。

在上月一封發(fā)給全體員工的郵件中,Alphabet和谷歌的首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)稱:“一些最成功的產(chǎn)品并不是第一個推向市場,但卻能慢慢贏得用戶的信任?!彼麑懙?,“這將是一段漫長的旅程——對每個人來說,都是如此。我們現(xiàn)在能做的最重要的事情是專注于打造一款偉大的產(chǎn)品,并負責任地開發(fā)它?!?/p>

02 十年秘密研發(fā):多次審查不過、內(nèi)部禁止,最終改名

谷歌在聊天機器人方面做出的努力可以追溯到2013年。

時任谷歌聯(lián)合創(chuàng)始人兼首席執(zhí)行官的拉里·佩奇(Larry Page)聘請了計算機科學家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個前所未有的概念“技術奇點”:即機器終有一天將超越人類的智慧。

此外,谷歌還收購了英國人工智能公司DeepMind,該公司同樣致力于創(chuàng)建通用AI或可以反映人類心理能力的軟件。

但與此同時,學者和技術專家開始對AI提出擔憂,比如它有可能通過面部識別軟件實現(xiàn)大規(guī)模監(jiān)控,他們開始向谷歌等科技公司施壓,要求他們承諾不會將某些技術用作非法途徑。

2015年,包括馬斯克在內(nèi)的一群科技企業(yè)家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確保AI不會成為企業(yè)利益的犧牲品,而是用于造福人類。

此前,谷歌與美國國防部擬定的一項名為“Project Maven”的合同遭到了員工的強烈反對,因為該合同涉及到使用AI自動識別并跟蹤潛在的無人機,谷歌最終放棄了這個項目。直至2018年,谷歌宣布承認不會將AI技術應用于軍事武器制造方面。

除此之外,CEO皮查伊還宣布了一套指導谷歌運作的7項AI原則,旨在限制不公正技術的傳播,比如人工智能工具應該對人負責,并“為安全而構建和測試”。

多年來,谷歌這款名為Meena的聊天機器人項目一直處于保密狀態(tài)中。一部分內(nèi)部員工對這類程序的風險表示擔憂,因為2016年時微軟曾因為一款名為Tay聊天機器人的誤導性回答,最終被迫終止公開發(fā)布。

直至2020年,外界才對Meena有所了解。在谷歌發(fā)布的一項研究論文當中稱,Meena已經(jīng)從公開的社交媒體對話中學習了近400億個單詞。而競爭對手OpenAI同樣開發(fā)了一個基于800萬個網(wǎng)頁的類似模型GPT-8。

在谷歌,Meena背后的團隊也希望能早日發(fā)布他們的工具,即使只是像OpenAI那樣以有限的格式發(fā)布。但谷歌高管們多次拒絕了這一提議,據(jù)前谷歌產(chǎn)品經(jīng)理內(nèi)馬德稱,他們給出的理由是聊天機器人不符合谷歌關于安全和公平的AI原則。

谷歌發(fā)言人稱,多年來,Meena經(jīng)過了無數(shù)次審查,但一直因為各種原因而被禁止進行更廣泛的發(fā)布。Google Brain人工智能研究部門的軟件工程師沙澤爾加入了這個項目,他們將Meena更名為LaMDA,意為“用于對話應用程序的語言模型”。團隊還為賦予了LaMDA更多的數(shù)據(jù)和計算能力。

然而,他們的技術很快引發(fā)了廣泛爭議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關于LaMDA等項目固有風險的研究論文而被解雇。谷歌則澄清該員工并未被解雇,并聲稱她的研究不夠嚴謹。

谷歌研究主管杰夫·迪恩(Jeff Dean)稱,谷歌將繼續(xù)投資對大眾負責的AI項目。

2021年5月,公司公開承諾會將AI道德小組的規(guī)模擴大一倍。

在一周后,皮查伊在公司年會上登臺,展示了兩段預先錄制的與LaMDA的對話,LaMDA根據(jù)命令對問題作出回應。據(jù)知情人士稱,谷歌研究人員在會議召開前幾天準備了這些問答案例,并在最后一刻向皮查伊演示。谷歌一再強調(diào)自身將努力使聊天機器人更加準確,并最大限度地減少其被濫用的機會。

谷歌的兩位副總裁當時在一篇博客文章中寫道:“在創(chuàng)建像LaMDA這樣的技術時,我們的首要任務是努力確保將風險降至最低。”

03 核心人員離職、工程師被解雇,微軟ChatGPT背刺谷歌

2020年時,弗里塔斯和沙澤爾還在研究如何將LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智能手機Pixel和家庭音箱系統(tǒng)上首次推出的一款軟件應用程序,每月有超過5億人使用Google Assistant來執(zhí)行一些基礎任務,比如查看天氣和安排約會。

知情人士稱,谷歌不愿向公眾發(fā)布LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,并使用類似技術建立一家自己的初創(chuàng)公司。中途皮查伊多次干預,要求兩人留下來繼續(xù)研究LaMDA,但卻沒有向他們承諾何時將會發(fā)布。

2021年,弗雷塔斯和沙澤爾正式離開谷歌,并于當年11月成立了初創(chuàng)公司Character Technologies。他們研發(fā)的AI軟件Character于2022年正式發(fā)布,該軟件允許用戶創(chuàng)建聊天機器人并與之互動,機器人甚至可以以蘇格拉底等知名人物的口吻與用戶對話。

“這款軟件的發(fā)布在谷歌內(nèi)部引起了一些轟動。”沙澤爾在YouTube的一段采訪中稱。在他看來,作為一家小初創(chuàng)公司來推出這款軟件可能更加幸運。

2022年5月,谷歌考慮在當月的旗艦會議上發(fā)布LaMDA。而據(jù)谷歌解雇的一名工程師布萊克·勒莫因(Blake Lemoine)后來透露,被解雇是因為他在社交平臺上發(fā)布了與聊天機器人的對話,并聲稱它是有知覺的。

在勒莫因發(fā)布的內(nèi)容引發(fā)廣泛爭議之后,谷歌取消了原本的發(fā)布安排。谷歌表示,勒莫因的公開披露違反了就業(yè)和數(shù)據(jù)安全政策,因此公司需要做出保守起見的安排。

自從微軟與OpenAI達成新協(xié)議以來,谷歌一直在努力向大眾展示自己作為AI創(chuàng)造者的行業(yè)地位。

在今年ChatGPT首次亮相后,谷歌也準備公開發(fā)布自己的聊天機器人Bard,該機器人部分技術基于弗雷塔斯和沙澤爾當年的研究,它搜集從網(wǎng)絡中獲取的信息,再以對話形式回答問題。谷歌在一次公開活動中表明,原計劃是想對Bard的區(qū)域性搜索功能更進一步的探討,讓媒體和公眾對Bard有新的認識,知曉它是一個使用類似LaMDA的AI技術來回應輸入文本的搜索工具。

據(jù)谷歌高層稱,谷歌經(jīng)常會重新評估發(fā)布一款產(chǎn)品的條件,但由于現(xiàn)在面臨太多的外界刺激,才在一個并不十全十美的情況下發(fā)布。

谷歌搜索副總裁伊麗莎白·里德(Elizabeth Reid)在接受采訪時稱,自去年年初以來,谷歌也對搜索產(chǎn)品進行了內(nèi)部演示,這些產(chǎn)品也整合了LaMDA等生成式AI的響應。

谷歌認為生成式AI最有用的搜索用途之一,是在沒有標準正確答案下進行的問題搜索,他們將其稱為“NORA”。里德說,傳統(tǒng)的搜索功能可能已經(jīng)滿足不了現(xiàn)在的用戶了,谷歌還看到了其他復雜搜索的潛在可能,比如說解一個數(shù)學題。

高管們說,和其它類似項目一樣,最大的問題是它的準確性。使用這些搜索工具的人說,基于LaMDA技術構建的工具在某些情況下會給出一些偏離主題的回答。

同樣,微軟新版Bing在上個月已經(jīng)發(fā)布,對于此前用戶報告的與聊天機器人之間產(chǎn)生的令人不安的對話,將會通過限制聊天時間的方式來減少機器人發(fā)出攻擊性或令人毛骨悚然的反應的機會。

谷歌和微軟都承認自己的聊天機器人還存在很多不準確的地方。

在談到像LaMDA這樣的語言模型時,里德認為像是“在和一個孩子說話”,當一個小孩子給不出大人想要的答案時,他會編造出一個聽上去合理的答案來應對。

谷歌未來還將繼續(xù)微調(diào)其模型,包括訓練模型承認自己不知道答案而不是編一個。

04 結語:AI領導者谷歌首戰(zhàn)失意,微軟略占上風

谷歌聊天機器人的研發(fā)自2013年起步,2017年時已實現(xiàn)了重大的技術突破——神經(jīng)網(wǎng)絡系統(tǒng)Transformer,這也是ChatGPT所用到的底層技術,隨后又發(fā)布了預訓練大模型BERT;21年,微軟發(fā)布了ChatGPT的前身GPT-3,谷歌緊接著發(fā)布了預訓練模型LaMDA,展示出自然的對話能力;如今,Bard也即將依托LaMDA的輕量級模型版本發(fā)布,谷歌在與微軟的較量中加快步伐。

長期以來的輿論壓力、層層加壓的安全審查,以及裁員后嚴重的人才流失情況,讓谷歌進入到一個短暫的業(yè)務疲軟時期,整體業(yè)績下滑。但從長期來看,谷歌并未輸?shù)暨@場巨頭之爭,它所擁有的LLM(語言大模型)團隊和定制芯片,在市場上難尋敵手。

與此同時,我們也不難發(fā)現(xiàn),大模型和生成式AI的產(chǎn)業(yè)落地必然是場艱難長跑,巨頭們在技術、產(chǎn)品、生態(tài)、安全等多方面面臨的壓力重重,隨著生成式AI大規(guī)模接入應用程序當中,穩(wěn)定性和可靠性也將成為用戶更看中的評判標準,也更考驗各家基礎設施的能力。

本文為轉載內(nèi)容,授權事宜請聯(lián)系原著作權人。