十年,谷歌是如何在聊天機器人競賽中落後微軟的?

智東西 發佈 2024-03-31T11:42:27.113763+00:00

智東西3月9日報導,近日,外媒華爾街日報記者邁爾斯·庫盧帕和薩姆·謝克納深度挖掘了谷歌聊天機器人的發展歷程,研發時間竟然已經長達十年之久。

智東西

編譯 | 吳菲凝

編輯 | 李水青

智東西3月9日報導,近日,外媒華爾街日報記者邁爾斯·庫盧帕(Miles Kruppa)和薩姆·謝克納(Sam Schechner)深度挖掘了谷歌聊天機器人的發展歷程,研發時間竟然已經長達十年之久。在此期間,該項目更是經歷了反覆審查失敗、多次更名和多位核心人員離職等波折。

谷歌的聊天機器人投入可以追溯到2013年,而後研發出一款名為Meena的聊天機器人,但直至2020年才以LaMDA新名稱在一篇論文中得以披露進展,至今產品仍未公開發布。2022年底,在OpenAI旗下的ChatGPT亮相併迅速走紅之後,谷歌匆忙公開了自己名為Bard的聊天機器人,但其卻在公開展示視頻中意外「翻車」。

華爾街日報兩名記者認為,谷歌此前對待AI的態度太過于謹慎,以至於現在陷到一個「起大早,趕晚集」的尷尬境地,為競爭對手微軟提供了可乘之機。

在谷歌內部,高管們認為,谷歌必須保證AI技術足夠安全才能夠推向公眾。

一、兩年前聊天機器人已面世,因安全問題隱而未發

谷歌的兩位研究人員丹尼爾·德·弗雷塔斯(Daniel De Freitas)和諾姆·沙澤爾(Noam Shazeer)從2013年就已開始投入聊天機器人Meena的研發,據稱所使用的技術遠勝於當時其他任何技術。他們開發出的對話式電腦程式可以像人一樣自信地談論哲學,還能即興創作出一些雙關語。

據知情人士透露,這兩位研究人員向同事們稱,聊天機器人在AI的不斷進步的推動下,未來將徹底顛覆人們使用搜尋引擎和與計算機交互的方式。

他們敦促谷歌向外部研究人員提供Meena的訪問權限,試圖將其集成到Google Assistant智能助手中,還要求谷歌公開演示這款機器人。

但谷歌高管多次明確拒絕了他們,高管認為該計劃不符合公司對AI系統安全性和公平性的標準。

谷歌這種拒絕公開發布的謹慎態度,主要是由於長年以來外界對於公司在AI方面的爭議。從關於AI的準確性和公正性的內部爭論,再到公司去年公開解僱了一名聲稱AI已經獲得人類感知的員工,谷歌一直處於輿論的風口浪尖之上。

據前員工以及其他知情人士透露,長久以來的一系列事件讓高管們擔心公開演示AI產品可能對公司聲譽和搜索廣告業務構成風險。據悉,谷歌母公司Alphabet去年營收近2830億美元,其中大部分收入來自搜尋引擎廣告投放業務。

前谷歌產品經理高拉夫·內馬德(Gaurav Nemade)說:「谷歌正在努力在承擔風險和保持全球領導地位之間找到平衡。」

谷歌的謹慎態度如今看來是明智之舉。二月份時微軟曾宣布,針對於聊天機器人發表敏感言論的用戶報告反饋,未來將對機器人施加更多新限制。微軟高層解釋,當應用程式運轉到難以負荷時,它可能會出現「精神錯亂」的現象。

桑達爾·皮查伊(Sundar Pichai)告訴員工,隨著時間的推移,谷歌最成功的產品贏得了用戶的信任 圖源:彭博社

在上月一封發給全體員工的郵件中,Alphabet和谷歌的執行長桑達爾·皮查伊(Sundar Pichai)稱:「一些最成功的產品並不是第一個推向市場,但卻能慢慢贏得用戶的信任。」他寫道,「這將是一段漫長的旅程——對每個人來說,都是如此。我們現在能做的最重要的事情是專注於打造一款偉大的產品,並負責任地開發它。」

二、十年秘密研發:多次審查不過、內部禁止,最終改名

谷歌在聊天機器人方面做出的努力可以追溯到2013年。

時任谷歌聯合創始人兼執行長的拉里·佩奇(Larry Page)聘請了計算機科學家雷·庫茲韋爾(Ray Kurzweil),庫茲幫谷歌推出了一個前所未有的概念「技術奇點」:即機器終有一天將超越人類的智慧。

此外,谷歌還收購了英國人工智慧公司DeepMind,該公司同樣致力於創建通用AI或可以反映人類心理能力的軟體。

但與此同時,學者和技術專家開始對AI提出擔憂,比如它有可能通過面部識別軟體實現大規模監控,他們開始向谷歌等科技公司施壓,要求他們承諾不會將某些技術用作非法途徑。

2015年,包括馬斯克在內的一群科技企業家和投資者成立了OpenAI,其中有一部分原因是為了打壓谷歌在AI領域日漸攀升的地位。OpenAI最初是一家非營利組織,它希望確保AI不會成為企業利益的犧牲品,而是用於造福人類。

此前,谷歌與美國國防部擬定的一項名為「Project Maven」的合同遭到了員工的強烈反對,因為該合同涉及到使用AI自動識別並跟蹤潛在的無人機,谷歌最終放棄了這個項目。直至2018年,谷歌宣布承認不會將AI技術應用於軍事武器製造方面。

除此之外,CEO皮查伊還宣布了一套指導谷歌運作的7項AI原則,旨在限制不公正技術的傳播,比如人工智慧工具應該對人負責並「為安全而構建和測試」。

多年來,谷歌這款名為Meena的聊天機器人項目一直處於保密狀態中。一部分內部員工對這類程序的風險表示擔憂,因為2016年時微軟曾因為一款名為Tay聊天機器人的誤導性回答,最終被迫終止公開發布。

直至2020年,外界才對Meena有所了解。在谷歌發布的一項研究論文當中稱,Meena已經從公開的社交媒體對話中學習了近400億個單詞。而競爭對手OpenAI同樣開發了一個基於800萬個網頁的類似模型GPT-8。

在谷歌,Meena背後的團隊也希望能早日發布他們的工具,即使只是像OpenAI那樣以有限的格式發布。但谷歌高管們多次拒絕了這一提議,據前谷歌產品經理內馬德稱,他們給出的理由是聊天機器人不符合谷歌關於安全和公平的AI原則。

谷歌發言人稱,多年來,Meena經過了無數次審查,但一直因為各種原因而被禁止進行更廣泛的發布。Google Brain人工智慧研究部門的軟體工程師沙澤爾加入了這個項目,他們將Meena更名為LaMDA,意為「用於對話應用程式的語言模型」。團隊還為賦予了LaMDA更多的數據和計算能力。

然而,他們的技術很快引發了廣泛爭議。谷歌著名的AI倫理研究員蒂姆尼特·格布魯(Timnit Gebru)在2020年底公開宣稱,她因拒絕撤回一篇關於LaMDA等項目固有風險的研究論文而被解僱。谷歌則澄清該員工並未被解僱,並聲稱她的研究不夠嚴謹。

谷歌研究主管傑夫·迪恩(Jeff Dean)稱,谷歌將繼續投資對大眾負責的AI項目。

2021年5月,公司公開承諾會將AI道德小組的規模擴大一倍。

在一周後,皮查伊在公司年會上登台,展示了兩段預先錄製的與LaMDA的對話,LaMDA根據命令對問題作出回應。據知情人士稱,谷歌研究人員在會議召開前幾天準備了這些問答案例,並在最後一刻向皮查伊演示。谷歌一再強調自身將努力使聊天機器人更加準確,並最大限度地減少其被濫用的機會。

谷歌的兩位副總裁當時在一篇博客文章中寫道:「在創建像LaMDA這樣的技術時,我們的首要任務是努力確保將風險降至最低。」

三、核心人員離職、工程師被解僱,微軟ChatGPT背刺谷歌

2020年時,弗里塔斯和沙澤爾還在研究如何將LaMDA集成到Google Assistant中。Google Assistant是谷歌四年前在其智慧型手機Pixel和家庭音箱系統上首次推出的一款軟體應用程式,每月有超過5億人使用Google Assistant來執行一些基礎任務,比如查看天氣和安排約會。

知情人士稱,谷歌不願向公眾發布LaMDA的決定讓弗雷塔斯和沙澤爾感到沮喪,他們決定離開公司,並使用類似技術建立一家自己的初創公司。中途皮查伊多次干預,要求兩人留下來繼續研究LaMDA,但卻沒有向他們承諾何時將會發布。

2021年,弗雷塔斯和沙澤爾正式離開谷歌,並於當年11月成立了初創公司Character Technologies。他們研發的AI軟體Character於2022年正式發布,該軟體允許用戶創建聊天機器人並與之互動,機器人甚至可以以蘇格拉底等知名人物的口吻與用戶對話。

沙澤爾和弗雷塔斯在他們位於帕洛阿爾托的新公司的辦公室 圖源:《華盛頓郵報》

「這款軟體的發布在谷歌內部引起了一些轟動。」沙澤爾在YouTube的一段採訪中稱。在他看來,作為一家小初創公司來推出這款軟體可能更加幸運。

2022年5月,谷歌考慮在當月的旗艦會議上發布LaMDA。而據谷歌解僱的一名工程師布萊克·勒莫因(Blake Lemoine)後來透露,被解僱是因為他在社交平台上發布了與聊天機器人的對話,並聲稱它是有知覺的。

2021年的虛擬谷歌會議期間與 LaMDA 的對話示例 圖源:彭博社

在勒莫因發布的內容引發廣泛爭議之後,谷歌取消了原本的發布安排。谷歌表示,勒莫因的公開披露違反了就業和數據安全政策,因此公司需要做出保守起見的安排。

自從微軟與OpenAI達成新協議以來,谷歌一直在努力向大眾展示自己作為AI創造者的行業地位。

微軟員工亞歷山大·坎貝爾(Alexander Campbell)演示Bing和Edge瀏覽器與OpenAI的集成。 圖源:美聯社

在今年ChatGPT首次亮相後,谷歌也準備公開發布自己的聊天機器人Bard,該機器人部分技術基於弗雷塔斯和沙澤爾當年的研究,它搜集從網絡中獲取的信息,再以對話形式回答問題。谷歌在一次公開活動中表明,原計劃是想對Bard的區域性搜索功能更進一步的探討,讓媒體和公眾對Bard有新的認識,知曉它是一個使用類似LaMDA的AI技術來回應輸入文本的搜索工具。

據谷歌高層稱,谷歌經常會重新評估發布一款產品的條件,但由於現在面臨太多的外界刺激,才在一個並不十全十美的情況下發布。

谷歌搜索副總裁伊莉莎白·里德(Elizabeth Reid)在接受採訪時稱,自去年年初以來,谷歌也對搜索產品進行了內部演示,這些產品也整合了LaMDA等生成式AI的響應。

谷歌認為生成式AI最有用的搜索用途之一,是在沒有標準正確答案下進行的問題搜索,他們將其稱為「NORA」。里德說,傳統的搜索功能可能已經滿足不了現在的用戶了,谷歌還看到了其他複雜搜索的潛在可能,比如說解一個數學題。

高管們說,和其它類似項目一樣,最大的問題是它的準確性。使用這些搜索工具的人說,基於LaMDA技術構建的工具在某些情況下會給出一些偏離主題的回答。

同樣,微軟新版Bing在上個月已經發布,對於此前用戶報告的與聊天機器人之間產生的令人不安的對話,將會通過限制聊天時間的方式來減少機器人發出攻擊性或令人毛骨悚然的反應的機會。

谷歌和微軟都承認自己的聊天機器人還存在很多不準確的地方。

在談到像LaMDA這樣的語言模型時,里德認為像是「在和一個孩子說話」,當一個小孩子給不出大人想要的答案時,他會編造出一個聽上去合理的答案來應對。

谷歌未來還將繼續微調其模型,包括訓練模型承認自己不知道答案而不是編一個。

結語:AI領導者谷歌首戰失意,微軟略占上風

谷歌聊天機器人的研發自2013年起步,2017年時已實現了重大的技術突破——神經網絡系統Transformer,這也是ChatGPT所用到的底層技術,隨後又發布了預訓練大模型BERT;21年,微軟發布了ChatGPT的前身GPT-3,谷歌緊接著發布了預訓練模型LaMDA,展示出自然的對話能力;如今,Bard也即將依託LaMDA的輕量級模型版本發布,谷歌在與微軟的較量中加快步伐。

長期以來的輿論壓力、層層加壓的安全審查,以及裁員後嚴重的人才流失情況,讓谷歌進入到一個短暫的業務疲軟時期,整體業績下滑。但從長期來看,谷歌並未輸掉這場巨頭之爭,它所擁有的LLM(語言大模型)團隊和定製晶片,在市場上難尋敵手。

與此同時,我們也不難發現,大模型和生成式AI的產業落地必然是場艱難長跑,巨頭們在技術、產品、生態、安全等多方面面臨的壓力重重,隨著生成式AI大規模接入應用程式當中,穩定性和可靠性也將成為用戶更看中的評判標準,也更考驗各家基礎設施的能力。

來源:《華爾街日報》

關鍵字: