由25個AI智能體組成的虛擬小鎮,會產生自由意志嗎?

遊研社 發佈 2024-01-12T16:13:04.835596+00:00

臨近情人節,生活在名為「Smallville」小鎮上的咖啡店長伊莎貝拉試圖舉辦一場情人節派對,她邀請了自己的閨蜜瑪利亞一起布置派對,而瑪利亞得知有這麼一場派對後,偷偷邀請了暗戀對象克勞斯一同前往……在小鎮的同一時間線上,年近六旬的湯姆對小鎮即將舉辦的市長選舉有著強烈的興趣,作為一


臨近情人節,生活在名為「Smallville」小鎮上的咖啡店長伊莎貝拉試圖舉辦一場情人節派對,她邀請了自己的閨蜜瑪利亞一起布置派對,而瑪利亞得知有這麼一場派對後,偷偷邀請了暗戀對象克勞斯一同前往……


在小鎮的同一時間線上,年近六旬的湯姆對小鎮即將舉辦的市長選舉有著強烈的興趣,作為一名對政治格外關心的已婚中年男人,他拒絕了伊莎貝拉的情人節派對邀請。


以上情節並未發生在現實世界,但也不是人類編造的虛構劇情,它來自一個由25名AI組成的虛擬小鎮。而這個小鎮上發生的任何事件,都是AI之間通過互動隨機生成的結果,目前這個小鎮已經井井有條地運轉了兩天。


如果你玩過諸如GTA、荒野大鏢客這樣的開放世界遊戲,應該知道即使遊戲盡力營造出了「真實世界」的感覺,但其中的劇情、事件、NPC的動作和語言皆是製作組預先設置好的內容,它們會按照既定的邏輯依次觸發,有自己固定的行動軌跡,除非出現bug,否則絕不會有「意料外」的場面。


而最近,來自史丹福大學以及谷歌的人工智慧研究團隊創造了一個完全由AI主導的虛擬世界——「Smallville」,世界存在的25位居民均由AI控制,在設置好了基礎的建築設施,人物性格後,研究人員便不再插手。


在已給出的小鎮Demo中,我們可以通過上帝視角觀察每一位小鎮居民正在或者試圖進行的活動,比如有人正在廚房裡準備晚餐,有人正在準備選舉材料,有人則跟朋友針對「藝術」話題侃侃而談……



在這個自帶時間的虛擬世界裡,你會發現居民都嚴格遵循自己的生活習慣,比如在清晨6點左右,多數人物都還在睡夢中,但咖啡店主伊莎貝拉就必須早起收拾店鋪;而課業繁重的大學生舒爾茨則來到了圖書館複習功課。




每名虛擬角色雖然會遵守最初設定好的動機和行動路線,但在各自的行程里,必然會和其他角色偶遇,於是奇妙的化學反應就發生了。


由於遵循「舉辦情人節派對」的初始動機,伊莎貝拉會主動跟偶遇的角色交談,並邀請他們加入派對,而當她邀請好友瑪利亞時,處於暗戀狀態的瑪利亞立即想到可以邀請暗戀對象並以此拉近關係。


但並不是所有角色都會賣這個面子,把生活重心放在選舉活動上的老湯姆果斷拒絕了派對邀請,並且順便和伊莎貝拉探討了相關的政治話題。


最終,小鎮上有5名角色出席了這場情人節派對,其中就包括了瑪利亞的暗戀對象克勞斯。




在上述的這個例子中,研究人員只會給角色提供最基本的性格和人物設定,比如僅僅給伊莎貝拉加入了「開派對」的想法,至於如何開派對、邀請誰參與、怎麼跟其他角色互動,都是由角色自行決定的,所以就算是研究人員,也預料不到小鎮上的故事將會如何發展。


而目前看來,虛擬小人的行為邏輯看上去都很正常。為了評估AI的還原程度,研究人員還設置了一個由25名真人參與的對照組小鎮,結果不知情的評估小組多數認為,AI給出的反應和行為更像人類。


而這種在現實里尋常的行動邏輯,如果放在一個完全由AI掌控的虛擬世界中,其實想要實現有很大的難度。


根據斯坦福研究小組發布的論文,其中存在的一個要點可以概括為「信息的流動」——最初產生「派對」想法的人只有伊莎貝拉,但到最後,小鎮上多數居民都獲得了「舉辦派對」這一信息並採取了相應行動。


這就代表人物能夠理解信息內容,信息也會幹預人物的行為邏輯,AI對於信息也會產生相應程度的「記憶」。


為了實現這些功能,研究小組引入了一個新的概念叫作Generative Agents(生成式智能體)。


Generative Agents能夠展示類似於人類的記憶儲存和檢索能力,對動機和目標的內省能力以及規劃和應對突發情況的能力,生活在小鎮上的虛擬人物,正是依照這樣的概念生成的。



這麼說可能有些抽象,但結合研究小組給出的示意圖,可以理解為小鎮上人物每天遭遇的各種事件,都會以「記憶流」的形式保留。



從「辦公桌閒置」這種雞毛蒜皮的小事到「某人正在討論市長選舉活動」這樣更重要的大事都會形成AI人物的記憶流,而AI在不斷接受信息的同時,也會檢索出有價值的部分做出反思和計劃,而檢索的依據則是每個人自身設定好的性格和職業特點。


最基礎的檢索反思包括:在發現衛生間被占用時,取消前往當前衛生間的念頭,而更複雜的實現效果則能夠影響角色的想法和長遠的行為模式。


比如山姆在「參與當地政治活動多年」的設定下,在得知競選市長的活動後,立刻決定加入並將這個計劃傳遞給了更多認識的角色。


而作為富有正義感且正在撰寫社會學論文的大學生克勞斯,當他得知山姆的競選計劃後,在反思過程中產生了一個新的想法:應該記住與山姆合作並朝著促進社區創造力的目標前進。



正是通過這種「根據已有信息總結出新觀點」的反思邏輯,讓AI控制的角色產生出了更像人類且更不可預測的行為模式,因為以上這些想法的前提是:剛好偶遇了山姆並與他聊天,但如果克勞斯碰到的是其他角色,則很有可能出現完全不同的想法。


這已經很符合現實的邏輯,至於這項技術的應用,如果放到遊戲領域,相信多數玩家都能想到的一點是:在開放世界裡,生成更多隨機事件,或者為NPC賦予更符合邏輯的行為,進而提升自由度並塑造出一個更真實的世界。


上個月,其實已經有Mod作者為《輻射4》引入了基於ChatGPT製作的對話Mod,將遊戲原本有限的四個反應「疑問、諷刺、贊同、拒絕」進行了更細緻的拓寬:




不過由於只是MOD,這樣的拓寬僅僅只停留於表層,並不能真正增加NPC們的行動選項,因此也不會產生大家想像中那種「完全由AI驅動的新劇情事件」,但如果將同樣由ChatGpt驅動的「生成式智能體」引入遊戲,就很有可能就會出現那種「製作組預料之外」的劇情。


前不久,國內超參數科技公布的Demo「活的長安城」,其實也一定程度上實現了這種效果。比如在那個Demo里,NPC同樣是由AI控制,會依照喜好、人設以及過去的經歷來對突發的某件事做出反應。




雖然Demo呈現的內容依舊處於雛形階段,但已經有觀眾在評論區里表示「但如果算力上來了,會湧現出像西部世界那樣的自我意識嗎?」



恰巧,「湧現能力」(Emergent)也是像ChatGpt一類大型語言模型中很重要的一部分,指的是從設定好的條件、數據中,誕生出更複雜、更超出意料的內容和特徵。


在史丹福大學的虛擬小鎮研究中,研究人員提出了三種AI能夠產生的湧現行為,分別為信息傳播(角色互相告知信息,讓信息在城鎮中傳播)、關係記憶(角色能夠回憶起過去互動的記憶)、協調(與其他人計劃某個行動)。


單從呈現效果上看,AI控制的角色確實能完成這幾個湧現式行為,不過放在遊戲設計上,這幾個能力依舊屬於最基本的要求,畢竟,玩家想要的或許不是一個絕對真實的遊戲世界,而是一個充滿戲劇性、傳奇、冒險經歷的「真實世界」,而一個過於真實的AI可能並不像大家期望的那麼「有意思」。


而在遊戲之外,實驗的研究人員則想得更加長遠,在倫理方面,他們認為這項技術會讓人類和所謂的生成式智能體建立准社會關係,即使這種關係並不合適;另外,程序目前也有可能因為其他問題或bug而操作角色給出錯誤的行為模式。


這種問題如果出現,對於處在觀測位置的人類來說,可能就很難分辨究竟是AI的靈光一現,還是單純的系統故障。


記得在四年前,OpenAI團隊也曾提交過一篇名為《神經MMO:一個人工智慧的大型多人遊戲環境》的論文,同樣構建了一個同時存在數個AI的虛擬環境,但當時這些AI的目標僅停留在「生存」這種生物最基礎的需求上。


而誰能想到過了四年,這些模擬社區中的小人就已經在考慮怎麼撰寫「中產階級化對低收入社區影響」的論文了。


現在看來,對於AI來說,唯一不變的,只有「它們在時時刻刻改變」本身。


關鍵字: