編輯:Ellie 桃子
【新智元導讀】隨著ChatGPT的大熱,人們對AGI的討論也日漸激烈。開在舊金山的錯位博物館,構想了AGI將大部分人類摧毀的未來世界。
「Sorry for killing most of humanity!」
3月3日,位於舊金山的錯位博物館(Misalignment Museum)正式開幕。
這是一家藝術博物館,裡面陳列出關於通用人工智慧(AGI)對人類未來影響的展品。
最讓人矚目的作品是「回形針擁抱」,在其上方還貼上了「抱歉殺死了大部分人類」標語。
有趣的是,這家博物館距離OpenAI辦公室只有8個街區。
OpenAI辦公樓
ChatGPT的橫空出世,讓人們對人工智慧的瘋狂又回到了2016年AlphaGo完勝李世石那一天。
隨之而來的,對AGI的探討愈演愈烈。
甚至,上周OpenAI執行長,ChatGPT之父Sam Altman發文,分享了OpenAI對通用人工智慧的當前和後續規劃。
這家錯位博物館,或許是很好的AI啟示錄。
是時間錯位?
Audrey Kim是這家錯位博物館的館長。
接受wired採訪時,她談到,Audrey Kim的狗用點頭和地上的10個按鈕來和她交流。
Kim教它使用這些按鈕是因為她相信意識是一個光譜,智力是神秘的,她還認為自己的狗喜歡和烏鴉交朋友。
這些信條也促使她策劃了這一場關於AI未來的展覽。
錯位博物館展現了這樣一個未來:AI就像無數科幻電影中描繪的那樣,具有了自我意識並且開始殘殺人類。幸好,在Kim的設想中,算法會自動糾正,並且最終停止殺戮。
根據錯位博物館介紹,
錯位博物館是一家藝術博物館。開設這家博物館是為了增加人們對通用人工智慧,及其破壞力和善的力量的了解。我們希望激勵和建立支持,以制定和頒布我們可以採取減少風險的措施,確保在AGI來臨之際有一個積極的未來。
人工智慧的發展極大地加速了科學和技術的進步,並迅速將人類帶入一個陌生的未來。作為一個社會,我們正變得更加依賴與機器的互動,來操作和做出影響人們生活的決定(比如,在醫療保健、刑事司法、借貸等方面由計算機輔助決策)。
如果這項技術不能與人類的價值觀和判斷相一致,那麼AGI的出現就可能破壞文明,甚至導致人類的毀滅。不可否認,它也有巨大的潛力,可以從根本上改善生活,促進文明發展。
Misalignment Museum官網
展覽在5個月前便開始籌劃了,也就是ChatGPT引發科技新一輪熱潮的不久之前。
對於AGI的概念目前尚未達成共識,而博物館給出的定義,能理解或學習任何人類能夠完成的智力任務的人工智慧。
Kim表示,展覽的目的在於引起人們對AI技術帶來的不確定影響的討論。
博物館分為兩層。樓上是對AI的樂觀展望,有用細菌創作的鋼琴音樂、和米開朗基羅在西斯廷教堂創作的「創造亞當」的互動劇,以及一個使用谷歌的計算機視覺來描述出現在鏡頭前的人或物的裝置。
樓下則是反烏托邦式的場景。
有黑客帝國場景的復現,(電影的布景設計師Barbara Munch Cameron協助策展),展示了一個拿著筆的機械臂站在AI的角度上不斷寫下將人類視為威脅的筆記的場景。
博物館下層入口上方懸掛著但丁的話:「入此門者,放棄一切希望吧!」
博物館裡還有Arnold Schwarzenegger根據ChatGPT生成的腳本進行的深層模仿,一個由15000個回形針製成的兩個人擁抱的雕像,寓意人工智慧安全。
還有從維也納空運來由垃圾罐頭製成可以打字的手臂機器人。
「Spambots」創造了一個人工智慧生成的美麗新世界——Neil Mendoza
Kim是谷歌的早期員工,也曾在聯合國工作,並擔任過Y Combinator聯合創始人Paul Graham的助理。
她認為,「AI技術可以帶來很多好處,防止很多痛苦,但它也可以造成很多破壞。研究人員對AI的未來也沒有確定的答案,目前所能做得只是提供給人們足夠的角度與方式,來認真思考這項技術。」
另外,這個博物館也展現了一些科技創始人和思想家的影響,比如Facebook聯合創始人Dustin Moskovitz關於AI和有效利他主義的推文框。
再比如展覽入口附近裝滿意面的浴缸,這來自於資助了OpenAI的一家慈善組織的聯合創始人Holden Karnofsky的想法。
他認為,人類正生活在一個十分重要的歷史時期,即將面臨AI帶來的變革,他將這一時期稱之為自動化科技進步歷程(Process for Automating Scientific and Technological Advancement,PASTA)。
除了展示有關AI的藝術創作,錯位博物館還計劃放映電影,比如《終結者》、《機械姬》、《她》,探討AI技術造成負面影響的可能。
ChatGPT式啟發
最近關於AI未來的預測,主要集中在ChatGPT及其相關技術上。
而「回形針環抱」這一展品暗含了「回形針最大化機器」(Paperclip Maximizer)思想實驗。
牛津大學哲學家Nick Bostrom在他200年的《超級智能》一書中曾介紹了這一思想實驗:
如果一個強大的AI,它的設計初衷只是求得計算的最優解,它會因為缺少人類的價值觀,而失去對社會、對環境、對全局的思考。
這也是為什麼在ChatGPT面世後,網友稱,「Clippy is coming」。
押注生成式AI的企業家們提出了狂熱的主張。上周,OpenAI的CEO還發表了一篇關於該公司如何 「規劃AGI 」的博文。
此後不久,防止欺騙性商業行為的美國聯邦貿易委員會,警告營銷人員不要對其技術所能完成的任務進行虛假宣傳。委員會律師Michael Atleson發文稱,「科幻小說里計算機通常能對人類行為做出值得信賴的預測,但我們並不是生活在小說里。」
許多AI研究人員認為,雖然ChatGPT等生成式AI的能力使人感到驚艷,但這種技術不該被認為是智能的,因為其算法只是對訓練數據進行重複和混合加工。
在這種觀點下,最好把今天的狹義人工智慧看成一個類似計算器,或烤麵包機的工具,而不是一個有思想的生命體。
一些AI倫理學家認為,將感知等人類特徵賦予機器,會淡化人們對其他形式的有害自動化的關注,比如監控技術。
Kim最早熟悉機器學習是在作為Cruise的員工的時候,從那時她開始思考,雖然正常工作的AI能夠消除很多不必要的死亡和痛苦,但當其不工作或不正常工作時,也給人類生命帶來了巨大風險。
Kim認為AI終將影響到所有人,而她希望做到的,是讓儘可能多的人意識到這一點並形成自己的思考。
這場臨時展覽由一位匿名捐贈者資助舉辦到5月,並在周四、周五、周六對公眾開放,還計劃面向學校團體舉辦參觀活動。
TIME曾發文「不可控的人工智慧比以往任何時候都更有可能出現」。
近期生成式AI領域的突飛猛進,讓這樣一個問題擺上桌面:如果打造AGI的嘗試真的成功了,會出現怎樣的局面呢?
真正的AGI不僅可以改變世界,還可以改變自己,這可能會引發一個正反饋循環,越來越好的AI會創造出越來越好的AI,突破已知的理論限制。
根據最近的有關AI造成的影響的調查,731名優秀的AI研究人員中,有近一半認為人類水平的AI至少有10%的可能性會導致極其負面的結果。
已經有很多研究人員涉足於AI安全領域,致力於控制未來更強大的AI使其與人類的價值觀保持一致。但即便能從技術上實現一致,但這個作為標準的價值觀,能得到普羅大眾的認同嗎?還是僅僅代表了少數精英的觀點?
目前能做的,就是讓儘可能多的公眾了解AGI的風險,畢竟這一技術的實現可能就在不遠的未來。
參考資料:
https://www.wired.com/story/welcome-to-the-museum-of-the-future-ai-apocalypse/
https://www.misalignmentmuseum.com/
https://forum.effectivealtruism.org/posts/ZyjARuFsDBTFXeMP4/misalignment-museum-opens-in-san-francisco-sorry-for-killing
https://stayhappening.com/e/misalignment-museum-opening-E2ISVBWT8W7
https://sfstandard.com/technology/i-tried-to-visit-openais-office-hilarity-ensued/
https://time.com/6258483/uncontrollable-ai-agi-risks/
https://missionlocal.org/2023/03/sf-missions-misalignment-museum-spotlights-ai-risks/