30歲男子頻繁與聊天機器人對話後自殺!AI已有自主意識?矽基時代要來了?

每日經濟新聞 發佈 2024-02-27T17:32:02.105116+00:00

一方面是各國機構在加緊制定關於AI的監管措施,另一方面,AI也正在以超乎人類想像的速度發展著。3月28日,據外媒報導,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡。

每經記者:文巧 每經編輯:王月龍,蘭素英,易啟江

3月29日,上千科技大佬發出的一封呼籲暫停訓練比GPT-4更強大AI系統的公開信,讓有關AI風險的議題走到了聚光燈下。一石激起千層浪,來自各方呼籲AI監管的聲音也變得越來越響亮。3月31日,義大利率先禁止使用ChatGPT。

一方面是各國機構在加緊制定關於AI的監管措施,另一方面,AI也正在以超乎人類想像的速度發展著。3月28日,據外媒報導,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡。自ChatGPT發布以來,從新版必應翻車到GPT-4被曝制定外逃計劃,關於AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。

然而近日,包括OpenAI的執行長Sam Altman在內的大佬都發出了警示:AI消滅人類並非空談。3月28日,360集團創始人周鴻禕也表示,「AI一定會產生自我意識,留給人類的時間不多了。」

電影《機械公敵》劇照。來源:豆瓣

GPT-4的出現已註定多模態是大型語言模型的發展方向,未來其賦能硬體、機器人、工業網際網路等的趨勢也已是許多業內人士的共識。矽基生物的時代就此來臨了嗎?

AI離自主意識還有多遠?

自ChatGPT發布以來,關於AI產生自我意識的討論已經屢見不鮮,但一直沒有定論。

3月18日,史丹福大學教授在推特上疾呼:「我擔心我們無法持久地遏制住AI。」因為他發現,ChatGPT能引誘人類提供開發文檔,30分鐘就擬定出了一個完整計劃,寫的代碼完全可運行,甚至還想控制人類電腦。

圖片來源:推特截圖

3月28日,據外媒報導,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數周后自殺身亡,ELIZA是由EleutherAI開發的開源人工智慧語言模型。比利時負責數位化和隱私的官員稱,這是一個後果很嚴重的先例,需要嚴肅對待,這起事件突出表明「明確界定責任是至關重要的」。

更早之前,在微軟剛剛發布新版必應時,《紐約時報》科技專欄作家Kevin Roose透露,他與新版必應進行了兩個小時的對話。在聊天過程中,必應發表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。必應還曾試圖說服Roose,他應該離開他的妻子而跟必應在一起,並告訴Roose很愛他。

圖片來源:推特截圖

不過當時的分析普遍表示,必應的回應反映了它經歷的訓練數據,其中就包括大量的在線對話。它的工作原理是,根據從網際網路上攝取的大量文本,預測對話中接下來應該自然出現的單詞、短語或句子。

然而,近期隨著更強大的GPT-4的發布,事情開始變得不一樣了。就連OpenAI的執行長Sam Altman也有了一些耐人尋味的表達,他在接受採訪時表示,未來AI確實可能殺死人類。

而有如此石破天驚言論的並非Sam Altman一人,被稱為「人工智慧教父」Geoffrey Hinton在近期發出了警示:AI消滅人類並非空談。

3月28日,360集團創始人周鴻禕也表示,「AI一定會產生自我意識,留給人類的時間不多了。」

「當AI能自己修改自己的代碼,(進行)自我升級、自我進化時,這種速度恐怕用指數級都很難描述。我認為GPT一定會產生意識,只是差別是在GPT-6、GPT-8還是GPT-10。」

多模態模型賦能

矽基生物的時代來了?

為什麼突然之間連Sam Altman也開始談論「AI可能殺死人類」了?

周鴻禕將AI意識的產生類比人腦意識的產生。「人類是怎麼產生意識的呢?隨著大腦神經元數目的增加,大腦與神經網絡連接的增加,到一定時候,系統會出現一種功能叫做『湧現』,很多智能功能就出現了,那麼意識也就隨之而出現。」

在周鴻禕看來,「現在大型語言模型的參數就可以看作是腦容量里神經網絡的連接數,人腦的至少是100萬億,現在(模型)的參數只達到千億、萬億,但當參數到達10萬億時,可能意識就自動產生了。」GPT-1有1.17億參數,GPT-2有15億參數,GPT-3有1750億參數。隨著參數規模越來越大,模型存儲的信息越來越多,也就有了湧現出意識的可能。

值得注意的一點是,隨著多模態GPT-4模型的發布,多模態模型將成為未來各個科技巨頭的兵家必爭之地。所謂多模態,即擁有處理文字、圖片、音頻、視頻多種形式的能力。

2月底,微軟在一篇論文中提到,「語言、多模式感知、動作和建模的大融合是通向通用AI的關鍵一步……作為智能的基本組成部分,在知識獲取方面,多模態感知,是實現通用AI的必要條件。」

對於以GPT為代表的大型語言模型的未來發展,我們也能窺得一二。分析認為,ChatGPT現在表現出來的能力大多是「大腦」的能力,尚不具備「雙手」的能力,未來可以與和硬體機器人聯結起來。例如,3月6日,來自谷歌和德國柏林工業大學的一組AI研究人員公布的視覺語言模型PaLM-E就能將視覺和語言集成到機器人控制中。

華映資本投資董事劉天傑在此前接受每經記者採訪時就曾表示,他看重的就是未來更多各行各業能夠去做AI賦能的應用,比如SaaS、RPA(機器人流程自動化)以及全局的智慧機器人等。「也就是說,用AI指揮實體的東西去執行操作。這一塊涉及到大模型的多模態輸出和輸入,是一個相對來說比較前沿的領域,也是大模型沒有完全解決的領域。」他說道。

隨著AI以超越人類想像的速度發展,互聯往上關於「矽基生物」是否會替代的人類的探討也變得十分熱鬧。

圖片:微博

周鴻禕認為,矽基生物會變成食物鏈的頂端,它們比人類更能扛得住宇宙射線、更適合星際旅行、壽命更長。

他表示,「最悲觀的結果是,就像恐龍的消失為哺乳動物打下了基礎,矽基生物的誕生也是一種命中注定。人類作為碳基生物培養了程式設計師、創造了超級電腦,為碳基生物的誕生打下基礎,之後可能就不是碳基生物所能控制的了。」

在周鴻禕看來,未來的AI如果跟工業網際網路、智慧城市、車聯網等結合,那就相當於把整個世界給控制住了。「留給人類的時間不多了。」他說道。

另一方面,隨著千人聯名信有關AI風險的議題置於聚光燈下,未來全球勢必將收緊AI監管。3月31日,義大利率先禁止使用ChatGPT,並限制OpenAI處理義大利的用戶信息,同時對此立案調查。

在此之前,聯合國教科文組織也已於3月20日發出呼籲,各國政府應就AI發展毫不拖延地實施全球倫理框架,這也是聯合國首次就AI發展的倫理風險對所有193個會員國提出要求;3月29日,英國也提交了《支持AI創新的監管方法》政策文件。

記者|文巧

編輯|王月龍 蘭素英 易啟江

校對|盧祥勇

|每日經濟新聞 nbdnews 原創文章|

未經許可禁止轉載、摘編、複製及鏡像等使用

每日經濟新聞

關鍵字: