千名專家呼籲,能讓ChatGPT研發按下暫停鍵嗎|新京報專欄

新京報 發佈 2024-02-29T11:20:17.035934+00:00

2018年9月14日,第十屆天翼智能生態產業高峰論壇舉行 ,現場出現約2米高的巨型智慧機器人,一名女市民主動和機器人握手。圖/IC photo最近,以ChatGPT為代表的生成式人工智慧與大規模語言模型風靡一時。

2018年9月14日,第十屆天翼智能生態產業高峰論壇舉行 ,現場出現約2米高的巨型智慧機器人,一名女市民主動和機器人握手。圖/IC photo

最近,以ChatGPT為代表的生成式人工智慧與大規模語言模型風靡一時。它們如同大型魔幻表演中衝出舞台的高速過山車,使人們陷於地平線翻轉般的眩暈之中,面對這些似乎日益逼近人類水平的智能系統,竟不知該驚呼還是哀嚎。

在GPT4誕生兩周之際,日前一篇關於GPT4已點燃通用人工智慧火花的論文熱度未減,圖靈獎得主約書亞·本吉奧、計算機科學家斯圖爾特·羅素以及特斯拉創始人馬斯克等千餘名業界人士則站出來指出,鑑於最近幾個月來人工智慧領域已陷入一場幾近失控的競賽,巨型AI研究是時候按下暫停鍵。

在宇宙學家泰格馬克等人創辦的未來生命研究所網站上,他們貼出了一封呼籲暫停訓練比GPT4更強大的AI系統的公開信。公開信指出,大量研究表明並得到頂級 AI 實驗室的認可,具有人類競爭智能的 AI 系統可能對社會和人類構成深遠的風險。

其指導思想源於21世紀以來,科技與人類未來研究的基本理念,即人類開發出的前沿科技日益具有造成人類生存風險的顛覆性影響,人類一方面要以科技賦能社會,但同時也要對過度的科技賦能帶來的不可逆風險保持高度警惕。

正因如此,幾乎與深度學習帶來的這波人工智慧熱潮同步建立的未來生命研究所,將其宗旨設定為「引導變革性技術造福於生活,遠離極端的大規模風險」。

相稱性治理思想沒有得到認真對待

實際上,2017年初,在阿西洛馬召開的「有益人工智慧」會議上,2000餘位業界人士和學者就曾聯合簽署過包括23條倡議的Asilomar AI 原則。

其指導思想是,面對超級智能及其對地球生命史可能帶來的深刻變化,要構建對人類有益的智能而不是無序的智能,必須在規劃和管理上投入與這種超強的創新相對應的資源和關注力,對於人工智慧可能造成的災難性和生存風險,必須付出與其可能造成的影響相稱的努力。

自那時以來,儘管世界上相繼出台了一百多部人工智慧原則和文件,但現在看來,這些原則及其背後的相稱性治理的思想並沒有得到認真對待。

根據英國《金融時報》的最新報導,儘管生成式和對話式人工智慧的興起,使得人工智慧研究與應用的倫理風險日益凸顯,微軟、亞馬遜和谷歌等大型科技公司近來卻在裁減人工智慧倫理方面的人員,難免加劇人們對相關創新和應用的安全風險的擔憂。

或許是了解人類即便意識到巨大的生存風險依然言行不一的痼疾,這封公開信採用了兩個策略。

一是訴諸人類未來的命運,對人工智慧可能勝過人類智能的歷史臨界點的人類命運,進行了追問。公開信甚至用了捫心自問這種情緒化表述:我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們應該自動化所有的工作,包括令人滿意的工作嗎?我們是否應該發展最終可能超越並取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?

二是直指OpenAI關於通用人工智慧的聲明中的高調錶態,指出當下恰是落實其中「在開始訓練未來系統之前進行獨立審查很重要」的主張的關鍵時刻。

而這兩個策略背後的思想是,對於接近人類智能的人工智慧的開發可能導致的人類生存風險,不能簡單地從風險收益比的維度去權衡,相應的政策和監管不能完全依靠科技公司的自律和科技領袖的認知。

由此,公開信不僅明確呼籲所有AI實驗室立即以公開和可檢驗的方式,暫停至少6個月訓練比 GPT-4 更強大的AI系統;而且強調要在獨立的外部專家的參與監督以及政府的必要監管下,通過這次必要的暫停,共同開發和實施一套用於高級人工智慧的共享安全協議,以使強大的人工智慧系統更加準確、安全、可解釋、透明、穩健、一致,更值得信賴,對人類更為忠誠。

據此,公開信還進一步提出了構建專門和有力的人工智慧監管機構和強大的審計和認證生態系統等具體建議。

2023年2月14日,國家超級計算成都中心科研人員在巡檢機房設備。圖/新華社

慢科學策略並不是簡單叫停

從科技發展史的維度來看,公開信所提出的暫停策略並非創舉,至少可以追溯至1975年。彼時在最為著名的一次阿西洛馬會議上,保羅·伯格等生命科學家鑑於基因研究的未知風險,主動提出暫停重組DNA。

從那時到現在的差不多半個世紀,暫停有風險科學研究背後的預防性思想,越來越成為突破性科技創新所奉行的重要原則。

值得指出的是,從預防性原則出發提出暫停並不是簡單叫停,而是通過科技風險的認知和研判,探尋我們可以接受的研究和創新。

應該是基於這一尋求更加穩健的創新的思路,公開信指出,只有當我們確信它們的影響是積極的並且它們的風險是可控的時候,才應該開發強大的人工智慧系統。

展望深度科技化未來,科技將越來越深地走進生命和智能等關乎人類存在的領域,這也就意味著人的價值、倫理等問題必須被視為研究和創新的內在環節,必須在關注度和資源上給予相應的投入,科技才可能向著合乎人類利益的方向演進。

只有真正認識到這一點並付諸實踐,才可能改變人工智慧等深度科技化前沿中科技的力量和控制科技的力量之間的不平衡。

而這封公開信給我們的最大啟示是,在扭轉這種不相稱之前,我們有必要通過暫停這種慢科學策略,使科技的力量在我們可以掌控的節奏下有序綻放。

唯其如此,我們才能夠避免聽任巨型科技系統演變成盲目的力量,甚至因其不受制約而對人類社會和文明發展帶來顛覆性的災難。

人類文明不能失控,的確是時候為巨型AI實驗按下暫停鍵了。

從這個意義上講,「讓我們享受一個漫長的AI夏天,而不是毫無準備地陷入秋天」,並非一般的詩句,而是人類邁向科技未來需要反覆唱頌的史詩。

撰稿/段偉文(中國社科院科學技術和社會研究中心)

編輯/徐秋穎

校對/趙琳

關鍵字: