太危險!超1000名大佬聯名要求暫停大型AI研究半年,圖靈獎得主、馬斯克、蘋果聯合創始人都簽了,連OpenAI創始人也有份?

每日經濟新聞 發佈 2023-03-29T22:29:28.391898+00:00

每經記者:李孟林 每經編輯:蘭素英OpenAI的強大性能不僅讓全球「打工人」都感到緊張,業界大佬們也感到步子邁得太快了,需要暫停一下,評估其中的風險。

每經記者:李孟林 每經編輯:蘭素英

OpenAI的強大性能不僅讓全球「打工人」都感到緊張,業界大佬們也感到步子邁得太快了,需要暫停一下,評估其中的風險。

北京時間3月29日,由圖靈獎得主、深度學習三巨頭之一約書亞·本吉奧(Yoshua Bengio),埃隆·馬斯克,《人類簡史》作者尤瓦爾·赫拉利等人聯名發表公開信,呼籲所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,為期至少6個月,以確保人類能夠有效管理其風險。暫停工作應該是公開且可以證實的,如果AI實驗室不能快速暫停,各國政府應該實行暫停令。

截至發稿,這份公開信已經徵集到1128份簽名。

圖片來源:futureoflife.org

OpenAI創始人:AI需要政府與社會的共同監管

公開信指出,AI現在已經能和人類競爭,將給人類社會帶來深刻的變革。在這個關鍵時刻,我們必須思考AI的潛在風險:假新聞和宣傳充斥信息渠道、大量工作被自動化取代、人工智慧甚至有一天會比人類更聰明、更強大,讓我們失去對人類文明的掌控。這些問題不應該交給「未經民選的科技領袖」來決定。

然而,各大AI實驗室為了開發和應用更加強大的人工智慧,最近幾個月已經陷入了「失控」的競賽,甚至連AI系統的創始人也並不能完全理解、預測和有效控制其風險,相應的計劃和管理工作沒有跟上。

實際上,面對OpenAI產品在全球的火爆程度,OpenAI創始人兼CEO山姆·阿爾特曼自己也感到有些害怕。他近日在接受媒體採訪時表示,自己對AI如何影響勞動力市場、選舉和虛假信息的傳播有些「害怕」。AI需要政府和社會共同參與監管,用戶反饋和規則制定對抑制AI的負面影響非常重要。

《每日經濟新聞》注意到,在簽名名單里的尾部,赫然出現了阿爾特曼的名字。然而,由於簽名是公開徵集,尚無法證明是否是阿爾特曼本人簽署,其本人亦未回應。簽名中OpenAI最後一個字母為小寫,或有故意之嫌疑。

圖片來源:futureoflife.org

簽署人之一、紐約大學著名AI研究者Gary Marcus也在推特上發問:「是你嗎,山姆?」

圖片來源:GaryMarcus@twitter

千餘名大佬聯名「發聲」

第一批簽名人裡面可謂大佬雲集。

約書亞·本吉奧因對深度學習的貢獻,在2018年與「深度學習之父」 傑弗里·辛頓 (Geoffrey Hinton)、Facebook首席科學家楊力昆(Yann LeCun)一起獲得了圖靈獎。三人被稱為「AI教父」。

後兩人雖然沒有參與公開信的簽名,但最近對OpenAI以及AI領域的快速發展都表示了擔憂或批評。辛頓在近日接受哥倫比亞廣播公司採訪時表示,AI消滅人類「並非不可想像」,人類需要警惕AI會給一小部分公司和政府帶來巨大的權力。作為Facebook的AI領頭人,楊力昆則一直對OpenAI的大語言模型路徑不屑一顧,認為其科技並無特別創新之處。

馬斯克作為OpenAI的共同創始人之一,一直也毫不掩蓋他對OpenAI的敵意,認為其過商業化,從開源變成了「閉源」,已經忘了非盈利和開放的「初心」。但最近也有新聞指出,馬斯克之所以如此敵視OpenAI,是因為2018年爭奪OpenAI經營權失敗,所以撤資走人。

此外,簽名人還包括蘋果聯合創始人史蒂夫·沃茲尼亞克、2020年美國總統選舉民主黨初選候選人楊安澤、AI經典教科書《人工智慧: 一種現代方法》作者Stuart Russell、AI領軍公司DeepMind的一眾研究人員等。

圖片來源:GaryMarcus@twitter

新聞連結:公開信原文

正如廣泛的研究和頂級人工智慧實驗室所承認的,人工智慧系統對社會和人類構成較大的風險。《阿西洛馬人工智慧原則》中指出,高級人工智慧可能代表著地球上生命歷史的深刻變革,應該以相應的謹慎和資源進行規劃和管理。然而,儘管最近幾個月人工智慧實驗室掀起AI狂潮,開發和部署越來越強大的數字大腦,但目前沒有人能理解、預測或可靠地控制AI系統,也沒有相應水平的規劃和管理。

現在,人工智慧在一般任務上變得與人類一樣有競爭力,我們必須問自己:我們應該讓機器在信息渠道中宣傳不真實的信息嗎?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰並取代人類?我們是否應該冒著失去對我們文明控制的風險?這樣的決定絕不能委託給未經選舉的技術領袖。只有當我們確信強大的人工智慧系統的效果是積極的,其風險是可控的,才應該開發。同時,這種信心必須得到驗證,並隨著系統的潛在影響的大小而加強。OpenAI最近關於人工智慧的聲明中指出,在開始訓練未來的系統之前,可能必須得到獨立的審查,對於最先進的努力,同意限制用於創建新模型的計算增長速度。我們同意,現在就該採取行動。

因此,我們呼籲所有人工智慧實驗室立即暫停比GPT-4更強大的人工智慧系統的訓練,時間至少持續6個月。這種暫停應該是公開的、可核查的,並包括所有關鍵參與者。如果這種禁令不能迅速實施,政府應該介入並制定暫停令。

人工智慧實驗室和獨立專家應在暫停期間,共同制定和實施一套先進的人工智慧設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。這些協議應該確保遵守協議的系統是安全的。值得一提的是,這並不意味著暫停一般的人工智慧開發,只是從危險的競賽中退後一步,限制不可預測的研究和開發。

人工智慧的研究和開發應該重新聚焦於,使目前最先進和強大的系統更加準確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。

同時,人工智慧開發者必須與政策制定者合作,大幅加快開發強大的人工智慧治理系統。這些至少應該包括:專門針對人工智慧的監管機構;監督和跟蹤高能力的人工智慧系統和大型計算能力的硬體;出處和水印系統幫助區分真實和合成,並跟蹤模型泄漏;強大的審查和認證生態系統;對人工智慧造成的傷害承擔責任;為人工智慧安全技術研究提供強大的公共資金以及資源充足的機構,以應對人工智慧可能導致的巨大的經濟和政治破壞。

人類可以通過人工智慧享受繁榮的未來。現在,我們成功地創建了強大的人工智慧系統,可以在這個「人工智慧之夏」中獲得回報,為所有人的明確利益設計這些系統,並給社會一個適應的機會。停止使用其他技術可能會對社會造成災難性影響,因此我們必須保持準備狀態。讓我們享受一個漫長的人工智慧夏天,而不是匆忙進入秋天(fall,亦可指墜落)。

每日經濟新聞

關鍵字: