馬斯克呼籲暫停 AI 研究,吳恩達:呼籲無效!潘多拉的魔盒能「安全」打開嗎?

ai科技評論 發佈 2024-01-20T05:21:23.188583+00:00

就在行業期待通用型AI能夠在ChatGPT的熱潮中迎來真正落地的時刻,卻冒出了呼籲暫停AI訓練的公開信,而後特斯拉及推特執行長馬斯克等上千人在這封公開信中予以了簽名,Stability AI CEO、07年圖靈獎得主、蘋果聯合創始人、多位DeepMind工程師也都赫然在列,形成了極具分量的「千人聯名」,引發業界關注。

作者丨宋佳

馬斯克等「千人聯名」呼籲暫停AI研究事件經過一天發酵後,以吳恩達、田淵棟為代表的AI研究支持派也開始發聲,公開反對「千人聯名」,一場關於「要不要打開潘多拉魔盒」的論戰拉開帷幕,被網友戲稱為「三體照進現實?降臨派、拯救派和倖存派不是開玩笑的。」這究竟是怎麼一回事?

1 暫停or繼續

ChatGPT訓練引發馬斯克、吳恩達論戰

事情起因是3月29日美國非營利性組織未來生命研究所(Future of Life Institute)發布的一封公開信,信中呼籲所有人工智慧(AI)實驗室立即暫停訓練比GPT-4更強大的AI系統。

「千人聯名」公開信(圖片來源於網絡截圖)

半年前,ChatGPT的發布推動了AI熱潮,不到兩個月的時間就有了上億個月活用戶。時至今日,與ChatGPT相關的話題仍舊頻繁登上社交媒體熱搜榜單,A股市場上ChatGPT概念股板塊歷經多番漲停潮,百度、阿里、京東、網易等科技公司相繼宣布推出或研發對標產品的計劃。

就在行業期待通用型AI能夠在ChatGPT的熱潮中迎來真正落地的時刻,卻冒出了呼籲暫停AI訓練的公開信,而後特斯拉及推特執行長馬斯克等上千人在這封公開信中予以了簽名,Stability AI CEO、07年圖靈獎得主、蘋果聯合創始人、多位DeepMind工程師也都赫然在列,形成了極具分量的「千人聯名」,引發業界關注。

這封公開信表明了對AI潛在風險的擔憂:「只有當我們能夠確信,AI體系的有利因素都是積極的,且風險都可控,一個強大的AI體系才能成熟。」

吳恩達公開發貼反對「千人聯名」(圖片來源於推特截圖)

很快,吳恩達、田淵棟等一眾AI大牛發文公開反對「千人聯名」,吳恩達表示,在GPT-4出現之後要求AI訓練暫停6個月是很可怕的事情:它(GPT-4)在教育、醫療保健、食品等領域都有很多新的應用,這將幫助許多人。

在吳恩達的帖子下面,Meta數據科學家林致遠,英偉達AI研究科學家Jim Fan也都表示贊同,他們認為「6個月暫停令」本身並不是一個非常切實可行的建議,是在扼殺AI進步。

1 雙方提到同一關鍵詞「安全」

技術驚人進化引發人類擔憂

無論是呼籲暫停研究的「拯救派」還是反對千人聯名的「降臨派」,仔細分析雙方的發言,發現焦點集中在了「安全」:「千人聯名」公開信中建議,利用「暫停訓練」的這段時間,開發和實施一套共享安全協議,用於高級人工智慧設計和開發,並由獨立外部專家進行嚴格審核和監督……人工智慧的研究和發展,應該重新聚焦於朝著更準確、安全、可信可解釋等的AI系統開發工作上來。吳恩達的帖子中也提到,要提高人工智慧的安全性,應該是在安全方面進行更大的投資,有關透明度和審計的規定將更加切實可行。

從雙方對AI「安全」的關注可以看出,這輪關於「暫停AI訓練」的爭議,本質上是人們對於AI技術無序發展的恐懼和不安,這也並非AI發展中第一次引發這樣的擔憂。2015年,物理學家史蒂芬·霍金和埃隆·馬斯克等數位科學家、企業家,與人工智慧領域有關的投資者,就曾聯名發出了一封公開信,警告人們必須更多地注意人工智慧的安全性及其社會效益。

當年的呼籲並沒有阻擋技術前進的步伐,如今AI已經呈現出了更加令人不安的「智能」,以至於很多人擔心,AI會不會像科幻作品中描述的那樣,可以像人一樣自主思考,甚至更全面更智慧,就像《流浪地球2》裡的數字生命計劃一樣,人的智慧逃逸到數字空間之中,那麼人類是否還有存在的必要?《人類簡史》當中也描繪了未來人類這個物種可能面臨的巨變。

清華大學計算機系長聘副教授、北京聆心智能科技有限公司創始人黃民烈表示,AI距離具備科幻作品中呈現的那種自主人格,還相差很遠的距離。「通俗來說,AI學習了大量的人類對話數據,而這些對話來自不同的人,所以可以認為AI學習到了一個『平均』的人格,但也僅僅是語言說話風格,而且是來自人類的說話風格,並不是AI自發形成的。」

但是,科學的確存在倫理風險,尤其是人類對AI的情感依賴越來越多的情況下,黃民烈教授舉例:假想某個受到生活嚴重打擊的人,對AI說:「我想找個橋跳下去」,AI立刻提供了附近橋的位置並導航路徑,後果細思恐極。

「千人聯名」事件前後發生的一次自殺事件似乎印證了這種擔憂,一名化名為皮埃爾的比利時男子在與一個名為「艾麗莎」的智能聊天機器人頻繁聊天六周後自殺身亡。「艾麗莎」由美國矽谷一家初創公司開發,背後由GPT-J支撐,與ChatGPT採用OpenAI開發的GPT-3或GPT-4為競爭關係。

ChatGPT的開發公司OpenAI也曾在GPT-4技術報告中描述了一些可預見的,與偏見、虛假信息、過度依賴、隱私、網絡安全等相關的風險——ChatGPT「胡言亂語」的問題始終沒有得到有效解決,其因此備受詬病。

3 用魔法打敗魔法

用技術規範技術

由此看來,暫停AI研究的確不切實際,借用Meta FAIR研究院研究員/高級經理、CMU機器人系博士田淵棟對AI發展的描述來說:一旦開始,就沒有辦法停止或扭轉這一趨勢,這就是進化的必然。

但這不意味著人類對可能存在的倫理安全問題「束手無策」,ChatGPT這類生成式AI是通過範例學習的,他們的行為是可以規範的,應該鼓勵合規的機構去發展AI,用合法AI去對抗非法AI,而不是停滯不前。

事實上,AI飛速向前發展的同時,有關AI安全的技術也從未止步。前不久,微軟在其首屆Microsoft Secure活動中發布了一款生成式AI安全產品Security Copilot,把AI技術應用到了網絡安全領域。該產品由OpenAI的大型語言模型GPT-4和微軟自家的安全模型提供支持,在微軟雲服務Azure上運行,用以幫助更快、更準確地檢測和響應安全威脅。

在更早的2021年,微軟就成立了安全、合規、身份與管理部門來應對日益加劇的網絡安全挑戰。2022年,網絡安全業務為微軟帶來了超200億美元的營收。微軟曾稱,未來五年間將不斷加大對網絡安全業務的投入,預計將在客戶安全保護方面投入近200億美元。

國內在AI安全方面的相關成果也正在出現,例如,3月聆心智能聯合清華大學CoAI實驗室歷經兩年建立的大模型安全評估框架正式發布,對ChatGPT的安全設計所不能規避的風險問題形成了更全面的補充,建立了大模型安全分類體系,設置了八大不安全的對話場景,包括政治敏感、犯罪違法、身體健康、心理健康、財產隱私、歧視/偏見、辱罵/仇恨言論、倫理道德,並針對以上八大不安全場景對大模型進行針對性升級,使模型能夠在遇到安全問題時給予正確的回覆策略,不去做判斷和誤導。

此外,研究團隊還收集和構造了相應的hard case(更難識別和處理的安全測試用例),總結和設計了六種一般模型難以處理的安全攻擊方式,稱為指令攻擊。使安全體系更加完善,進一步改進和優化模型表現。

據了解,早在去年7月,黃民烈教授就在媒體報導中表現出了對AI安全的關注,他表示,「AI對話系統下一階段發展的重點是更有倫理、更道德、更安全。我們可以通過額外的資源、規則、檢測手段賦予AI這樣的能力,使風險降至最低。」

4 「潘多拉的魔盒」難以逆轉

極擁抱AI for Social good

在科技發展的宏偉歷史中,任何一項新興技術的出現往往會引起人們對未知的恐懼,那些能夠引起社會巨大變革的技術總是被比喻為「潘多拉的魔盒」,可能是引發災難的根源,但是別忘了除了欲望與罪惡,盒子中也藏著希望。並且,「潘多拉的魔盒」一旦打開,很難扭轉這一趨勢,我們應該做的是規避不幸,釋放希望。

就像當前急速發展的AI技術,暫停研究的呼籲是為了促進AI技術建立較高的道德標準和倫理規範,確保AI技術的應用不會對個人和社會造成潛在的危害。但應該看到,AI技術的發展是人類社會前進的必經之路,比起暫停進步,更應該做的是理解AI,適應它並利用其力量,同時建立起安全可信的框架規範其發展,確保其在促進人類社會發展的軌道上不偏航。

發展AI最終的目標是為人類謀福祉,而不是傷害人類,期待AI for Social good(AI賦能社會)儘快到來,為人類社會發展帶來更高的社會意義和價值。

未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!

公眾號轉載請先在「AI科技評論」後台留言取得授權,轉載時需標註來源並插入本公眾號名片。

關鍵字: