為何不能暫停AI研發?丨楊立昆吳恩達對話實錄

大數據文摘 發佈 2024-01-22T09:47:25.922474+00:00

大數據文摘授權轉載自智源社區編輯:熊宇軒、李夢佳北京時間4月8日凌晨0:30,Yann LeCun(楊立昆)和吳恩達針對近期甚囂塵上的「AI暫停」一事進行了一場深入討論,討論主題為「為何為期6個月的AI暫停是完全錯誤的」。在這場風波中,二人都立場鮮明,明確表態反對暫停AI研發。

大數據文摘授權轉載自智源社區

編輯:熊宇軒、李夢佳

北京時間4月8日凌晨0:30,Yann LeCun(楊立昆)和吳恩達針對近期甚囂塵上的「AI暫停」一事進行了一場深入討論,討論主題為「為何為期6個月的AI暫停是完全錯誤的」。在這場風波中,二人都立場鮮明,明確表態反對暫停AI研發。汽車剛發明時沒有安全帶和交通信號燈,Yann LeCun認為,人工智慧與先前的技術進步之間沒有本質上的差異。智源社區對討論核心觀點進行了整理。

吳(吳恩達):在過去的 10、20、30 年間,我們見證了深度學習驚艷的效果。在近 1-2 年,人工智慧系統進步的趨勢甚至更快了,出現了 ChatGPT、Stable Diffusion、DALL·E 等系統。因此,一些人開始擔心人工智慧的公平性,以及它對社會經濟、失業率的影響。還有一些人甚至擔心通用人工智慧(AGI)會產生邪惡的機器人。這些對現在和未來的擔憂是真實存在的。為此,未來生命研究所(FLI)提出了一個暫停訓練比 GPT-4 更強大的人工智慧模型的公開信,Yoshua Bengio、Elon Musk 等名人都聯名簽署了這份提案。您能否分享一下自己的看法?

LeCun(楊立昆):我的第一反應是——延緩研究和發展是一種腐朽倒退的思想。我們不應放緩知識和科學的進步。就產品而言,我支持監管產品,但我不認為監管研究和開發有什麼意義,這反而會減少我們可以用來讓技術更好、更安全的知識。

吳:如今的人工智慧系統確實面臨著為人們帶來損害的風險,例如:偏見、公平性、過於集中的能力。這些都是客觀存在的問題。然而,AI 也會創造巨大的價值!在過去十年、甚至數月間,大量的人工智慧創意被用於教育、醫療等行業。即使我們如今有 GPT-4 這樣好的模型,構建一個更好的模型會幫助這些應用更好的助人。中止這樣的進步有害於創造這些對人類大有助益的工具。

LeCun:是的。我認為簽署這封公開信的人可能有以下幾個動機。極端地說,一些人會擔心在某一時刻實現了 AGI,然後在短時間內消滅了人類。

我認為很少有人真的相信這種情況,或者相信這是一個無法阻止的威脅。

還有一些人的思考較為合理,他們認為需要應對 AI 的潛在危害。我贊同這一點。AI 還存在很多問題,比如讓 AI 系統可控,提供真實、無害的信息。但是這似乎有些缺乏想像力了,未來的人工智慧系統不會按照「自回歸」的方式設計。我們會產生一些新的想法,使系統更加可控。因此問題就變成了如何為系統設計與人類價值觀、政策一致的目標。「人類有足夠的智慧設計超級智能系統,而沒有足夠智慧設計好的目標的」概率是很低的。目前這些產品由少數公司在利潤的驅使下生產,這些公司將會獲得怎樣的權力和影響力?會對人們的經濟產生怎樣的影響?是否存在內在的風險?我認為可以有適當的產品監管,但不應停止研發。

吳:近年來,AI 取得了巨大的進步,這十分有趣。但是現在的模型離完美還差得很遠,它們仍然會造成混亂。目前人們對模型的指令有了巨大的進步,許多公司也轉向了這一方向。著力「對人工智慧的安全性及性能調整並對齊人工智慧與人類意圖」比全面暫停研發更加具有建設性。

我和你都反對對人工智慧的炒作。在深度學習剛起步的時候,很多人對它具有不切實際的期望。坦白地說,我對自動駕駛也過於樂觀了。我們現在都沒有實現 L5 的自動駕駛。如今,「AI 末日論」認為人工智慧可以逃脫並超越一切也是另一種炒作,這種炒作也是有害的。

LeCun:我贊同。如今,有了 ChatGPT、GPT-4 這樣的模型,人們玩得不亦樂乎。這造成了一種印象,讓我們以為已經距離具有人類水平的智能十分接近了。這是因為人類是以語言為導向的。我們認為能流利地給出答案就是智能的。但事實並非如此,這些系統完全通過文本訓練,沒有任何真實的經驗,對於現實的理解十分膚淺。即使是 GPT-4 也很少利用圖像訓練。這也導致了它們有時會「一本正經地胡說八道」。

我們離人類水平的智能還很遠,這並非炒作。人類的智能實際上是十分專門化的。毫無疑問,我們在未來的幾十年間將擁有在人類具有智能的領域與人類達到同等水平或超越人類智能的系統。但並不會馬上就實現。

直到我們設計出有機會達到人類智能的系統的藍圖,我們再討論如何正確地保證它們是安全的。否則都為時過早。如果車都不存在,如何設計安全帶?

如果都沒有發明飛機,怎麼設計安全的噴氣式引擎?這種對未來的恐慌是誤導。

人工智慧離人類水平的智能還很遠,否則我們就不會還沒有 L5 級自動駕駛了。而青年人學習 20 小時就會開車。即使我們有能夠流利地給出語言答案的系統,但是這需要用數萬億單詞來訓練模型。如果一個人每天讀 8 小時單詞,都需要 22,000 年才能讀完這些單詞。這與我們觀察到的人類智能大相逕庭。我們認為很難的下象棋、寫作文等事情對於機器又十分簡單。而擦桌子、洗碗這樣的事對於機器來說又很困難。

吳:是的。我們距離 AGI 還很遠。這個公開信中所說的「AI 逃逸」等挑戰似乎並不可行。但是,確實有些事是我們可以做的。例如,做更多更安全的人工智慧研究,提高科研資金的透明度、改善審計制度,投入更多資金用於人工智慧基礎研究。但是,在實驗室和國家試圖建立先進技術、公司間充滿商業競爭的環境中要求人工智慧實驗室放慢速度是不切實際的。因為這本身創造了很多價值。

LeCun:當我們談論 GPT-4 和 ChatGPT,更多的是談論其產品,而並非研發。OpenAI 有些從較為開放的 AI 研究實驗室轉向了為微軟盈利。監管面向公眾的產品是可以的,如果它們對公眾帶來危險,就應該干預。但是,不應該對技術研發進行監管。當一項新技術投入使用時,我們需要做的是確保積極的影響最大化,消極的影響最小化,但並不一定要阻止它。人工智慧將放大人類智能,它將會是新的「文藝復興」。這是一種新的啟蒙運動,為什麼要阻止它?

吳:在技術監管方面,我同意你的大部分看法。但是也存在一些例外,比如上世紀 60-70 年代,人們用猴子病毒研究 DNA,這些疾病有泄漏的風險,於是科學家通過會議叫停了這一研究,這是有益的。但是,相較之下,我們目前並沒有看到人工智慧逃逸的風險,實現廣泛、智能的 AGI 還需要很久,這在幾十年,甚至幾百年的時間內都不一定會實現。

LeCun:實際上,我 4 年前在《科學美國人》雜誌上曾聯合編寫了一篇題為「不要害怕終結者」的文章。AI 系統想要主宰人類的情況是不切實際的,因為它們並沒有這樣的動機。只有社會化動物有這樣的動機,而機器並沒有此需求。我們可以設計機器的目標或讓它們遵守一定的規則,讓它們符合人類的最大利益。

此外,不僅公眾會發現科技存在的問題,科技行業本身也在不斷發現自己的問題並糾正它們。就社交網絡而言,人工智慧的進步使得更有效地刪除仇恨言論之類的事情成為可能,這完全歸功於大型語言模型。人工智慧是解決方案的一部分,而不是問題所在。

吳:任何技術第一次出現時都不是完美的,實際可行的做法是以一種可以控制的方式,限制其危害,對其進行更好的監測,解決有害的用例。完全暫停研發進程似乎並不明智。

Q1:如何看待AI發展會帶來危害這一觀點?通過暫停試驗能扼止這種危害嗎?

LeCun:當然會有一些東西可能是小規模部署用於試驗,並且可以識別出真正的危害。因為有兩種危害,即潛在危害和真實危害,以及想像中的危害。如果存在真實危害, 你現在應該停止部署該產品。但是否意味著你應該禁止所有人工智慧研究嗎,當然不。在危害發生之前很難識別,但是當它發生在小範圍內時,你會採取糾正措施,這就是技術史上發生的事情。舉個例子,第一批汽車非常不安全,它們沒有良好的剎車系統,也沒有安全帶,沒有交通信號等等。而這些東西是逐步到位的,以使其更安全。航空業也是如此,最終你會有一個監管機構來確保這些產品是安全的,這就是它的運作方式。人工智慧與之前的技術進步之間沒有本質上的差異。

吳:在遺傳病原體研究中,一旦病原體被釋放,即使是世界上最強大的組織也無法關閉它,而今天政府可以通過立法,迫使公司關閉他們的服務。我們現在確實可以選擇相對較快的方式將事情拒之門外。

Q2:如何解讀很多頂尖專家簽署了AI暫停公開信?(Yoshua Bengio也在其中)

LeCun:Yoshua 是我的老朋友了,我們上學時候就認識,那時他還在讀碩士,我在讀博士後。1980年代,人們對AI持有動機不同,看法也不同。

我認為他是受那些人的鼓動才簽署了這份文件。他認為,公司出於盈利的目的來主導技術發展會帶來危險,他認為這本質上是不好的。而我不這麼認為。我認為公司操控技術,本質上不一定是壞事。

他非常反對人工智慧研發的保密。我同意他的看法,我是開放研究的堅定擁躉。但同樣,我們這裡不是在談論研究,而是產品。開放研究應該持續下去。人們對OpenAI的不滿,一部分源自於,他們在產品中使用的大部分想法實際上並非獨創,有的源自谷歌、FAIR等等,但現在他們自己卻封閉起來了。但這種封閉不會持續太久,我認為,在很短的時間內,會有許許多多相似功能的產品。OpenAI確實因為數據飛輪和大量的用戶積累占了優勢,但這種優勢不會一直持續。

背景簡述:暫停AI之爭

偉大新技術的發明往往伴隨著巨大的爭議。2023 年 2 月-4 月,全球科技巨頭爭先恐後參與到ChatGPT 類產品和相關領域的激烈角逐中,改變著世界產業的格局。站在AGI時代來臨前的黎明關口,由 MIT 物理系教授教授Max Tegmark、牛津大學哲學教授 Nick Bostrom 創辦的非營利性組織生命未來研究所(Future of Life Institute)在他們的網站上貼出了一封公開信,信件內容為呼籲暫停至少6個月對下一代超級 AI 的研究。Elon Musk、Yoshua Bengio和Steve Wozniak(蘋果聯合創始人)、Emad Mostaque(Stability AI CEO)、Gary Marcus(紐約大學心理學教授)等學術權威和業界領袖也紛紛聯名簽署了這份公開信(連結:https://futureoflife.org/open-letter/pause-giant-ai-experiments/)。

這封公開信一經發布便引起了人工智慧學術界、產業界的軒然大波。人們關於 AI 未來的發展道路展開了激烈的爭論。

Yoshua Bengio 發表長文指出我們需要放緩技術進步的速度,更好地了解目前的人工系統,在國家、國際層面上制定相關的規章制度,保護公眾的利益不受損。

而他的好友Yann LeCun 則一直力挺繼續研發更強大的人工智慧,他認為:「機器智能是增強人類智能的一種方式,就像機械工具能增強人類的身體機能一樣。在我們擁有可靠並能達到人類智能水平的AI系統的基礎設計和演示用例之前,討論它們的風險和安全機制的還為時過早」。

值得一提的是,OpenAI 的 CEO Sam Altman 也在近期的採訪中在一定程度上表達了「AI可能會殺人」的隱憂,這和著名人工智慧學者 Eliezer Yudkowsky 的觀點不謀而合。

世界範圍內的人工智慧倫理與安全

「人工智慧倫理與相關政策法規的制定」一直是經久不衰的話題。

控制論之父維納在《人有人的用處》一書中提到「這些機器的趨勢是要在所有層面上取代人類,而非只是用機器能源和力量取代人類的能源和力量。很顯然,這種取代將對我們的生活產生深遠影響」。而新千年以來,在《機械公敵》、《西部世界》、《終結者》等影視作品中,創作者們也在頻繁表達著對於未來「人機共存」世界的暢想與人工智慧對人類帶來不利影響的隱憂。

在這一大背景下,世界各國紛紛出台相關政策法規規範人工智慧、數據科學等領域的科學研究和工業生產。例如:歐盟於 2021 年 4 月提出了《人工智慧法案》、中國於 2022 年「世界人工智慧大會治理論壇」上發布《人工智慧倫理建議書》、《人工智慧與國際準則》、《人工智慧治理與可持續發展實踐白皮書》。2023 年初,聯合國教科文組織呼籲各國儘快實施該組織通過的首份人工智慧倫理問題全球性協議——《人工智慧倫理問題建議書》,重點關切人工智慧的不平等問題,保護個人數據權益、避免造成危害,並在危害發生時啟動問責和補救機制。

人工智慧技術的飛速發展不可避免地帶來了人們對於新技術倫理、法律規範的探討,而保持樂觀的態度也許正是面對不確定性的最佳途徑。正如本次對話最後吳恩達所說,不管怎樣,應繼續推動AI為所有人創造普世的價值。

關鍵字: