「AI世界」還缺點啥?牛津大學教授Michael Wooldridge:現實世界

學術頭條 發佈 2022-09-30T04:51:43.792045+00:00

無限猴子定理認為,讓一隻猴子在打字機上隨機地按鍵,當按鍵時間達到無窮時,幾乎必然能夠打出任何給定的文字,比如莎士比亞的全套著作。在這個定理中,「幾乎必然」是一個有特定含義的數學術語,「猴子」也不是指一隻真正意義上的猴子,而是被用來比喻成一台可以產生無限隨機字母序列的抽象設備。

無限猴子定理認為,讓一隻猴子在打字機上隨機地按鍵,當按鍵時間達到無窮時,幾乎必然能夠打出任何給定的文字,比如莎士比亞的全套著作。


在這個定理中,「幾乎必然」是一個有特定含義的數學術語,「猴子」也不是指一隻真正意義上的猴子,而是被用來比喻成一台可以產生無限隨機字母序列的抽象設備。



這個理論說明,把一個很大但有限的數看成無限的推論是錯誤的,即使可觀測宇宙中充滿了一隻不停打字的猴子,它們能夠打出一部《哈姆雷特》的概率仍然少於 1/10^183800。


而且,即使給無數隻猴子無限的時間,它們也不會懂得如何欣賞吟遊詩人詩意的措辭。


人工智慧(AI)也是如此,」 牛津大學計算機科學教授 Michael Wooldridge 這樣說道。



在 Wooldridge 看來,雖然 GPT-3 等 AI 模型藉助數百億或數千億的參數展現出了令人驚訝的能力,但它們的問題不在於處理能力的大小,而在於缺乏來自現實世界的經驗。


例如,一個語言模型可能會很好地學習「雨是濕的」,當被問及雨是濕的還是乾的時,它很可能會回答雨是濕的,但與人類不同的是,這個語言模型從未真正體驗過「潮濕」這種感覺,對它們來說,「濕」只不過是一個符號,只是經常與「雨」等詞結合使用。


然而,Wooldridge 也強調,缺乏現實物理世界知識並不能說明 AI 模型無用,也不會阻止某一 AI 模型成為某一領域的經驗專家,但在諸如理解等問題上,如果認為 AI 模型具備與人類相同能力的可能性,確實令人懷疑。


相關研究論文以「What Is Missing from Contemporary AI? The World」為題,已發表在《智能計算》(Intelligent Computing)雜誌上。


在當前的 AI 創新浪潮中,數據和算力已經成為 AI 系統成功的基礎:AI 模型的能力直接與其規模、用於訓練它們的資源以及訓練數據的規模成正比。


對於這一現象,DeepMind 研究科學家 Richard S. Sutton 此前就曾表示,AI 的「慘痛教訓」是,它的進步主要是使用越來越大的數據集和越來越多的計算資源。



在談及 AI 行業的整體發展時,Wooldridge 給出了肯定。「在過去 15 年裡,AI 行業的發展速度,特別是機器學習(ML)領域的發展速度,一再讓我感到意外:我們不得不不斷調整我們的預期,以確定什麼是可能的,以及什麼時候可能實現。」


但是,Wooldridge 卻也指出了當前 AI 行業存在的問題,「儘管他們的成就值得稱讚,但我認為當前大多數大型 ML 模型受到一個關鍵因素的限制:AI 模型沒有真正體驗過現實世界。


在 Wooldridge 看來,大多數 ML 模型都是在電子遊戲等虛擬世界中構建的,它們可以在海量數據集上進行訓練,一旦涉及到物理世界的應用,它們就會丟失重要信息,它們只是脫離實體的 AI 系統。


以支持自動駕駛汽車的人工智慧為例。讓自動駕駛汽車在道路上自行學習是不太現實的,出於這個和其他原因,研究人員們往往選擇在虛擬世界中構建他們的模型。


但它們根本沒有能力在所有最重要的環境(即我們的世界)中運行,」Wooldridge 說道。



另一方面,語言 AI 模型也會受到同樣的限制。可以說,它們已經從荒唐可怕的預測文本演變為谷歌的 LAMDA。今年早些時候,一個前谷歌工程師聲稱人工智慧程序 LAMDA 是有知覺的,一度成為了頭條新聞。


「無論這個工程師的結論的有效性如何,很明顯 LAMDA 的對話能力給他留下了深刻的印象——這是有充分理由的,」 Wooldridge 說,但他並不認為 LAMDA 是有知覺的,AI 也沒有接近這樣的里程碑。


「這些基礎模型展示了自然語言生成方面前所未有的能力,可以生成比較自然的文本片段,似乎也獲得了一些常識性推理能力,這是過去 60 年中 AI 研究的重大事件之一。」


這些 AI 模型需要海量參數的輸入,並通過訓練來理解它們。例如,GPT-3 使用網際網路上千億級的英語文本進行訓練。大量的訓練數據與強大的計算能力相結合,使得這些 AI 模型表現得類似於人類的大腦,可以越過狹窄的任務,開始識別模式,並建立起與主要任務似乎無關的聯繫。



但是,Wooldridge 卻表示,基礎模型是一個賭注,「基於海量數據的訓練使得它們在一系列領域具備有用的能力,也進而可以專門用於特定的應用。」


「符號人工智慧(symbolic AI)是基於『智能主要是知識問題』的假設,而基礎模型是基於『智能主要是數據問題』的假設,在大模型中輸入足夠的訓練數據,就被認為有希望提高模型的能力。」


Wooldridge 認為,為了產生更智能的 AI,這種「可能即正確」(might is right)的方法將 AI 模型的規模不斷擴大,但忽略了真正推進 AI 所需的現實物理世界知識。


「公平地說,有一些跡象表明這種情況正在改變,」 Wooldridge說。今年 5 月,DeepMind 宣布了基於大型語言集和機器人數據的基礎模型 Gato,該模型可以在簡單的物理環境中運行。


「很高興看到基礎模型邁出了進入物理世界的第一步,但只是一小步:要讓 AI 在我們的世界中工作,需要克服的挑戰至少和讓 AI 在模擬環境中工作所面臨的挑戰一樣大,甚至可能更大。」


在論文的最後,Wooldridge 這樣寫道:「我們並不是在尋找 AI 道路的盡頭,但我們可能已經走到了道路起點的盡頭。」


對此,你怎麼看?歡迎在評論區留言。


參考資料:

https://spj.sciencemag.org/journals/icomputing/2022/9847630/

https://www.eurekalert.org/news-releases/966063

關鍵字: