百歲基辛格談人工智慧:不要等到危機來臨才開始重視 | 讀書

第一財經 發佈 2023-06-07T00:05:38.248662+00:00

2023年,亨利·基辛格已經100歲高齡,但是他頭腦依然很清醒,思路依然很清晰。《經濟學人》在4月底與基辛格進行了長達8個小時的對話。

評論贈書你如何看待人工智慧的發展對社會的影響,你身邊有哪些行業已經開始被人工智慧所取代?在評論區留言,被選中的用戶有機會獲得這本由中信出版集團出版的《人工智慧時代與人類未來》

2023年,亨利·基辛格已經100歲高齡,但是他頭腦依然很清醒,思路依然很清晰。他還是一如既往的參加國際問題的討論,並且還能給出令人佩服的預測。

《經濟學人》在4月底與基辛格進行了長達8個小時的對話。在這次對話中,基辛格表示出了對中美兩國圍繞科技和經濟領先地位日益激烈競爭的擔憂,他還擔心人工智慧即將極大程度地加劇中美對立。基辛格認為,人工智慧將在五年內成為安全領域的關鍵因素,其顛覆性潛力堪比活字印刷術。

「我們生活在一個破壞性空前的世界中」,基辛格警告道。儘管原則上人類要介入機器學習的反饋循環,但人工智慧還是可能成為全自動的、不可阻擋的武器。

基辛格一直非常關注人工智慧的發展,他曾經說過「搞技術的人關心的是應用,我關心的是影響」。最近,基辛格和谷歌前執行長埃里克·施密特、麻省理工學院蘇世民學院院長丹尼爾·胡騰洛赫爾還共同完成一本書《人工智慧時代與人類未來》,基辛格在這本書中提出,人工智慧將重塑全球安全和世界秩序,並對人工智慧發展對個體和人類自我身份認同的衝擊進行了反思。

《人工智慧時代與人類未來》

亨利·基辛格等著

自有記載的人類歷史起,安全始終是一個有組織的社會追求的最低目標。在每一個時代,尋求安全的社會都試圖將技術進步轉化為日益有效的方法,用以監視威脅,練兵備戰,施影響於國界之外,戰時則用於加強軍事力量以取得勝利。對最早期的有組織社會來說,冶金、防禦工事、戰馬蓄養和造船等方面的進步往往具有決定性的意義。到了近代早期,火器槍炮、海軍艦船、航海工具和技術方面的創新也發揮了類似的作用。

隨著力量的增強,主要大國之間會相互衡量,以評估哪一方會在衝突中獲勝,取得這樣的勝利會帶來什麼風險和損失,開戰有什么正當的理由,以及另一個大國及其軍事力量介入衝突會對結果產生什麼影響。不同國家的戰力、目標和戰略至少在理論上被設定為一種平衡,或者說是一種力量的均衡。

人工智慧時代的網絡戰爭

在過去的一個世紀裡,對手段和目的的戰略調整已然出現了脫節。用於追求安全的技術層出不窮,破壞性也越來越大,而運用這些技術實現既定目標的戰略卻變得越來越難以捉摸。在當今時代,網絡和人工智慧的出現又為這些戰略計算增加了超乎尋常的複雜性和抽象性。

在冷戰結束後的今天,主要大國和其他國家都利用網絡能力增強了本國的武器庫,這些網絡能力的效用主要源自其不透明性和可否認性,在某些情況下,也源自對其在散播虛假信息、收集情報、蓄意破壞和傳統衝突的模糊邊界上的運用——這構成了種種尚無公認理論教條的戰略。與此同時,每一次進步都伴隨著新的弱點被揭露。

人工智慧時代可能使現代戰略之謎更趨複雜化,這並非人類本意,也許還完全超出人類的理解。即使各國不廣泛部署所謂的致命自主武器(即經過訓練和授權可以自主選擇目標,並在沒有進一步人類授權的情況下進行攻擊的自動或半自動人工智慧武器),人工智慧仍有可能增強常規武器、核武器和網絡能力,從而使對手之間的安全關係更加難以預測和維護,衝突更加難以限制。

沒有哪個大國可以忽視人工智慧的安全維度。一場爭奪人工智慧戰略優勢的競賽已經開始,尤其是在美國和中國之間,當然還有俄羅斯。隨著對他國正在獲得某些人工智慧能力的認知或猜疑日益蔓延,將會有更多國家尋求獲得這些能力。而一旦被引入,這能力就會快速擴散。雖然創造一種複雜的人工智慧需要大量的算力,但對其進行增殖擴散或使用它通常並不需要。

解決這些複雜問題的辦法既不是陷入絕望,也不是繳械投降。核技術、網絡技術和人工智慧技術已經存在,其中每一項技術都將不可避免地在戰略中發揮作用。我們已不可能退回到這些技術「未被發明」的時代。如果美國及其盟友因這些能力可能產生的影響而畏縮不前,結果不會是一個更和平的世界。相反,那將是一個不太平衡的世界,身處其中的各國會競相發展和使用最強大的戰略能力,而不考慮民主責任和國際平衡。

今後幾十年,我們需要實現一種力量平衡,這種平衡既要考慮到網絡衝突和大規模虛假信息傳播等無形因素,也要考慮到由人工智慧輔助的戰爭的獨特屬性。殘酷的現實迫使人們認識到,即使是在彼此競爭中,人工智慧領域的對手們也應致力於限制極具破壞性、不穩定性和不可預測性的人工智慧能力的開發和使用。在人工智慧軍備控制方面的清醒努力與國家安全並不衝突,它是一種嘗試,為的是確保在人類未來的框架下尋求實現安全。

一個社會的數字能力越強

這個社會就變得越脆弱

縱觀歷史,一個國家的政治影響力往往與其軍事力量和戰略能力大致匹配,這是一種即使主要通過施加隱性威脅也會對其他社會造成破壞的能力。然而,基於這種力量權衡的均勢不是靜態的或自我維持的。相反,它首先依賴於各方就這一力量的構成要素及其使用的合法界限達成共識。其次,維持均勢需要體系內所有成員,尤其是對手,就各個國家的相對能力、意圖和侵略的後果進行一致的評估。最後,保持均勢需要一個實際的、公認的平衡。當體系中的一方以一種與其他成員並不成比例的方式增加自身力量時,體系將通過組織對抗力量或者通過適應新的現實來設法做出調整。當均勢的權衡變得不確定時,或者當各國對各自相對實力的權衡結果完全不同時,由誤算引發衝突的風險就會達到最大。

在當今時代,這些權衡的抽象性更進一步。帶來這種轉變的原因之一是所謂的網絡武器,這類武器涉及軍用和民用兩個領域,因此其作為武器的地位是模糊的。在某些情況下,網絡武器在行使和增強軍事力量方面的效用主要源於其使用者未披露其存在或未承認其全部能力。傳統上,衝突各方都不難認識到發生了交戰,或者認識到交戰各方是誰。對手間會計算對方的戰力,並評估他們部署武器的速度。可是這些在傳統戰場上顛撲不破的道理卻不能直接套用到網絡領域。

常規武器和核武器存在於物理空間中,在那裡,它們的部署可以被察覺,它們的能力至少可以被粗略計算出來。相比之下,網絡武器的效用很大一部分來自其不透明性;若被公之於眾,它們的威力自然有所減損。這些武器利用之前未曾披露的軟體漏洞,在未經授權用戶許可或知情的情況下侵入網絡或系統。在「分布式拒絕服務」(DDoS)攻擊(如對通信系統的攻擊)的突發事件中,攻擊者可能會使用一大堆看似有效的信息請求來壓垮系統,使系統無法正常使用。在這種情況下,攻擊的真實來源可能被掩蓋,使人難以或無法(至少在當時)確定攻擊者。即使是最著名的網絡工業破壞事件之一——震網(Stuxnet)病毒破壞了伊朗核項目中的製造控制計算機,也沒有任何政府對此事做過正式承認。

常規武器和核武器可以相對精確地瞄準目標,道德和法律要求它們瞄準的對象只能是軍事力量和設施。而網絡武器可以廣泛地影響計算和通信系統,往往可對民用系統造成特別有力的打擊。網絡武器也可以被其他行為體基於其他目的而進行吸納、修改和重新部署。這使得網絡武器在某些方面類似於生物和化學武器,其影響可以非預期和未知的方式傳播。在許多情況下,網絡武器影響的是大範圍的人類社會,而不僅僅是戰場上的特定目標。

網絡武器的這些用途,使得網絡軍備控制難以被概念化或被推行。核軍備控制的談判人員可以公開披露或描述一類核彈頭,而不必否認該武器的功能。網絡軍備控制談判人員(目前尚不存在)則需要解決以下悖論:一旦對網絡武器的威力進行討論,可能就會導致這種威力的喪失(允許對手修補漏洞)或擴散(對手得以複製代碼或侵入方法)。

我們所處的數字時代的一個核心悖論是:一個社會的數字能力越強,這個社會就變得越脆弱計算機、通信系統、金融市場、大學、醫院、航空公司和公共運輸系統,甚至民主政治的機制,所涉及的系統在不同程度上都容易受到網絡操縱或攻擊。隨著發達經濟體將數字指揮和控制系統整合到發電廠和電網中,將政府項目轉移到大型伺服器和雲系統中,並將數據轉謄到電子帳簿中,它們在網絡攻擊面前的脆弱性也成倍增加。這些行為提供了更豐富的目標集合,因此僅僅一次成功的攻擊就可能造成實質性的破壞。與此相對,如果發生數字破壞的情況,低技術國家、恐怖組織甚至個人攻擊者可能會認為他們承受的損失相對要小得多。

人工智慧將為戰爭帶來新的變數

各國正在悄無聲息地,有時是試探性地,但又確鑿無疑地發展和部署那些對各種軍事能力的戰略行動均有所促進的人工智慧,這對安全政策可能產生革命性影響。

戰爭一直是一個充滿不確定性和偶然性的領域,但人工智慧進入這個領域將為其帶來新的變數。

人工智慧和機器學習將通過擴大現有武器類別的打擊能力來改變行為者的戰略和戰術選擇。人工智慧不僅能使常規武器瞄得更精準,還能使它們以新的、非常規的方式進行瞄準,比如(至少在理論上)瞄準某個特定的個人或物體,而不是某個地點。通過研究大量信息,人工智慧網絡武器可以學習如何滲透防禦,而不需要人類幫它們發現可以利用的軟體漏洞。同樣,人工智慧也可以用於防禦,在漏洞被利用之前定位並修復它們。但由於攻擊者可以選擇目標而防禦者不能,人工智慧即使未必讓進攻方戰無不勝,也可令其占得先機。

如果一個國家面對的對手已經訓練人工智慧來駕駛飛機、獨立做出瞄準的決策並開火,那麼採用這種技術將在戰術、戰略或訴諸升級戰爭規模(甚至是核戰)的意願方面產生什麼變化?

人工智慧開闢了信息空間能力的新視野,包括虛假信息領域。生成式人工智慧可以創造大量似是而非的虛假信息。人工智慧推波助瀾的信息戰和心理戰,包括使用偽造的人物、圖片、視頻和演講,無時無刻不在暴露出當今社會令人不安的新弱點,尤其是在自由社會。廣泛轉發的示威活動配上了看似真實的圖片和視頻,裡面的公眾人物發表著他們從未真正說過的言論。從理論上講,人工智慧可以決定將這些由人工智慧合成的內容以最有效的方式傳遞給人們,使其符合人們的偏見和期望。

各個主要的技術先進國家都需要明白,它們正處於戰略轉型的門檻上,這種轉型與當年核武器的出現同等重要,但影響將更加多樣化、分散化和不可預測。每個正在擴展人工智慧前沿的社會都應致力於成立一個國家層面的機構,來考量人工智慧的防禦和安全,並在影響人工智慧創建和部署的各個部門之間建立橋樑。這個機構應被賦予兩項職能:確保維持本國在世界其他地區的競爭力,同時協調研究如何防止或至少限制不必要的衝突升級或危機。在此基礎上,與盟友和對手進行某種形式的談判將是至關重要的。

如果要對這一方向進行探索,那麼世界兩大人工智慧強國——美國和中國——就必須接受這一現實。兩國可能會得出這樣的結論:無論兩國競爭的新階段可能會出現何種形式的競賽,兩國仍應該尋求達成一項共識,即不會同對方打一場前沿技術戰爭。雙方政府可以委託某個團隊或高級官員負責監督,並直接向領導人報告潛在的危險,以及如何避免這些危險。

在人工智慧時代,我們應該對長期以來的戰略邏輯進行調整。在災難真正發生之前,我們需要克服,或者至少是遏制這種自動化的驅向。我們必須防止運行速度比人類決策者更快的人工智慧做出一些具有戰略後果的、不可挽回的行為。防禦力量的自動化,必須在不放棄人類控制的基本前提下去實施。

由於大多數人工智慧技術具有軍民兩用特性,我們有責任在這場技術研發競賽中保持領先。但這也同樣迫使我們去理解它的局限性。等到危機來臨才開始討論這些問題就為時已晚了。一旦在軍事衝突中使用,人工智慧技術的響應速度之快,幾乎註定它將以比外交手段更快的速度產生結果。大國之間必須就網絡和人工智慧武器展開討論,哪怕只是為了形成一套共同的戰略概念話語,以及感知彼此的紅線。

要在最具破壞性的能力上實現相互制約,絕不能等到悲劇發生再去亡羊補牢。當人類開始在創造新的、不斷演化的、擁有智能的武器方面展開競爭時,歷史不會原諒任何對此設限的失敗。在人工智慧時代,對國家優勢的持久追求,仍須以捍衛人類倫理為前提。

微信編輯 |小V

關鍵字: