本書的第三個主要論點聚焦於國家安全、全球秩序與新型衝突的本質。這部分內容深受亨利·季辛吉的地緣政治思維影響,探討了當人工智慧進入軍事與戰略領域時,人類傳承數百年的戰爭理論、威懾邏輯以及國際權力平衡將如何面臨毀滅性的衝擊與重組。
論點三:人工智慧與安全秩序的變革——非人邏輯下的威懾困境與戰爭形態的重塑
在《人工智慧時代》中,作者們提出了一個令人戰慄的預見:人工智慧的興起正在從根本上瓦解人類自威斯特伐利亞體系以來建立的國際秩序與安全邏輯。過去,戰爭與和平的維繫依賴於對敵方能力的可視化評估、對敵方意圖的心理揣摩,以及在危機時刻留給外交斡旋的時間窗口。然而,當 AI 進入軍事指揮、網絡攻防與武器系統時,這三大支柱——可見性、可預測性與時間——都正在迅速消失。這不單僅是武器威力的提升,而是戰略本質的異化。人類正在創造一種自己可能無法完全控制、甚至無法完全理解的衝突機制,這使得全球秩序進入了一個前所未有的「大不確定時代」。
首先,作者們深入分析了 AI 帶來的「戰爭速度」對人類決策能力的挑戰。在傳統的克勞塞維茨戰爭論中,戰爭是政治的延續,這意味著軍事行動必須服從於政治目的,而政治目的是由具備理性的決策者根據局勢發展來調整的。但在 AI 時代,衝突的節奏可能被推升至「機器速度」。書中舉例說明,當防禦系統必須攔截以極高音速飛行且路徑多變的無人機群或導彈時,人類的反應速度(通常以秒計)已經遠遠趕不上機器的處理速度(以毫秒計)。這產生了一個戰略上的「自動化壓力」:如果一方將決策權交給 AI 以獲取速度優勢,另一方為了不被瞬間擊潰,也必須採取同樣的自動化反應。這種「領先或毀滅」的競爭邏輯,正迫使人類將戰爭的「開火權」與「升級權」逐漸讓渡給算法。這帶來的深層恐懼是:一場可能毀滅文明的衝突,其起因可能不是某位領導人的意志,而是兩個對峙的 AI 系統之間因算法錯誤、數據誤判或邏輯衝突而產生的連鎖反應,這種「閃電式戰爭」(Flash Wars)一旦觸發,人類可能在還沒來得及理解發生了什麼事之前,就已經面臨了不可挽回的後果。
其次,論點核心觸及了「威懾邏輯」的崩潰。冷戰時期的核威懾(相互保證毀滅,MAD)之所以奏效,是因為其邏輯是建立在「透明度」與「可預測性」之上的。雙方都清楚對方的核彈頭數量、發射載具以及受攻擊後的反擊能力。這是一種恐怖的平衡,但它至少是「穩定的」。然而,AI 驅動的武器系統——特別是網絡武器與自主武器——具有天然的「隱蔽性」。一個致命的算法或網絡漏洞在被使用之前,對方可能完全察覺不到其存在。這導致了戰略評估的極度困難:你無法量化一個看不見的威脅,也無法透過展示武力來達到精確的威懾效果。更複雜的是 AI 的「湧現行為」(Emergent Behavior),即 AI 在應對新情境時可能會發展出開發者未曾預料的策略。如果防禦方無法預測攻擊方 AI 會如何行動,威懾所需的「心理契約」就不復存在。當對手不再是具備人類情感、恐懼與理性計算的領袖,而是一個追求目標函數最大化的無情感算法時,傳統的談判與威懾手段將徹底失效。
這進一步引發了關於「核武器與 AI 結合」的終極焦慮。作者們指出,現代核大國為了確保反擊能力,正考慮將 AI 整合進預警與指揮系統。雖然這能提高識別敵方攻擊的效率,但也大幅增加了誤判的風險。在冷戰歷史中,曾多次出現因雷達故障或電腦錯誤而顯示敵方發射核彈的情況,每一次都是依賴人類軍官的直覺與冷靜才阻止了末日。然而,如果未來的決策鏈路被 AI 壓縮,或者 AI 被賦予了自動啟動反擊的權限,這種人類最後的「道德緩衝」將消失殆盡。季辛吉特別強調,AI 不懂得「痛苦」與「悔恨」,它只懂「達成目標」,這種特質與核武器結合,將使人類的安全建立在極其脆弱的代碼完整性之上。
在武器擴散層面,AI 徹底打破了高端軍事技術的門檻。傳統的戰略平衡依賴於少數大國對先進武器(如航母、核彈)的壟斷。但 AI 本質上是「代碼」,它可以輕易地被複製、傳播與修改。一個技術先進的小國,甚至是一個資金充足的非國家組織或恐怖團體,只要獲得了強大的開源算法並輔以商業級的算力,就能發展出具備高度殺傷力的群體無人機系統或自動化網絡干擾工具。這導致了權力的「碎片化」與「平民化」,使得國際秩序變得極其混亂。大國不再能保證絕對的安全,因為攻擊可能來自任何地方、任何維度,且往往難以追蹤溯源(Attribution Problem)。當攻擊者可以隱藏在數位迷霧之後,國際法中的「戰爭行為」定義與追責機制將形同虛設。
面對這種失控的風險,作者們在書中提出了一個強有力的主張:全球主要強權,特別是美國與中國,必須立即展開關於「AI 軍事行為準則」的戰略對話。這種類比於 1960 年代核裁軍談判的努力,其目的不是為了徹底禁止 AI,因為這在技術上已不可能,而是為了建立「共同限制」與「安全閥」。作者建議,各國應達成共識,禁止在沒有人類參與監控的情況下,將核武器的指揮權完全交給 AI 。同時,應建立一種「戰略語言」的互通,讓彼此了解對方的 AI 系統在何種情況下會被視為具有敵意。這種對話的核心在於「限制升級」:人類必須共同設計出一種機制,當 AI 的自動化衝突開始發生時,雙方能夠有手段強制介入、切斷電源或重啟外交窗口,避免算法將人類拖入不必要的全面戰爭。
此外,書中還討論了 AI 對「情報與真相」的破壞如何影響地緣政治。當 AI 可以自動化地製造認知作戰,散佈足以干擾對方決策體系的假訊息時,國家領導人可能在虛假資訊的引導下做出錯誤的戰爭決策。這種「認知域戰爭」使得安全邊界不再僅限於國境線,而是深入到國民的心智。如果一個國家的決策精英不再能相信自己的情報來源,那麼任何戰略誤判都可能瞬間升級為物理衝突。這要求我們重新思考「韌性」的定義——一個國家的安全不僅取決於它的導彈數量,更取決於它如何過濾、辨識並抵禦由 AI 生成的系統性謊言。
在國際關係的哲學層面,作者們憂心 AI 會導致「世界秩序的區域化與脫鉤」。由於 AI 需要大量的數據與特定的技術標準,世界可能分裂成數個互不兼容的技術體系。例如,以美國為首的自由民主技術聯盟,與中國發展出的數位治理模式。這不僅是技術競爭,更是「現實定義權」的競爭。當不同陣營的 AI 系統以完全不同的價值觀來解釋地緣政治局勢時,溝通將變得更加困難。這種「技術鐵幕」可能比冷戰時期的意識形態對抗更難跨越,因為它內嵌在我們賴以生存的所有數位基礎設施之中。
最後,季辛吉等人強調,我們必須重拾「政治家精神」與「人文情懷」來約束技術的野心。 AI 雖然可以優化戰術,但它無法產生「智慧」。真正的智慧來自於對歷史的感知、對人性脆弱的同情,以及對文明存續的責任感。軍事領袖與政治家必須理解,依賴 AI 來贏得一場戰鬥,可能會導致失去整個和平。我們需要一種新的「數位軍備控制」倫理,將 AI 定位為人類感知的輔助工具,而非戰場的主宰者。在 AI 時代,和平不再是自然而然的平衡,而是一種需要透過極其複雜的技術架構與極其堅定的人為意志,去共同維持的「人造穩定」。
總結第三個論點,作者們指出 AI 正在將人類推向一個戰略上「不可計算」的新領域。速度的壓縮、威懾的崩潰、技術的擴散以及真實性的喪失,共同構成了對全球秩序的生存威脅。如果人類不能在全球層面上達成關於 AI 限制的政治協商,我們可能會發現,我們親手創造的這項「提升人類智慧」的技術,最終卻成為了加速人類文明終結的無意識引擎。安全與秩序的維繫,在未來將不再僅是力量的博弈,更是人類如何在高科技的誘惑與毀滅的風險之間,守住最後一份道德底線的賽跑。