【包特金專欄】人工智慧時代的戰爭與和平

【包特金專欄】人工智慧時代的戰爭與和平
【包特金專欄】人工智慧時代的戰爭與和平

從軍事戰略的重新調整到外交的重構,人工智慧將成為世界秩序的關鍵決定因素。人工智慧不受恐懼和偏袒的影響,為策略決策帶來了客觀性的新可能性。但戰士和和平締造者都利用的客觀性應該保留人類的主體性,這對於負責任地行使武力至關重要。戰爭中的人工智慧將照亮人性最好和最壞的表現。它將成為發動戰爭、結束戰爭的手段。
亨利·基辛格、艾瑞克·施密特和克雷格·蒙迪 Henry A. Kissinger, Eric Schmidt, and Craig Mundie發表在最新一期《外交事務》(Foreign Affairs) 的<人工智慧時代的戰爭與和平>( War and Peace in the Age of Artificial Intelligence)告訴我們,當機器塑造戰略和治國之道時,這對世界意味著什麼 (What It Will Mean for the World When Machines Shape Strategy and Statecraft)。
迫使古老的權力平衡轉變為新的、未知的不平衡
人類透過長期的鬥爭,以更複雜的安排來建構自己,使任何國家都無法獲得對其他國家的絕對控制,從而達到了連續、不間斷的自然法的地位。在一個主要參與者仍然是人類的世界中——即使配備了人工智慧來向他們提供資訊、諮詢和建議——各國仍然應該享有基於共同行為規範的一定程度的穩定性,並受到時間的調整和調整。
但如果人工智慧作為一組實際上獨立的政治、外交和軍事實體出現,將迫使古老的權力平衡轉變為新的、未知的不平衡。民族國家的國際協調——在過去幾個世紀中實現的一種脆弱且不斷變化的平衡——之所以能夠維持下去,部分原因在於參與者之間固有的平等性。一個嚴重不對稱的世界——例如,如果一些國家比其他國家更容易採用最高水準的人工智慧——將難以預測。如果某些人類可能在軍事或外交上與高度人工智慧化的國家或人工智慧本身對抗,人類可能會難以生存,更不用說競爭了。這種中間秩序可能會導致社會內部崩潰和外部衝突無法控制的爆發。
其他可能性還有很多。除了尋求安全之外,人類長期以來也為了追求勝利或捍衛榮譽而進行戰爭。目前,機器缺乏任何勝利或榮譽的概念。他們可能永遠不會發動戰爭,而是選擇根據複雜的計算立即、仔細劃分領土轉讓。或者,他們可能會採取行動,升級為血腥的人類消耗戰,而重視結果並忽視個人生命。在一種情況下,我們的物種可能會發生如此巨大的轉變,以至於完全避免人類行為的殘酷。在另一種情況下,我們會被科技所征服,以至於它會把我們帶回野蠻的過去。
人工智慧安全困境
許多國家都專注於如何「贏得人工智慧競賽」。在某種程度上,這種驅動力是可以理解的。文化、歷史、溝通和觀念共同在當今的大國之間造成了一種導致各方不安全和猜疑的外交局面。領導人認為,增量戰術優勢可能在未來的任何衝突中發揮決定性作用,而人工智慧恰恰可以提供這種優勢。
如果每個國家都希望最大化自己的地位,那麼就會為敵對的軍事力量和情報機構之間的心理較量創造條件,這是人類以前從未遇到過的。存在的安全困境等著我們。對於任何擁有超級智慧人工智慧(即假設的比人類更聰明的人工智慧)的人類演員來說,合乎邏輯的第一個願望可能是試圖保證沒有其他人獲得這種強大的技術版本。任何這樣的行為者也可能默認地合理地認為,其競爭對手受到同樣的不確定性的困擾並面臨同樣的風險,也會考慮採取類似的行動。
如果沒有戰爭,超級智慧人工智慧可以顛覆、破壞和阻止競爭程式。例如,人工智慧有望以前所未有的效力增強傳統電腦病毒,並徹底偽裝它們。就像電腦蠕蟲Stuxnet(2010 年發現的網路武器,被認為毀掉了伊朗五分之一的鈾離心機)一樣,人工智慧代理可以透過模糊存在的方式破壞對手的進展,從而迫使敵方科學家追尋陰影。憑藉其操縱人類心理弱點的獨特能力,人工智慧還可以劫持敵對國家的媒體,產生大量令人震驚的合成虛假訊息,從而激發大眾反對該國人工智慧能力的進一步進步。
各國很難清楚了解自己在人工智慧競賽中相對於其他國家的立場。最大的人工智慧模型已經在與互聯網其他部分斷開連接的安全網路上進行訓練。一些高層認為,人工智慧開發本身遲早會遷移到堅不可摧的掩體中,其超級電腦將由核反應器提供動力。現在甚至還在海底建造資料中心。很快地它們就可以被隔離在繞地球的軌道上。企業或國家可能會越來越多地“走向黑暗”,停止發佈人工智慧研究,不僅是為了避免惡意行為者得逞,也是為了掩蓋自己的發展步伐。為了歪曲他們的進展的真實情況,其他人甚至可能嘗試故意發表誤導性的研究,而人工智慧則協助創造令人信服的捏造事實。
戰爭中的人工智慧將照亮人性最好和最壞的表現。
這種科學詭計是有先例的。 1942年,蘇聯物理學家喬治·弗萊奧羅夫注意到美國和英國突然停止發表有關原子裂變的科學論文,他正確地推斷美國正在製造核彈。如今,鑑於衡量智力等抽象事物的進展的複雜性和模糊性,這樣的競賽將變得更加難以預測。儘管有些人認為優勢與其所擁有的人工智慧模型的規模相稱,但較大的模型不一定在所有情況下都優越,並且可能並不總是優於大規模部署的較小模型。更小、更專業的人工智慧機器可能會像一群無人機對抗航空母艦一樣運作——無法摧毀它,但足以壓制它。
如果一個參與者在某一特定能力方面取得了成就,那麼他可能會被認為具有整體優勢。然而,這種想法的問題在於,人工智慧僅僅指機器學習的過程,它不僅嵌入在單一技術中,而且嵌入在廣泛的技術中。因此,任何一個領域的能力都可能由與另一領域的能力完全不同的因素所驅動。從這些意義上講,通常計算的任何“優勢”都可能是虛幻的。
此外,正如近年來人工智慧能力呈指數級和不可預見的爆炸性增長所證明的那樣,進步的軌跡既不是線性的,也不是可預測的。即使一個參與者可以說「領先」另一個參與者大約數年或數月,但關鍵時刻在關鍵領域突然出現的技術或理論突破也可能會扭轉所有參與者的地位。
在這樣一個世界裡,沒有任何領導人可以相信他們最可靠的情報、他們最原始的本能,甚至現實本身的基礎,因此不能指責政府以最偏執和懷疑的立場行事。毫無疑問,領導人在做出決定時已經假設他們的努力受到監視或受到惡意影響造成的扭曲。預設最壞的情況,任何邊境行動者的戰略考慮都是將速度和保密置於安全之上。人類領導人可能會擔心沒有第二名這樣的東西。在壓力下,他們可能會過早加速人工智慧的部署,以威懾外部幹擾。
新的戰爭範式
幾乎在整個人類歷史中,戰爭都是在一個確定的空間內進行的,在這個空間中,人們可以合理地了解敵方軍隊的能力和位置。這兩個屬性的結合為雙方提供了一種心理安全感和共同共識,從而可以在知情的情況下限制殺傷力。只有當開明的領導人對如何打仗的基本認知達成一致時,敵對勢力才能決定是否應該打仗。
速度和機動性一直是支撐任何特定軍事裝備能力的最可預測的因素之一。早期的例子是大砲的發展。在狄奧多西城牆建成後的一千年裡,保護著君士坦丁堡這座偉大的城市免受外來入侵者的侵害。然後,在 1452 年,一名匈牙利砲兵工程師向君士坦丁十一世皇帝提議建造一門巨型大砲,從防禦牆後面發射,將攻擊者粉碎。但這位自滿的皇帝既沒有物質手段,也沒有意識到這項技術重要性的遠見,因此拒絕了這項提議。
對他來說不幸的是,這位匈牙利工程師原來是一名傭兵。他改變了戰術(和陣營),更新了自己的設計,使其更加機動——可由不少於60 頭牛和400 人運輸——並接近了皇帝的競爭對手奧斯曼蘇丹穆罕默德二世,後者正準備圍攻這座不透水的堡壘。這位富有創業精神的匈牙利人聲稱這把槍可以“粉碎巴比倫本身的城牆”,贏得了年輕蘇丹的興趣,並幫助土耳其軍隊在短短 55 天內攻破了古城牆。
這部十五世紀戲劇的輪廓在歷史上屢見不鮮。十九世紀,速度和機動性首先改變了法國的命運,拿破崙的軍隊壓倒了歐洲,然後在赫爾穆特·馮·毛奇(老)和阿爾布雷希特·馮·羅恩的指揮下改變了普魯士的命運,他們利用新開發的鐵路實現更快、更靈活的機動。同樣,閃電戰——德國軍事原則的演變——在第二次世界大戰中被用來對付盟軍,產生了巨大而可怕的效果。
在數位戰爭時代,「閃電戰」有了新的意義,而且無所不在。速度是瞬時的。攻擊者無需犧牲殺傷力來維持機動性,因為地理位置不再是限制。儘管這種組合在很大程度上有利於數位攻擊的進攻,但人工智慧時代可以看到反應速度的提高,並使網路防禦能夠與網路攻擊相匹配。
在動態戰爭中,人工智慧將引發另一次飛躍
在動態戰爭中,人工智慧將引發另一次飛躍。例如,無人機速度極快,移動性超乎想像。一旦人工智慧不僅被部署來引導一架無人機,而且還指揮它們的機隊,無人機雲將形成並作為一個有凝聚力的集體同步飛行,完美的同步性。未來的無人機群將毫不費力地解散並重組為各種規模的單位,就像精英特種作戰部隊是由可擴展的分遣隊組成的,每個分遣隊都有主權指揮能力。
此外,人工智慧將提供同樣快速、靈活的防禦。用常規彈體擊落無人機艦隊即使不是不可能,也是不切實際的。但發射光子和電子(而不是彈藥)的人工智慧槍可以重新產生與太陽風暴相同的致命致殘能力,太陽風暴可以炸毀暴露衛星的電路。
人工智慧武器將前所未有地精確。對手地理位置了解的限制長期以來限制了交戰各方的能力和意圖。但科學與戰爭的聯盟已經開始確保儀器的準確性不斷提高,人工智慧有望取得更多突破。因此,人工智慧將縮小初衷和最終結果之間的差距,包括在致命武力的使用方面。無論是陸基無人機群、部署在海上的機械軍團,或是可能的星際艦隊,機器都將擁有高度精確的殺人能力,幾乎沒有不確定性,影響力無限。潛在破壞的範圍僅取決於人類和機器的意志和克制。
在動能戰爭中,人工智慧將引發巨大的飛躍。
因此,人工智慧戰爭時代將主要減少到評估對手的能力而不是其意圖及其戰略應用。在核子時代,我們已經進入了這樣一個階段,但隨著人工智慧證明其作為戰爭武器的價值,其動態和意義將變得更加引人注目。
完全消除人類在戰爭中的代理作用
有了如此寶貴的技術,人類甚至可能不是人工智慧戰爭的主要目標。事實上,人工智慧可以完全消除人類在戰爭中的代理作用,從而降低戰爭的致命性,但也可能同樣具有決定性。同樣,領土本身似乎不太可能引發人工智慧的侵略,但資料中心和其他關鍵數位基礎設施肯定可以。
那麼,投降不會發生在對手人數減少、軍械庫空空的時候,而是當倖存者的矽盾牌無法拯救其技術資產以及最終的人類代表時。戰爭可能演變成一場純粹機械死亡的遊戲,決定因素是人類(或人工智慧)的心理力量,他們必須冒險或放棄以防止徹底毀滅的突破時刻。
在某種程度上,甚至管理新戰場的動機也是陌生的。英國作家GK切斯特頓曾經打趣道:“真正的士兵戰鬥不是因為他討厭眼前的事情,而是因為他熱愛身後的事情。”人工智慧戰爭不太可能涉及愛或恨,更不用說士兵勇敢的概念了。另一方面,它可能仍然包含自我、身分和忠誠——儘管這些身分和忠誠的本質可能與今天的不一致。
戰爭的計算向來相對簡單:哪一方首先感到無法忍受戰爭的痛苦,​​就有可能被征服。對自己缺點的認知在過去產生了克制。如果沒有這種意識,也沒有對痛苦的感覺(因此對痛苦沒有很大的容忍度),人們不能不想知道,如果有的話,什麼會促使人工智慧被引入戰爭,以及什麼會結束它所引發的衝突。一個會下棋的人工智慧,如果從未被告知決定遊戲結束的規則,它可能會玩到最後一個棋子。
地緣政治重組
在人類的每一個時代,幾乎就像遵循某種自然法則一樣,正如我們中的一位(基辛格)曾經說過的那樣,出現了一個「擁有權力、意志、智力和道德動力來塑造世界的集體」。整個國際體係都符合其自身的價值觀。”人類文明中最熟悉的安排是傳統理解的威斯特伐利亞體系。然而,主權民族國家的概念只有幾個世紀的歷史,誕生於 17 世紀中葉統稱為《威斯特伐利亞和約》的條約。它不是社會組織的預定單位,它可能不適合人工智慧時代。事實上,隨著大規模假訊息和自動歧視引發人們對這種安排的信心喪失,人工智慧可能對各國政府的權力構成固有的挑戰。或者,人工智慧很可能會重置競爭對手在當今系統中的相對地位。如果其權力主要由民族國家本身利用,人類可能會被迫走向霸權停滯,或走向人工智慧賦權的民族國家的新平衡。但這項技術也可能成為更根本轉變的催化劑——轉向一個全新的體系,在這個體系中,州政府將被迫放棄其在全球政治基礎設施中的核心角色。
一種可能性是,擁有和開發人工智慧的公司將累積社會、經濟、軍事和政治權力。今天的政府被迫應對自己的困境,一方面是作為私營企業的啦啦隊長——利用其軍事力量、外交資本和經濟影響力來促進這些本土企業的發展——另一方面是作為對壟斷貪婪和秘密持懷疑態度的普通公民的支持者。這可能是個站不住腳的矛盾。
同時,企業可以結盟,以鞏固其已經相當大的實力。這些聯盟可能建立在優勢互補和合併利潤的基礎上,或建立在人工智慧系統開發和部署的共同概念之上。這些企業聯盟可能會承擔傳統的民族國家功能,但它們不會尋求定義和擴大有界領土,而是培育分散的數位網路作為它們的領域。
人工智慧可能對各國政府的權力構成固有的挑戰。
還有另一種選擇。不受控制的開源擴散可能會產生較小的幫派或部落,這些幫派或部落的人工智慧能力雖不合格,但具有強大的人工智慧能力,足以在一定的有限範圍內管理、提供和保護自己。在拒絕既定權威、支持去中心化金融、溝通和治理的人類群體中,這種技術驅動的原始無政府狀態可能會獲勝。或者這樣的分組可能包含宗教層面。畢竟,就影響範圍而言,基督教、伊斯蘭教和印度教都比歷史上任何國家都更大、更持久。在未來的時代,宗教教派可能比國家公民身分更能成為身分和忠誠更相關的框架。
無論是在未來,無論是由企業聯盟主導還是分散到鬆散的宗教團體中,每個團體所聲稱的新“領土”以及他們將爭奪的新“領土”都不會是幾英寸的土地,而是一個數位景觀,尋求個人的忠誠用戶。這些使用者與任何政府之間的聯繫將顛覆傳統的公民概念,實體之間的協議也將不同於普通的聯盟。
從歷史上看,聯盟是由個人領導人建立的,有助於在發生戰爭時增強國家的實力。相較之下,和平時期圍繞著普通人的意見、信仰和主觀身分所建構的公民身份和聯盟——或許還有征服或十字軍東徵——的前景將需要一種新的(或非常古老的)帝國概念。它也將迫使人們重新評估效忠承諾所帶來的義務和退出選擇的成本(如果在人工智慧糾纏的未來中確實存在的話)。
和平與力量
民族國家的外交政策是透過平衡理想主義和現實主義來制定和調整的。回想起來,我們的領導人所達成的暫時平衡並不是最終狀態,而只是他們所處時代的短暫(如果有必要)策略。隨著每一個新時代的到來,這種緊張局勢都會對政治秩序的構成產生不同的表達。追求利益和追求價值之間的二分法,或特定民族國家的優勢和全球利益之間的二分法,一直是這種永無止境的演變的一部分。在外交活動中,小國領導人歷來都會直接回應,優先考慮自身生存的需要。相較之下,那些擁有實現額外目標手段的全球帝國的人卻面臨著更痛苦的困境。
自文明開始以來,隨著人類組織單位的發展,他們同時實現了新的合作水準。但今天,也許是由於全球挑戰的規模以及國家之間和國家內部明顯的物質不平等,對這一趨勢的強烈抵制已經出現。事實證明,人工智慧可以滿足更大規模的人類治理的需求,不僅能夠精確、準確地洞察國家的需要,還能洞察全球的相互作用。
我們希望,出於國內外​​政治目的而部署的人工智慧可能不僅僅只是闡明平衡的權衡。理想情況下,它可以提供新的、全球最優的解決方案,以比人類能力更長的時間範圍和更高的精度發揮作用,從而使相互競爭的人類利益協調一致。在未來的世界中,機器智慧應對衝突和談判和平可能有助於澄清甚至克服傳統困境。
然而,如果人工智慧確實要解決我們本應希望自己解決的問題,我們可能會面臨信心危機——過度自信和缺乏信心。對於前者,一旦我們了解了自己自我糾正能力的局限性,就可能很難承認我們在處理人類行為的存在問題時將太多權力讓給了機器。對於後者來說,認識到只需將人類代理從處理我們的事務中去除就足以解決我們最棘手的問題,這可能會過於明確地揭示人類設計的缺點。如果和平一直只是一種簡單的自願選擇,那麼人類的不完美就付出了永久戰爭的代價。知道解決方案一直存在但我們從未設想過,這將打擊人類的自豪感。
就安全而言,與人們在科學或其他學術活動中被取代的情況不同,我們可能更容易接受機械第三方的公正性,因為它必然優於人類的自利性——就像人類很容易認識到在有爭議的離婚中需要調解員。我們的一些最糟糕的特質將使我們能夠展現出我們最好的特質:人類追求自身利益的本能,即使不惜犧牲他人的利益,也可能讓我們做好準備接受人工智慧對自我的超越。