負責任的AI戰爭?規範軍事人工智能邁出第一步

包括美國和中國在內的超過60個國家,2月16日在荷蘭海牙(Hague)高峰會中,簽署一項行動呼籲,支持負責任的使用軍事用途的人工智能(AI)。儘管這項聲明不具法律約束力,但仍被視為朝向有朝一日制定AI國際武器條約邁出的一步。

AI軍事化成為全球新挑戰

隨著人工智能(AI)的軍事應用逐漸成為全球的新挑戰,包括美、中在內的60多國2月在荷蘭高峰會中,支持在軍隊中負責任的使用AI。儘管只達成一項薄弱的原則聲明,而且關鍵國家中的俄羅斯沒有獲邀、以色列雖然出席但並未簽署聲明,但這仍被視為朝向制定AI國際武器條約邁出的第一步。

這場會議召開之際,正值人們對AI的興趣因為OpenAI公司推出ChatGPT、以及烏克蘭在和俄羅斯的戰爭中,使用臉部辨識與AI輔助瞄準系統而達到歷史高點,這也是國際社會首次舉辦這類的會議。主辦國之一的荷蘭外長胡克斯特拉(Wopke Hoekstra)表示,「我們正在邁出第一步,釐清並致力於在軍隊中負責任地使用AI」。

AI是一種涵蓋諸多領域的電腦系統開發,隨著科技日新月異,賦予了AI更多軍事應用的機會。由於AI具有支援作戰人員執行任務的巨大潛力,隨著AI的日益重要,軍事優勢將不再由軍隊規模來定義,而是攸關AI演算法的性能。AI可以透過多種方式使軍隊受益,像是在戰鬥模擬使用AI既可提高作戰效率,減少對人類輸入的依賴,也能降低人命損傷,並節省金錢與時間。

殺戮機器人不需人力干預

然而,了解AI在現代軍事行動的潛力固然重要,但同樣至關重要的,是意識到在軍事環境中使用AI時,可能出現的潛在安全風險和道德問題。自從2014年以來,簽署1983年聯合國特定傳統武器公約(Convention on Certain Conventional Weapons)的國家,就一直在討論對致命性自主武器系統的可能限制。簽署國認為這種武器可在沒有人為干預下殺人。

聯合國並在2017年首度針對全自動武器召開會議,當時專家就警告,有鑑於機器人武器系統的快速發展,自主性愈來愈高,迫切需要國際社會就設限達成共識,以解決基本的法律及道德疑慮。然而,即使是在2月16日的這場海牙會議中,與會各國仍未解決「殺戮機器人」(slaughterbots)、或是AI可能升高軍事衝突風險的問題。

群體智能操控無人機攻擊群

特別是利用群體智能(swarm intelligence)演算法操作的無人機攻擊群,已改變無人機作戰的本質,擺脫舊時的遙控飛機模式,升級成為AI之間的對抗,俄烏戰爭則為致命的AI無人機技術提供前所未有的試驗場。烏克蘭自從聲稱對俄國黑海艦隊發動海軍無人機攻擊後,就開始為他們所說的「世界首見的海軍無人機艦隊」籌款。而俄軍也以伊朗的見證者-136型(Shahed-136)無人機群,猛攻烏克蘭的關鍵基礎設施。


伊朗的見證者-136型無人機。(Idmental, CC BY 4.0)

根據線上媒體Insider報導,南丹麥大學(University of Southern Denmark)專家博德(Ingvild Bode)表示,無人機群並非決定性因素,坦克、壕溝戰和大砲仍在烏克蘭戰爭中佔主導地位,但就規模和多樣性來說,這是無人機首度這樣地呈現在世人面前。這使得AI的軍事化發展,相較於潛艦、戰車或兩棲登陸更具前瞻性。以分析大數據知名的美國軟體公司帕蘭泰爾技術(Palantir Technologies Inc)執行長卡普(Alex Karp)表示,烏克蘭有效利用AI打擊俄軍,已將這項技術推上了全球軍事和政治領袖的議程,而AI能力發展最快的國家,將可決定領域內的遊戲規則。

人腦VS人工智能的未來

然而,雖然AI無人機技術正在快速發展,但很少有國際法規來定義需要人類參與的程度,專家也表達了對AI在戰爭中對人類決策影響的擔憂。博德表示,她對沒有真正考慮長期後果就將軍事AI投入戰場感到憂心。即使人類仍參與決策,但她質疑在壓力和可能受到攻擊的情況下,無人機操作員可能會過於依賴機器的演算提示,將此視為可靠的指令而非建議。

也有無人機專家認為,AI的軍事技術正朝著令人不安的未來前進,而俄烏戰爭正在為此鋪平道路。為聯合國提供未來無人機技術建議的專家羅傑斯(James Rogers)說,科技可能很快就會達到完全不需人類參與的程度,那麼人們將會看到AI和機器人如何開始決定人類的生死。

這也凸顯出為AI軍事用途設立規範的重要性,正如同荷蘭外長胡克斯特拉在海牙峰會所說的:「我們正進入一個我們不知道的領域,對此我們沒有指導方針、規則、框架或協議。但我們遲早會需要它們」。

原始連結

更多中央廣播電臺新聞
ChatGPT也看風向?中國疑似現山寨版 問六四會答「含敏感詞彙」
全球首見 美中帶頭逾60國簽署軍事AI聲明
國防工業基金投資無人機?國防部:查無採購情事