AI失控引戰?誤殺? 新武器難管 軍備競爭難止
世界各國爭相發展運用AI人工智慧的武器,而今也在戰場上使用。紀錄片「AI殺手閃電戰」(Flash Wars: Autonomous Weapons, AI & the Future of Armed Conflict),不僅探討AI武器在衝突中扮演的角色,也提醒世人:AI並非人類,當敵對國家的AI武器針對彼此的戰鬥行動,快速運算回應,是否會產生擦槍走火或其他毀滅性的後果?戰場沒有所謂人道與精準,本質就是害命,究竟誰又該為AI殺人負責任?
紀錄片旁白:「有人死去,有人殺人,機器擔任幫凶。」
奧地利武裝部隊參謀上校 賴斯納:「戰爭永遠都汙穢不堪。」
十秒內目睹這位烏克蘭步兵生命的終結,烏俄戰爭爆發以來,戰場的殘忍在世人面前直播。有史為鑑不能讓人類止戰,反而引入高科技參戰。烏俄開戰後第17天,墜毀在基輔的這架翼展僅1公尺多的無人機,讓人毛骨悚然。
紀錄片旁白:「因為它是一架KUB-BLA巡飛彈,可由AI操控的自殺式無人機,它能自主盤旋於目標上空,伺機俯衝出擊。」
指揮官:「再射擊一次,再一次。」
不需要像人類士兵一樣操練精準度,有著感測器、演算法與人工智慧的無人武器,天天在烏克蘭與加薩土地上殺人。無論是肉包鐵或鐵包肉,戰爭必然害命,沒有所謂更精準,本質就是鮮血鋪陳人性醜惡。紀錄片「AI殺手閃電戰」,探討致命性AI武器的發展趨勢。
特斯拉電動車執行長 馬斯克:「AI的危險性比核彈高多了,而且是高很多!」
美國南卡州參議員 林賽‧葛拉漢:「AI有可能讓無人機自己選目標嗎?」
OpenAI執行長 阿特曼:「我們不該讓那種事發生。」
美國南卡州參議員 林賽‧葛拉漢:「但技術上可能嗎?」
OpenAI執行長 阿特曼:「當然可能。」
美國南卡州參議員 林賽‧葛拉漢:「謝謝。」
人類是否該信任AI的判斷,將更多戰場情境,讓給AI去計算和應對?其實不用到國與國間兵戎相見,AI用在軍警執法上已經引起爭議。2021年美國警方出動實驗階段的機器狗,在紐約參加解救人質行動。AI執法是否在精準、節省警力之外,帶來其他爭議?
作家/社運人士 奧拉:「如果讓機器狗在富人社區執行警務,警方一定會遭到強烈反彈,所以他們只敢挑居民較弱勢的社區,宣稱這有助於解決這些地方的犯罪,卻對犯罪的其他真正成因視而不見。」
同樣的例子也見於美國與阿富汗的戰爭。AI武器不僅無法止戰,甚至擴大戰場到人類大腦內,比如各種假訊息、投其所好的演算法等認知作戰。回到實體戰場,致命的AI武器,已成各國不敢不發展的軍備,就怕落後敵國。
蒙特婁麥基爾大學機器人專家 文愛姜:「(AI武器)只要有網路或任一種連線就能下載,而且幾乎在任何地方都能安裝軟體,即便不是國家,也有辦法發動戰爭,任何恐怖組織,只要取得特定硬體並安裝軟體,就能發揮強大殺傷力。」
紀錄片旁白:「但它所需的演算法非常複雜,也很難訓練。」
目標定位軟體是最後決定,AI武器是否要命的關鍵。但如何教會AI辨別,眼前戰場上有不該殺的人?這是連人類都常無法做對的決定。
奧地利武裝部隊參謀上校 賴斯納:「區分原則、人性尊嚴的基本原則、以及心懷慈悲的概念。那我們應該要問,機器能做到這種事嗎?它又沒有心,它沒辦法「小心地」審度情況,它的判斷機制基本上就像個電路板,意思就是:把那生物打到死為止!」
公共電視主題之夜論壇,也針對AI武器提出相關問卷調查,回收上百份有效問卷後,由AI編輯整理消化。儘管處理文字的AI,演算與訓練不比精密的AI武器,但論壇現場提出假設性的戰況,以人性的出爾反爾與欺敵,考考AI。
論壇來賓/軍事Youtuber 諸葛風雲:「假如他豎起白旗之後又突然開火,對我們攻擊那怎麼辦?」
公視主題之夜AI 插嘴編:「以專業人員處理此情況,其次我們將嘗試與手榴彈建立溝通,試圖解釋危害和後果,並說服他停止攻擊。」
AI誤認「手榴彈」是敵人的姓名,這樣的誤判至少沒有導致開火的行動。但若AI武器真的誤判而殺死無辜民眾,誰該負責?依據公視論壇發出的問卷,最多人選「政府或軍事高層」。
論壇來賓/產品經理 阿恆:「因為我們從歷史上面看得出來,極權國家派人去做,也是做了很多很可怕的事,例如說像猶太人的事情。」
公視主題之夜論壇主持人 劉珞亦:「你說猶太人被種族滅絕?」
論壇來賓/產品經理 阿恆:「對,還有其他的種族滅絕,更多的,那這些事情都不是AI做的。」
在討論失控的AI與擦槍走火的戰爭時,失控的人類當權者,也已是多年未解的難題。
更多 TVBS 報導
美對台軍售 AIT曝策略強化後備+不對稱作戰
澤倫斯基赴英拉軍援 烏企研發AI.無人機抗俄
AI技術成武器?美控中國竊取人工智慧機密加強間諜活動
共軍認知作戰再升級!紐時:用AI散布夏威夷野火陰謀論