【專欄】道高一尺 魔高一丈 生成式人工智慧和 Q-Day 密碼學應成為國家安全和國防立法的重點

謝亦晴(台灣新竹)
陳禹成(美國華府)
I. 詭譎的台灣國防及國家安全
2024大選後,新的立法院開議在即。新一屆立委的特色,在於「認知戰」、「區塊鏈」專家的加入,時機又值以下背景,本屆立院任重道遠責任重大。
(1)Top US House China Hawk Plan to Visit Taiwan on February 21(美國眾議院對中國鷹派高層計畫2月21日訪問台灣)
Mike Gallagher, head of the US House China committee, will visit Taipei next week with a group of lawmakers in a show of support for Lai Ching-te ahead of his May inauguration as president of Taiwan.
(美國眾議院中國委員會主席 Mike Gallagher 將於下週與一群議員一起訪問台北,在賴清德 5 月就任台灣總統之前表示對他的支持)
(請參見:Top US House China hawk plans visit to Taiwan next week)

美國眾議院中國委員會主席 Mike Gallagher 下週訪問台北

(2)阿聯酋支持 Sam Altman 將自己打造成人工智慧測試場的想法
• 海灣國家目前正在尋求美國技術來滿足人工智慧需求
• 去年阿聯酋科技工作者數量增至 12 萬人
(請參見:UAE Backs Sam Altman Idea to Turn Itself into AI Testing Ground)
(3)誰主宰了台灣的《國防網路安全》?
中國駭客網攻關島事件,除了西方重要媒體大肆報導之外,美國聯邦國防部以及所有相關網路安全負責單位,和五眼聯盟 — 美、英、加、澳、紐也發表正式聲明,警告並提醒此類「現代木馬屠城」的網路入侵,所可能造成的全球國家安全隱憂及危害。
而身處「明顯而立即危險」的台灣,並未見中華民國政府任何網安權責單位,公開聲明,譴責、警告或提醒公眾。
(請參見:【專欄】5G時代台海危機核心─有寄於台灣下一個領導人)
(4)China and Russia hacked US 美國司法部聯邦調查局開始清理網路基礎建設
美國國會每年通過的國防授權法《NDAA》近年來一直關心,中國大陸對台灣的網路攻擊和認知戰,並責成高官負責且回報,但不具成效(台灣的相關負責人根本無法有效阻止)。現在美國司法部從根本作起,先阻止中國和蘇俄的木馬,台灣新政權應該要徹底反省,排除舊奴才假扮的新人才,為台灣打造科技主權新典範。
• 司法部經法院授權對俄羅斯聯邦總參謀部主要情報局 (GRU) 控制的殭屍網路進行破壞 新聞稿
發布日期:2024 年 2 月 15 日,星期四
2024 年1 月,法院授權的一項行動摧毀了由數百個小型辦公室/家庭辦公室(SOHO) 路由器組成的網絡,GRU Military Unit 26165(也稱為APT 28)、Sofacy Group、Forest Blizzard、Pawn Storm 、Fancy Bear 和Sednit,用於隱藏或以其他方式促成各種犯罪。這些犯罪行為包括針對俄羅斯政府情報利益目標(例如美國和外國政府以及軍隊、安全和企業組織)的大規模魚叉式網路釣魚和類似的憑證收集活動。近幾個月來,針對 26165 部隊此類活動的指控已成為私營部門網路安全諮詢和烏克蘭政府警告的主題。

美國司法部經法院授權對俄羅斯聯邦總參謀部主要情報局 (GRU) 控制的殭屍網路進行破壞/擷自BBC畫面

• 美國政府破壞中華人民共和國用於隱藏對關鍵基礎設施的駭客攻擊的殭屍網絡 新聞稿
發布日期:2024 年 1 月 31 日星期三
法院授權的行動從美國受害路由器中刪除了惡意軟體,並採取措施防止再次感染。
2023 年 12 月,法院授權的一項行動破壞了由中華人民共和國 (PRC) 國家支持的駭客劫持的數百個美國小型辦公室/家庭辦公室 (SOHO) 路由器組成的殭屍網路。
這些駭客被私營部門稱為“Volt Typhoon”,他們使用感染了“KV Botnet”惡意軟體的私人 SOHO 路由器來掩蓋針對美國和其他外國受害者的進一步駭客活動的中國來源。這些進一步的駭客活動包括針對美國和其他地方的關鍵基礎設施組織的活動,這是 2023 年 5 月聯邦調查局、國家安全局、網路安全和基礎設施安全局 (CISA) 以及外國合作夥伴諮詢的主題。同樣的活動已成為2023 年5 月和2023 年12 月私部門合作夥伴諮詢的主題,也是CISA 今天發布的額外安全設計警報的主題。
更新於 2024 年 1 月 31 日
(5)日本可能面臨新的安全風險:中國在日本海保持持續的軍事存在,日本海可能是針對美國的核武發射點
(請參見:Is China seeking a submarine presence in the Sea of Japan?)
II. 生成式人工智慧和 Q-Day 密碼學應成為國家安全和國防立法的重點
Generative AI and Q-Day cryptography should be the focus of national security and defense legislation
處於全球政經局勢緊張關係的台灣,生成式人工智慧和 Q-Day 密碼學應成為國家安全和國防立法的重點。歐盟已於2023年年底同意對人工智慧進行全面監管,並制定《人工智慧法案》,達成全球第一個人工智慧監管協議。《人工智慧法案》第15條有網路安全的規定:
以風險高低作為區分,並特別針對高風險AI系統的網路安全要求,在法案第15條中有所規定,該條文目前主要關注確保AI系統符合「當前技術水平」的安全標準(Cybersecurity of Artificial Intelligence in the AI Act)。
然而,高風險AI系統要實現合規性,目前需結合其他補充措施,以緩解系統的整體網路安全風險,換句話說,傳統的網路安全技術可能無法因應新興AI技術,並實現法案的要求,又因各國AI模型的成熟階段不一,突顯了技術進步和統一的標準制定應該相互協調,以因應不斷變化的威脅環境,建立一個更完善的網絡安全框架。(全文請參見附錄)
III. 開議在即,奉勸朝小野大的立法院:
歷史,是人文反省的點滴記錄,不是仇恨的出發點 …… 。
附錄
作者:謝亦晴
生成式人工智慧和 Q-Day 密碼學應成為國家安全和國防立法的重點
Generative AI and Q-Day cryptography should be the focus of national security and defense legislation
1. 生成式人工智慧為世界帶來的風險與威脅
生成式人工智慧(下稱生成式AI)的主要功用在於可以透過提示(prompt)生成新的內容。隨著2023年生成式AI的突破性發展,若是能夠通過有效地管理,可以期待其為各個產業的發展帶來重大好處,像是加速金融、醫療保健以及行銷等多個產業的創新及效率。然而,大型語言模型處理的資料來源及資料量越加龐大,技術進步也為數據保護與網路安全帶來各種資安風險和信任問題,它可以成為惡意攻擊者的助手,降低惡意攻擊者的技術門檻,並提高其攻擊效果,增加了個人隱私、商業機密,甚至國家安全等安全性的風險。其中最棘手的在於,當企業將生成式AI模型整合到自己的應用或環境中時,將可能面臨「提示詞注入」(prompt injection)等惡意攻擊,此方法讓攻擊者得以使生成式AI輸出特定惡意結果,如曝光機敏資料或是誘使系統執行錯誤行為。
在資料隱私方面,由於目前生成式AI中最被廣為使用的大型語言模型(下稱LLMs)通常連接到敏感資料儲存,使得攻擊者可以透過觸發插件和API執行自動任務,進行API請求、搜尋或執行程式碼,提高數據安全和系統安全的風險。又因自然語言的多樣性及複雜度,使得指令的好壞區分變得十分困難。
在網路安全方面,隨著技術進步和應用範圍的擴大,將可能造成網路犯罪跟駭客攻擊的規模及效率提升,增加網絡攻擊、詐騙、冒充和有害內容的傳播,進而操縱輿論或擴大現有社會偏見、製造假新聞、發布虛假信息、操縱金融市場或破壞司法系統等。特別是當生成式AI應用於實體系統(即嵌入國家關鍵基礎設施時),惡意攻擊者將有機會透過數據毒化、提示注入、模型反演、擾動和利用生成式AI的計算需求進行攻擊,導致關鍵基礎設施的重大錯誤。以上迫使我們需要去正視生成式AI本身存在著哪些資安弱點,並就相關風險進行防範及控管,因為如果在法規和技術上皆沒有足夠的安全控制措施,等同於將國家安全放置於龐大風險之下。
綜上所述,生成式AI的持續進步將對各國政治體系和社會風險帶來重大挑戰,嚴重者更可能威脅到民主社會中公民對政府機構的信任。因此,訂定資安風險的因應策略更顯迫切。
2. 各國目前的監管走向與難題
生成式AI的技術發展驚人,迫使各個監管機構正視其對企業、公眾以及國家社會的影響。預計在2024年,各國皆會針對監管合規性和科技創新之間努力取得平衡,訂定較明確的監管,以利企業和供應商更能穩健地發展。本文就三大經濟體的監管現況進行整理,著重於風險及網路安全相關規範:
(1) 歐盟:「風險導向:AI系統分類及相應義務規範」
歐盟政策制定者於2023年年底同意對人工智慧進行全面監管,並制定《人工智慧法案》(下稱AI法案),達成全球第一個人工智慧監管協議。
然而,AI法案可能會因生成式AI的本質而與原先的《一般資料保護規範》(下稱GDPR)產生衝突。
由於訓練基礎模型須使用大量人的數據,若需獲取個人同意將變得更加複雜,又因每個基礎模型支持無限多的應用程序,要求每個附加目的的許可權更顯不切實際。
目前,針對GDPR 的修正、刪除和被遺忘權等原則皆適用於生成式 AI 的基礎模型,解決方式主要期待以負回饋循環來進行,亦即調整特定數據點對模型訓練的影響程度,但此方法的適用性有限。又GDPR有數據最小化(匿名性)以及統計準確性(區分良好的數據)的要求,將對生成式AI造成龐大負擔。
除了以上關於數據保護的問題之外,《人工智慧法案》第15條中亦訂有網路安全的規定:
提案中以風險高低作為區分,並特別針對高風險AI系統的網路安全要求,在法案第15條中有所規定,該條文目前主要關注確保AI系統符合「當前技術水平」的安全標準(Cybersecurity of Artificial Intelligence in the AI Act)。
然而,高風險AI系統要實現合規性,目前需結合其他補充措施,以緩解系統的整體網路安全風險,換句話說,傳統的網路安全技術可能無法因應新興AI技術,並實現法案的要求,又因各國AI模型的成熟階段不一,突顯了技術進步和統一的標準制定應該相互協調,以因應不斷變化的威脅環境,建立一個更完善的網絡安全框架。
(2) 中國:「審慎包容:堅守底線、鼓勵本土AI產業創新發展」
2023 年 7 月 13 日,中國的國家網路資訊辦公室(下稱「網信辦」)會同其他六家政府部門聯合發布了《人工智慧產生服務管理暫行辦法》(下稱「暫行辦法」),並於同年8月正式施行。《暫行辦法》被視為是中國資料監管框架的補充。
《暫行辦法》規範了在中國提供生成型人工智慧服務,並對同年4月的草案進行了大幅修改,刪除有關生成內容需體現社會主義核心價值觀的嚴格規定,保留內容管理、個人資料保護和安全、資訊透明度等方面的義務,且以原先的網路及數據安全法作為監管邊界,整體轉而對本土生成式AI監管呈現較包容、彈性的態度,更有利於本土商業、研究和創新,亦承認外國投資在中國開發和提供生成型人工智慧服務的可能性,顯示出其面對技術挑戰及欲稱霸該領域的決心。
辦法中提及分類分級的監管,細部仍待各個監管機構給出指引。因技術還有許多未知的發展方向,所以目前《辦法》呈現包容的態度,給予相關產業一個發展的大方向,預計待日後技術成熟了之後,會祭出更加明確且細部的強制規範。
(3) 美國: 「行政命令先行:維護網路安全、避免過度監管AI產業」
作為生成式AI領先國的美國,為因應生成式AI的監管趨勢,又考量到保護科技創新的自由競爭環境和言論自由,而採取相對緩慢而謹慎的監管步伐。總統拜登於2023年10月發布「安全、可靠、值得信賴的人工智慧開發與使用行政命令」(下稱AI行政命令),行政命令是美國總統實現政策目標有力且有效率的手段,在AI監管競賽的緊張時刻,此命令宣示領導意味濃厚。AI行政命令雖與歐盟的AI法案欲維護的基本價值方向大致相同,惟治理層面卻呈現不同風貌。
美國政府援引《國防生產法》(下稱DPA)要求科技公司在開發涉及國家安全、經濟安全或公衛安全的「基礎模型」時通知聯邦政府,並分享紅隊測試結果,DPA乃是美國總統用於將經濟活動轉向國防優先事項的重要工具,顯現出美國政府對國家安全及本土數據及網路安全極為重視,其他方面則採取不欲過度監管的鼓勵態度。
AI行政命令從聯邦機構著手,由政府帶領產業正視AI安全(safety)及安全性(security)的問題,並以維護國家安全為主軸,提供整體治理的大方向,要求聯邦機構制定AI技術的相關標準及應用指南,以促進整體AI產業的發展。
除此之外,美國亦重視與盟友的技術和規範合作,帶領盟友建立國際框架,並防範潛在威脅。期望能在在這場監管競賽中,搶先定錨AI監管的走向與方式。
結論 Conclusion:人工智慧基本法應重新審視網路安全戰略
由以上可見,儘管國際社會迫切需要統一的生成式AI標準和法規,地緣政治和意識形態的對抗卻阻礙了AI全球治理,快速變化的局勢將持續塑造未來地緣政治和市場動態。
而又隨著人工智慧(AI)的普及,網路資安正迅速演變成一個新的戰場,然而,在探討人工智慧科技與資安問題、政經局勢的相互影響時,應注重未來發展,特別是當量子計算進入AI領域後,將對相關產業和政策帶來變革性的影響。為因應國際情勢,台灣已擬定《人工智慧基本法》草案,採「先指引再立法」的方式,以帶動相關產業發展,惟整體政策仍需更深入思考以資安風險為主軸的路線。資安控管需要以法律、行政手段和科技的協同作戰,人工智慧基本法應重新審視網路安全戰略,才能維護各個層面的信任及安全問題。
基於AI的基礎技術特性,AI系統除了承襲了部分傳統數位系統相關的網路安全風險外,還引入了包括對抗機器學習攻擊、數據污染或嵌入AI模型的後門等全新的威脅,顯示生成式AI的資安概念與傳統以加密技術為基礎的資安概念存在顯著區別,但在各國的監管政策中,卻未見對AI網路安全的完整指引,顯現出全球在應對AI新風險和挑戰方面,立法和防範技術的進展存在著相當大的討論空間,而現行的資安法制與技術防範方法可能不再有效。
因此,除了期待各個主要經濟體對AI的網路安全有更細緻的著墨以外,我們也應清楚地意識到在科技高速發展的時代下,生成式AI法規的制定明顯難以跟上科技進步的步伐,法規範仍存在許多待解決的難題,例如:具體上如何遵守透明度的要求、以及在各個風險下,需要披露代碼的程度及界線為何;同時,在技術層面對生成式AI的漏洞發現和身分驗證方面亦仍尚未成熟。因此,在依賴法律規範之餘,必要時我們應該接納、並以新的技術輔佐,建立新的網路安全戰略框架,以確保網路及國家安全不受惡意侵犯。
謝亦晴 國立清華大學人文社會學院四年級,專長為新興科技法律研析。
代表性研究報告:- 從科技及法制面探討原始碼議題對現代國家的重要性
陳禹成 美國波士頓東北大學法律學院 Juris Doctor,柏克萊加州大學法律與社會研究中心、哈佛大學法學院、劍橋大學國際公法研究中心,擔任訪問學者,主要研究:台灣關係法中台灣地位的美國聯邦法院解釋、台灣在海牙國際法院的適格性、政治經濟學的法理基礎,美國華盛頓特區最高法院登錄執業(1991 -)