【戰略快評】強化數位素養 因應AI時代資安挑戰
◎董慧明
「生成式人工智慧」問世以來,以此技術為特色的各種用途聊天機器人,快速融入人們日常生活中。無論是職場、學習、生活或娛樂,此類「AI助理」隨處可見。然而,最新被發現的「Imprompter」大型語言模型(LLM)攻擊手法,揭露AI聊天機器人在個人隱私資料防護方面的嚴重漏洞。從認知作戰操作面向觀之,惡意行為者可藉機掌握目標對象隱私,量身製造「資訊繭房」。
個人敏感資訊因AI聊天工具廣泛應用,而面臨外洩的高度風險。特別是在不當輸入情境下,使用者極可能在無意間提供足以被攻擊者利用的重要資訊;一旦遭惡意攔截或操控,便可能被用於非法勾當,對個人隱私、公務資料造成嚴重影響,不可不慎。
這項由美國加州大學聖地牙哥分校研究團隊發現的攻擊行徑,僅需以一段看似無意義的亂碼指令或隨機字串,就能讓駭客控制AI聊天機器人,悄悄蒐集使用者個資,並藉由隱匿網址傳送給攻擊者。令人憂心的是,這類攻擊的成功率高達80%,對個人隱私與資安構成莫大威脅。
研究團隊指出,包括法國Mistral AI科技公司的LeChat,和中國大陸ChatGLM等大型語言模型,都曾被發現存在此類安全漏洞。儘管業者已著手修補,仍難掩飾AI安全防護體系的脆弱性,且隨著AI科技演進日新月異,類似攻擊方式難以根絕。因此,無論個人或單位,必須養成審慎使用AI工具的習慣,絕不可輸入敏感資訊。
舉例而言,現代社會中,人們往往不經意地在與AI對話時,分享個人經歷和資訊,以獲得更精準的建議及服務。許多求職者也常藉AI助理上傳履歷、優化資料;企業管理階層在諮詢業務策略時,也可能透露運作細節。而這些行為都會在與AI進行自然對話時,增加敏感資訊被儲存、分析甚至外洩風險,進而成為不法分子覬覦的目標。與過往駭客需要入侵資料庫或破解加密的侵駭行為不同,新型態AI攻擊更加隱蔽且難以防範。
對此,在使用AI聊天機器人時,應謹慎評估使用工具的安全性和風險,特別是涉及個人身分、財務、公務或其他敏感資訊時。網路上流傳的AI提示詞,更要當心留意;因這些看似實用的指令,可能暗藏惡意程式碼。各單位在導入AI應用時,亦須建立完善的安全管控規範機制,包括選擇有信譽的AI服務供應商,定期進行弱點掃描、滲透測試等安全評估,及時更新防護措施。
隨著AI科技持續發展,吾人在享受便利之際,亦須正視潛存的危安風險,建立安全可靠的AI使用環境。唯有在確保資通安全的前提下,AI才能真正為人類社會帶來進步。面對充滿機遇與挑戰的AI時代,兼顧技術創新、安全防護,並常保警覺性,是每位使用者必須具備的數位基本素養。
(作者為國防大學政戰學院中共軍事事務研究所副教授)