【戰略快評】強化全民心防韌性 防堵AI濫用危害

◎董慧明

以往人們對於人工智慧(AI)的認識,大多停留在對特定資訊產品或高科技設備的技術應用;然而自從生成式AI問世以來,強大的圖文、語音、影像功能,不僅為生活注入趣味、工作效率也大幅提升,但這項在數位時代快速興起的技術,便利之餘,也暗藏安全風險。特別是當AI被惡意使用於輿論引導、認知心理影響,甚至行為操控之際,須審慎因應其負面衝擊,強化心理防禦能力。

認知作戰是一種整合網路、資訊、傳播、心理和社交等特性於一體的戰法,目的在影響、改變對手的心理認知與行為。因此,惡意行為者會將網路空間、社群媒體視為奪取的攻擊陣地,鎖定有公眾影響力的個人、特定群體,進行連續、長期性的輿論與心理操作。無論是利用信任感博取對特定價值觀的認同,或是刻意以設定好的敘事論述,在群眾間挑撥分化、製造矛盾分歧,進而鼓譟目標受眾從事破壞國家內部團結行為,意圖削弱政府公信力,改變社會價值觀。

再從AI改變訊息傳播模式和加速擴散的特性而論,一旦遭不當利用,精準定位社群媒體平臺,則會成為惡意行為者製造和傳散爭議訊息及操縱目標受眾感知的不法工具。例如透過深偽技術進行換臉、輸入自訂提示詞生成特定圖像、影片,或是運用演算法精確推薦自動化訊息,以情感化的互動方式影響目標對象心緒,皆是認知作戰常見的手法。當「有圖有真相」的說法被顛覆,分辨虛實也不再像過去那樣可靠,更加凸顯謹慎使用AI的重要性。

基此,對於AI發展與使用行為制定適當的防範措施和法律,已成各國政府高度關切的議題。尤其對於遏止人工智慧被非法濫用或用於破壞國家安全之行為,更須建立有效的稽核與反制作法。歐盟、聯合國上月先後通過《人工智慧法案》及《把握安全、可靠、值得信賴的人工智慧系統機會,推動永續發展》的法案與決議,皆反映出全球重視AI使用與治理的深層涵義。

無論是AI的惡意使用或認知作戰威脅,皆是利用個人和社會的認知脆弱性來達到目的。因此,政府、媒體和科技公司除應盡其責任,構建公私民協力抵禦威脅之安全機制,亦須著重行為法律規範的制定,以及在使用和開發AI的過程中,遵循對人權、個人隱私的尊重、保護,以促進社會公正等更高的道德標準,打造值得信賴的AI環境。另在降低認知作戰危害方面,更要注重事實即時查核澄清、資訊倫理與理性思辨,強化全民心防韌性。

(作者為國防大學政戰學院中共軍事事務研究所副教授)