【戰略快評】洞察認知作戰 警惕AI假訊息

◎董慧明

隨人工智慧(AI)技術快速發展,認知領域已成為國際政治競爭與新型態戰爭決勝的新場域。惡意行為者利用AI技術,製作、傳散錯假訊息,以認知作戰改變目標對象的思維、決策,其威脅程度不亞於傳統的資訊戰和心理戰,尤其是對民主國家公民社會的危害最為明顯。

以去年11月羅馬尼亞總統大選為例,世人即見識外國勢力以AI技術結合社群媒體平臺操縱大選結果。其中,該國憲法法院指稱特定候選人利用TikTok、Telegram進行選舉宣傳,並結合AI技術獲得「不當優勢」,成功在首輪贏得超過2成選票。此出人意料的結果引發對手質疑外國勢力介選,最終導致法院宣布選舉無效。

AI技術加上認知作戰的嚴峻挑戰,主要體現在它能夠快速產製大量客製化的訊息內容,精準鎖定特定族群,並利用社群媒體演算法擴大影響力。檢視羅馬尼亞案例,直指俄羅斯利用大量社群媒體帳號為極右派總統候選人喬吉斯古宣傳,成功塑造候選人形象,並影響選民情緒,大幅提升認知作戰效果。

對此,歐盟已察覺問題嚴重性。其執委會依據《數位服務法》對TikTok展開調查,特別關注可能遭到假帳號操弄之推薦系統,以及政治廣告內容等管理問題。此舉凸顯民主國家高度正視AI時代的認知作戰威脅,並積極採取應對措施。

根據「北約」研究分析,民眾重視言論自由、資訊流通,加上媒體環境多元開放,使錯假訊息易藉由各種管道快速傳散,成為被敵對勢力利用的弱點。社群媒體變為錯假訊息的主要傳播平臺,其普及性也同時造成資訊繭房效應衝擊,導致社會分化更加嚴重。

面對新型態安全威脅,民主社會須建立多層次防禦機制。首先,政府應強化數位治理能力,制定相關法規,要求社群媒體平臺承擔更多責任。歐盟制定《數位服務法》及我國施行《反滲透法》,皆對確保國家安全、社會安定和自由民主憲政秩序有著重要意義。

當前,愈來愈多國家已意識到須加強國際合作,共同對抗認知作戰威脅。包括美國、澳洲、阿爾巴尼亞等國,紛紛採取具體行動,限制可能被濫用於認知作戰的社群媒體平臺。民眾個人亦須具備識別AI生成內容訊息的媒體素養,理解社群媒體演算法的運作方式,以及認知作戰可能帶來的負面影響。

民主社會的開放特性雖容易遭受認知作戰攻擊,但只要在維護民主價值的前提下,發展如利用機器學習演算法即時偵測異常的資訊傳播模式、運用自然語言處理技術辨識可疑的AI生成內容,以及建立自動化的事實查核系統等AI偵測與防範認知作戰技術,同時確保這些防禦措施不會過度限制公民自由,相信定能在數位時代保護自由民主制度,維護社會長期穩定發展。

(作者為國防大學政戰學院中共軍事事務研究所副教授)