【AI狂潮】以查證技巧與批判性思考 擁抱AI資訊生態系

記者何蕙安/編譯

從文字、聲音,到影像,人工智慧(AI)在過去幾個月大舉進入我們的生活之中。這些AI工具讓我們的生活與工作更便利,但也帶來不實訊息等重大挑戰,其擬人化的設計也易讓人混淆與產生錯覺。媒體素養與資訊學者提醒,在面對AI生成的內容應該要保持高度警覺與批判性思考,事實查證的技巧也格外重要。

專家也提醒,不只是使用AI工具產生的錯誤資訊,圍繞於AI本身的迷思與錯誤想像也值得關注。特別是在《魔鬼終結者》、《銀翼殺手》等科幻電影的影響下,人們容易以想像來填補對於AI科技的不了解,甚至在恐懼下不慎傳播關於AI的錯誤資訊,忽略了真正的威脅與挑戰。

本篇文章彙整了墨爾本皇家理工大學資訊科學學者吉文(Lisa M. Given)發表的〈AI工具正在生成有說服力的錯誤資訊〉、及《華盛頓郵報》採訪美國媒體素養組織「News Literacy Project」與美國AI公司Hugging Face的科學家後撰寫的〈AI不神奇也不邪惡。如何打破AI迷思〉的建議。並收錄了最近的AI錯誤資訊案例。

AI生成的假訊息連續上演

用網路工具生成影像並非新鮮事,但最近陸續推出與不斷改版的AI影像生成工具Midjourney與DALL-E等,將「製作假照片」的門檻又進一步大幅降低:用戶只要輸入幾段簡單的文字指令,AI工具就可以生成極為逼真、鉅細彌遺的影片。

3月20日,知名數位調查組織《Bellingcat》創辦人希金斯(Eliot Higgins)在推特上發布了數十張的「美國前總統川普遭圍捕、拘禁」的AI假照片,掀起了一陣風波;儘管希金斯在推文裡清楚表明照片是以Midjourney製作,但這些照片在失去脈絡的情況下在社群平台上廣泛流傳,美國、印度等多家查核組織都為此發布了查核報告。


圖1:知名調查組織創辦人在推特上發布多張以AI圖片生成工具Midjourney製作「川普被逮補」的假照片,意外在社群平台廣傳/擷自Eilot Higgins推特

「川普遭逮捕的深偽照片顯示AI的破壞性力量大幅升級。」《華盛頓郵報》在報導該事件的新聞下了這樣的標題

然而不只是影像,聲音如今也可以使用AI工具假造。《衛報》澳洲團隊的一個調查發現,只要使用4分鐘的音訊檔,就可以生成假造的聲音,騙過澳洲社會福利聯絡中心與澳洲稅務使用的聲紋登入系統,進而取得個人個資。當地也發生有歹徒利用AI工具生成特定人士的聲音,用以詐騙金錢的事件。

台灣事實查核中心與《美聯社》日前都分別破解,也都破解了一篇以AI造假微軟共同創辦人比爾蓋茲聲音的影片。該造假影片是擷取蓋茲接受澳洲電視台採訪的新聞影片,但透過深偽技術變造主持人與蓋茲的嘴形,並加上AI造假的聲音,呈現原版影片沒有的對話內容。


圖2:台灣事實查核中心日前破解了一個以AI造假微軟共同創辦人比爾蓋茲的聲音的影片/擷自查核報告

事實查核與批判性思考將成為對抗AI假訊息的武器

墨爾本皇家理工大學資訊科學學者吉文指出,儘管人類分享錯誤資訊的歷史久遠,但AI工具開啟了錯假訊息傳播的新篇章。隨著人們愈來愈容易取得與使用這些AI工具,假訊息的傳播變得更快、規模更大。

吉文指出,特別是過去還能透過電子郵件詐騙裡的拼音錯誤、或是AI照片裡多出來的手指,產生警覺;隨著技術的進步,真假將愈來愈難辨。

「我們沒辦法總是諮詢專家,所以我們要學習如何自己找到資訊、做出判斷。」吉文說,「批判性思考與查證技巧將是關鍵。」

對於如何面對充滿AI內容的資訊環境,吉文提出了三個建議:

  1. 以獨立資訊來源查證

使用AI聊天機器人時,記得確認當中提到的消息來源。如果消息來源確實存在,則思考其內容的呈現方式是否準確,以其是否有遺漏重要的細節。

  1. 對於內容保持懷疑

如果你看到一個懷疑是AI生成的影像,思考一下這個影像是否「好到不太真實」。或者是有部分的細節與其他部分不搭嘎。可以分析一下影像的筆觸、細節、顏色、陰影與脈絡。也可以使用影像反搜引擎來查證一下。

如果是文字,則可查證文中提到的內容是否有誤;或是反問自己該內容的寫作與題材風格是否與其宣稱的來源相符。

  1. 與你的親友圈公開的討論AI

負責任地使用AI工具。如果你或你的工作計畫使用AI工具,先思考如何控管可能產生的錯誤,以及如何在最終產出的內容裡透明的揭露相關資訊。

留意與AI有關的迷思

除了關注可能利用AI工具產出的錯假訊息與影像,另一個要留意的是圍繞在AI本身的誤解與迷思。一些公司可能過度強調AI模型可以做的工作,擁護者可能會編織出一些科幻小說情節幫的內容,但AI其實並非萬能。

「我們很不幸的生活在一個資訊被用來當作武器的時代,因此我們必須要對這些(AI)科技『可以做的』與『不可以做的』、有一定認識。」美國布朗大學資訊未來實驗室(Future Information Lab)共同總監瓦杜(Claire Wardle)接受《華盛頓郵報》採訪時說。

以下是《華盛頓郵報》採訪數位AI與資訊素養專家,整理出的三個建議:

  1. 不要對AI投射人類情感

美國AI公司Hugging Face的機器學習與倫理科學家米契爾(Margaret Mitchell)說,人類容易對非人類的生物與物品投射情感,但「擬人化」卻在討論AI議題時成為一個問題。隨著AI聊天機器人的回答被設計的像真人,再加上科幻電影與小說的推波助瀾,人們很容易就在想像AI會有自己的意識,產生恐懼,此時也較容易相信與傳播錯誤資訊;此外,當AI技術出錯時,也可能會有公司以此為藉口、推卸責任。(編註:Hugging Face開發了一個AI影像偵測工具,協助辨識某個影像是否含有AI生成影像)

  1. AI並非單一技術,而是多項技術的集合名詞

所謂的AI,其實包含不同研究團隊、公司所發展的不同的科技與模型,而每家公司都有不同的目標與發展重點,因此最重要的是讓這些公司為他們的AI技術負責。AI沒辦法自己去設計導航飛彈航或是自己發展出雇人系統,都是公司透過AI工具的幫助讓這些事發生。

  1. 對AI工具保持懷疑態度

留意「自動化偏見」(Automation bias)。人們很容易覺得電腦的推薦是最佳的,因而跟著系統的建議而行動(或是因為系統沒推薦而沒做某事)。但儘管AI模型可以優異的完成一些指令,並不代表其可以保持其一致性、以及不會出錯。

News Literacy Project」的創意策略資深副總裁沃蘭(Darragh Worland) 說,最好的方式是,記得用你面對維基百科與Google搜尋引擎使用的同樣的媒體素養技巧,來對待AI模型。例如將AI生成的答案對照一下其他的可信資訊來源,如報紙、政府、大學網站或學術期刊。

推薦閱讀

台灣事實查核中心「AI時代的數位識讀與挑戰專區」

【錯誤】網傳影片「比爾·蓋茲受訪遭主持人質疑:竊取他人電腦技術、疫苗害人死亡」?2023-03-22

馬麗昕,【查核開箱文】AI繪圖侵入假訊息領域!記者用AI製圖工具破解松花江冰花影像,2023-01-05

參考資料

Lisa M. Given, AI tools are generating convincing misinformation. Engaging with them means being on high alert, The Conversation, March 23, 2023

Tatum Hunter, AI isn’t magic or evil. Here’s how to spot AI myths, Washington Post, March 22, 2023
ARIJETA LAJKA and PHILIP MARCELO, Trump arrested? Putin jailed? Fake AI images spread online, AP NEWS, March 24, 2023

Nick Evershed and Josh Taylor, AI can fool voice recognition used to verify identity by Centrelink and Australian tax office, The Guardian, March 16, 2023