所見所聞皆非真實 AI換臉變聲詐騙解析

【民眾網編輯方笙楠臺北報導】科技的進化往往帶來令人意想不到的改變,如同雙面刃般,為文明帶來創新與變革的同時,卻也讓歹徒動起歪腦筋,進而催生出更加可怕的犯罪手法。近期相當火紅的AI(Artificial Intelligence)人工智慧,有一種名為「深偽(Deepfake)」技術的應用,其結合了深度學習和影像合成,能以逼真的方式替換或操縱現有的媒體內容,以達到換臉、變聲等效果。

早期「深偽」技術犯罪主要與偽造成人影片(如Youtuber小玉的換臉事件)或模仿政治人物、名人進行宣傳有關,可能涉及假訊息散布、誹謗以及侵犯個人隱私等罪刑。然而隨著該技術的取得愈發容易,期應用範圍亦逐漸擴展到其他領域,包括娛樂、新聞、社交媒體,乃至詐騙手法的精進;臺北市政府警察局針對此技術進行研析,列舉出下列詐欺手法:
1、 電話詐騙(猜猜我是誰):
模仿特定人物聲音的功能,恐遭歹徒用於仿冒家人、朋友或其他知名人士的聲音,以利向受害者索取金錢與個人資料。
二、視訊詐騙:
深偽技術可用於合成擬真的影片、語音,或結合視訊功能,冒充企業高層,藉此對下屬發送虛假的指示,例如要求轉移資金或提供機密信息。近期大陸便出現一起科技公司老闆接到AI換臉詐騙視訊電話的案例,一夕間遭詐430萬人民幣(約1873萬新臺幣)。
三、恐嚇詐騙:
個人肖像可能遭詐騙集團移花接木,用以合成不雅照片,再寄送予當事人藉機恐嚇勒索。今年3月便曾有多位國內知名大學教授,收到類似的合成照片與恐嚇信息的騷擾。

深偽技術與詐騙手法的組合,近期也受到臺北市議員李建昌關注,並指出若個人的聲音、影像遭到盜用,所衍生的詐騙手法將令民眾更加難辨真偽。臺北市政府警察局在此呼籲民眾,面對科技的進步帶來的犯罪威脅,最重要的是保持警惕和懷疑的心態,不輕易相信或分享未經驗證的內容,並審慎對待來自陌生人(甚至是親朋好友)的請求,在接受媒體內容時,特別是容易引起關注的內容,亦應該檢查來源的可信度,化被動為主動,確保信息真實可靠。

如曾接獲類似的詐騙訊息,請撥打警政署165反詐騙專線或前往鄰近派出所諮詢,平時亦可透過追蹤臉書粉絲專頁「165全民防騙」及「臺北波麗士」、「反詐騙小金剛」,獲取最新防詐知識。