AI變聲.換臉詐騙猖獗! 空間.影響頻率分析辨影片真偽
財經中心/楊思敏、李奇 台北報導
詐騙猖獗,尤其AI技術越來越發達,真假常常分不清,甚至只要幾秒鐘的音檔,就能靠AI生成出相似度很高的聲音。不只變聲,利用即時換臉軟體打視訊電話來詐騙,也曾發生過。究竟該如何防範?
民眾:「AI這個會讓你害怕說(被詐騙),會我覺得很可怕,我就盡量不去看就這樣子,我只能這樣保護我自己。」
民眾:「沒有辦法分真假,也沒有辦法過濾,那乾脆就不要碰。」
真真假分不清,尤其上了年紀的民眾,講到詐騙都超有感,還有人嚇得少用網路。AI科技發達,自動生成照片和影片更容易,先前還有Deepfake深偽技術換臉詐騙,成為隱患。
軟體經過辨識、偵測到對方可能使用換臉軟體假冒他人。(圖/民視新聞)換臉視訊vs.民眾:「你現在手頭上有200萬嗎,我們都那麼熟了,先借我擋一下好不好。」
對方跟你視訊,但覺得對話內容哪裡怪怪的,打開軟體,利用空間和影像頻率分析,判讀形狀、大小是否異常,還有臉部邊緣是否有不自然突起、破圖和殘影,就會跳出警告通知,對方可能是換臉!就連在網路上看影片也能測試,左邊的比爾蓋茲是真的,右邊是假的,科技幫助辨真偽。
科技公司台灣區總經理洪偉淦:「用語言的方式來詐騙,那至於這種語言的方式,就要用語言的方式來辨識它,變臉詐騙,就是你怎麼樣看出這個人,並不是真的人,而是被人家偽造的臉,頻譜的分析空間的分析,來辨識這個影像,是否是一個偽冒的影像。」
根據調查,76%民眾認為AI加劇詐騙風險。(圖/民視新聞)根據調查,76%民眾認為AI讓詐騙更猖獗,不只換臉,許多免費AI語音軟體,只需要幾秒鐘本尊的音檔,就能生成相似度極高的聲音,CNN記者實測,像到連自己媽媽都沒聽出來!
CNN記者生成聲音vs.媽媽:「嗨媽媽,嗨湯尼你好嗎,你覺得我的聲音,聽起來有不一樣嗎,這並不是真的我,是電腦生成的聲音。」
專家建議,不確定電話另一頭是不是聲音偽造,親友間可以建立"通關密語"測試,至於碰到可疑視訊,除了靠軟體幫忙,記得請對方把手在臉的前面揮一揮,看有沒有抖動或閃爍,也能幫助判別。
原文出處:AI變聲.換臉詐騙猖獗! 空間.影響頻率分析辨影片真偽
更多民視新聞報導
網路流傳"要綠營倒台"AI深偽影片 高嘉瑜提告自清
AI太強了!銅鑼杭菊園秒變日本雪景 打造浪漫冬季
中國AI假帳號大軍干預美選 垃圾訊息轟炸削弱民主