AI變聲淪詐騙工具 騙光澳洲老兵38萬積蓄

▲隨著AI工具的發展,近期在澳洲就發生有民眾因「AI變聲」遭詐騙的案例發生。(圖/擷取自Pixabay)
▲隨著AI工具的發展,近期在澳洲就發生有民眾因「AI變聲」遭詐騙的案例發生。(圖/擷取自Pixabay)

[NOWnews今日新聞] 利用生成式人工智慧(AI)技術的新工具陸續問世,這讓許多有心人士能夠在更低門檻的情況下製造幾假亂真的假影像與聲音。近期一名澳洲老兵就稱自己受到「AI變聲」詐騙,導致帳戶內將近新台幣38萬元的存款遭全數騙走,警方追查後才發現犯人是一名利用AI工具偽造聲音的19歲少年。

近期除了深偽技術可以變造臉部影像,利用AI來達成聲音轉換(Voice Conversion)的技術也被用來詐騙,綜合澳媒報導,71歲的退休軍人阿諾(Shane Arnold)先前向警方報案表示,自己去年收到一封標示來自「Netflix」的電子郵件,文內表示因為技術因素所以需要向訂閱者退費,而阿諾符合資格,要求按照指示輸入銀行帳戶等個人資料。

隔天,他收到一通來自「澳洲聯邦銀行」資安人員的電話,對方以流利的英國口音告知他帳號已經遭人盜用,必須將銀行卡片寄送至金融機構才能處理,而阿諾也按照對方指示將卡片仔細收起來轉交給取貨的司機,沒想到事後一查才發現自己澳幣1.8萬元(約新台幣38萬)的積蓄全遭人領空,這才得知談吐得宜的來電方根本就是詐騙行為。

警方在接獲報案後,發現嫌犯盜領大筆現金後拿來購買新的iPhone手機,甚至在百貨公司購買大量零食和消費禮券,循線後才追蹤到嫌犯其實是一名年僅19歲的少年卡利德(Kahlid Mahamud),而且他就住在墨爾本,根本沒有「流利的英國口音」,而是利用AI工具偽造出明顯的口音,成功騙取他人信任與個資,最終因詐騙犯罪而遭起訴。

更多 NOWnews 今日新聞 報導
美大選假訊息悄悄來襲!拜登語音疑遭AI仿造 打電話要人跳過初選
AI意識覺醒?ChatGPT爆災情「胡言亂語」發亂碼 OpenAI稱已修復
負責提供內容訓練AI!Reddit與Google簽下授權協議 為上市做準備