可怕!AI 只需3秒就能「複製你的聲音」打給親友騙錢

記者谷庭/台北報導

 詐騙集團現在透過AI複製人聲,來矇騙親友轉帳。 (圖/資料照)
詐騙集團現在透過AI複製人聲,來矇騙親友轉帳。 (圖/資料照)

近年AI 發展快速,很多企業開始導入AI 加快辦公效率,不過現在也被有心人士用來當詐騙工具。

外媒報導,AI風險評估公司Blackbird.AI共同創辦人哈利德指出,發現有詐騙集團開始利用AI技術,複製他人的聲音,進行電話語音詐騙,來竊取銀行帳密或是要求轉帳。

由於透過AI技術,這樣的AI語音複製人聲音跟真人非常相近,所以很容易讓人受騙上當,尤其是一些常在電視、公開場合講話的公眾人物,最容易成為詐騙集團的目標,節錄發言片段,讓AI 去複製聲音,甚至只要花3秒就能成功複製出來。

不過目前也尚未有辨別是真人還是AI語音複製人的技術,所以若要避免被騙,若突然接到親友打電話來要求緊急匯款,一定要進一步再跟本人確認,以免落入詐騙集團的陷阱中損失慘重。另外也提醒民眾,平常在網路上盡量不要留下個資、電話等資訊,也容易成為詐騙集團鎖定的目標。

更多三立新聞網報導
他盧神明來託夢!當晚就夢到「神回1句」網友笑噴:超有個性
不想多花錢!他用「這1招」成功續約中華電信488不限速吃到飽
有下載就賺到!LINE「超狂免費貼圖」迪士尼款必收 連結都在這
再等等!iPhone 15 Pro 「4大有感升級」曝光