恐怖!偽造聲音只需3秒 AI詐騙電話:媽!我被綁架了

AI技術突飛猛進!現在傳出只需3秒鐘,就能複製一般人的聲音,現在已經有歹徒,拿來打詐騙電話。美國一位媽媽最近就接獲詐騙電話,歹徒用AI偽造女兒的聲音,謊稱遭到綁架要求贖金。還好她及時確認女兒平安,沒讓歹徒得逞,只是AI聲音太逼真,媽媽說,根本無法分辨真假。

示意圖/shutterstock 達志影像
示意圖/shutterstock 達志影像

影星湯姆克魯斯(AI生成) :「如果你是超強攀爬者,我想看你爬(杜拜帆船飯店)。」

用AI生成的假阿湯哥幾可亂真,只是現在AI能做的恐怕不只這樣而已。

CNN記者DonieO'Sullivan:「嗨老爸。」

CNN記者用ChatGPT生成自己的聲音。

CNN記者(AI生成)vs.父親:「爸你好嗎?很好你呢?剛把新聞拍完,等下要趕去機場,你要回來紐約啊。」

假聲音輕易騙倒自己的老爸,讓記者跟製作人在一旁笑翻,只是現在傳出有詐騙犯用AI犯案。

接獲詐騙電話家長JenniferDeStefano:「我接起來聽到女兒啜泣,我問她怎麼了,她說媽我慘了需要幫助,請幫我我出事了。」

這位心急如焚的美國媽媽,一度以為女兒參加滑雪比賽時出意外。

CNN記者TomForeman:「接著一名男子上門要贖金,其實女兒根本沒被綁架。」

「媽我被綁架了。」,這樣的詐騙老哽竟然結合AI技術,讓美國媽媽差點上當,還好她最後還是聯絡上女兒,確認平安無事。

接獲詐騙電話家長JenniferDeStefano:「我一秒都沒懷疑過(是詐騙)」

AI專家Dr.GaryMarcus:「AI生成幾乎真假難辨,要擔憂的是有心人士,可能拿來欺騙民眾。」

專家說現在AI只需要3秒鐘,就能偽造出一般人的影像和聲音來。

CNN主播:「GPT-4語言工具,能分析上萬筆詞語文本,幾乎所有都能重製,甚至連聲音都能生成。」

至於要怎麼防範AI取得個人影像和聲音資訊,專家建議把所有雲端個資改為私人不公開,才能避免歹徒拿來生成「數位複製人」。

更多 TVBS 報導
AI恐取代人力 馬斯克喊「危險技術」:政府應出手監管
中國AI離ChatGPT有多遠 百度:有可能一直追不上
台大畢典邀「身價千億大咖」致詞 校友跪:想再畢業一次
防AI對社會構成危險 白宮稱科技巨擘有道德責任