常見民眾開心拍照時伸手比「YA」,近日有網友在傳,為防惹AI詐騙上身,提醒民眾拍照時改掉比YA的習慣,避免被有心人士竊取指紋、登入網銀竊取錢財、行詐騙。對此,防詐資安專家劉彥伯回應說網路謠言太誇張,以目前科技技術來說擷取照片上的指紋有相當難度和前題,且就算取得指紋也無法連結到個人資訊,遑論銀行帳號,請民眾不要過度擔心。
記者谷庭/台北報導近期通訊軟體和社群平台流傳一種訊息,提醒民眾拍照時不要比YA,以免駭客透過高科技竊取你的指紋,盜取你的指紋行騙,不過台灣事實查核中心表示,這是假訊息。台灣事實查核
事實查核報告#3006 網傳「以後拍照不要比YA!小心指紋會被歹徒盜取,進而盜竊銀行帳戶?」 發布日期/2024年5月9日 經查:【報告將隨時更新 2024/05/09版】 AI科技盛行,網路出現許多提醒大家注意AI詐騙的傳言。有一則傳言呼籲民眾拍照不要比YA,會有高科技盜取指紋行騙,這是真的嗎? 一、專家表示,現行的技術要在一般環境達到遠距離複製指紋,並能成功應用在後續的盜取個資等攻擊行為,並不容易。 若要完整複製照片中的指紋,必須達到影像清晰、光源充足、拍攝角度、大面積指紋等前提,還必須有特殊規格的高解...
事實查核報告#2963 網傳「接到陌生電話不要先講話,不出聲要直接掛掉,AI會蒐集民眾聲音」? 發布日期/2024年4月12日 經查:【報告將隨時更新 2024/4/12版】 AI技術日新月異,近期通訊軟體流傳一段文字訊息,提醒民眾接到陌生電話不要先講話,因為AI會蒐集民眾聲音。專家看法為何: 一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。 專家建議,民眾不需要...
記者谷庭/台北報導 近期網路上瘋傳一條訊息,表示若接到陌生電話,先不要講話,因為可能會被AI搜集你的聲音,進而之後用來詐騙,不過台灣事實查核中心指出,這個傳言立意良善
微型衛星的影像資料有利地震救災,卻受限於高成本與影像的低品質,而最新研究為此提出低成本的可能解決方案。RTCS系統是我們團隊首創的技術,能同時解決原本衛星影像上可能出現的瑕疵,又能還原被壓縮的影像。
[周刊王CTWANT] 台灣事實查核中心表示,近期在通訊軟體間流傳一段文字訊息,提醒民眾接到陌生電話後先不要講話,且對方若不出聲,應直接掛斷,以免被AI收集了自己的聲音。對此,成功大學統計學系教授許志仲解釋,雖然現在AI技術發展快,大約5-10秒間內模擬出真實人聲。但實際上,電話聲音品...
(中央社記者王心妤台北17日電)AI科技日異月新,網傳接到陌生電話應該要不出聲音掛掉電話,否則會被AI搜集聲音,台灣事實查核中心訪問資安專家後表示,靠電話聲音模擬出的人聲容易失真,民眾不須過度防備。
網上流傳「AI會錄製聲音,所以大家接到陌生來電不要先出聲」的消息,讓台灣民眾聽了很怕「亂出聲會使聲音被複製」,TFC台灣事實查核中心詢問AI專家許志仲,認為民眾要小心,但不用過度防備,因為電話的聲音品質通常不太好,很難模擬出品質好的AI音檔。