轉頭、換姿勢、揮手 警3招破解AI變臉

眼見不一定為憑!AI概念股全球正夯,利用AI深度偽造(Deepfake)技術從事不法的案件也隨之而生。刑事局指出,歹徒以變臉或聲音合成的方式,假冒親友或名人進行詐騙、恐嚇或製造假訊息,在國內的案例雖然較少,但日後恐成為治安隱憂,特別公布「轉頭、換姿勢、揮手」3招破解之道,提醒民眾別被騙。

警方表示,隨著社群網路發達,民眾利用社群媒體及通訊軟體,與親朋好友聯繫或聯絡公務已成日常生活一部分,但科技始終來自人性,「詐騙也是利用人性」;AI變臉技術就是以「眼見為憑」的傳統觀念,鬆懈民眾的戒心。

刑事局表示,目前AI變臉技術仍有破綻,特別拍攝「拆解AI深偽(Deepfake)變臉詐騙影片」,公布3招破解之道。警官說,可先從「側臉、脖子」部位辨識,目前的軟體不會偵測分析及套用到這兩個部位,所以側面影像會產生模糊狀,臉部跟脖子也會產生色差。

民眾若與熟人視訊察覺有異,或是與生活中未見過的人,或自稱檢警的公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手等三「撇步」,就可藉由影像破綻分辨出對方是否使用AI深偽技術變臉,避免受騙上當。

警方統計,今年接獲AI相關案件的檢舉及報案不到十起,大多是假交友詐騙。歹徒會先變臉成帥哥美女與被害人搭訕、噓寒問暖,再擷取被害人視訊影像或照片,合成不雅照,勒贖金錢。

警方說,AI深偽變臉技術,可製造出逼真虛假影像,被害人都不知道鏡頭裡的美女是假的。幾年前查獲「小玉」即是利用變臉技術,製造名人不雅性愛影像;大陸也曾發生科技公司老闆,接到變臉技術的詐騙視訊電話,被騙1873萬元(新台幣)。

警方指出,不論是何種AI深偽犯罪,民眾都要記得「談到錢要警覺、談借錢要查證、談投資金錢要當心」,才能防止被騙。