Deepfake亂合成情色片TWICE也受害 南韓將查Telegram

被視為深偽不雅影片聚集地,南韓傳出將對Telegram展開調查。(圖/達志影像美聯社)
被視為深偽不雅影片聚集地,南韓傳出將對Telegram展開調查。(圖/達志影像美聯社)

南韓近期被網路安全公司點名,指稱該國境內擁有大批深偽(Deepfake)的偽造不雅影片網站,針對各種演員、歌手或名人女性,使用AI換臉技術製作色情影片或圖片,上傳至網路進行流傳散播,其中就連知名女團TWICE也無法倖免,成員也被人惡意合成情色影片,讓JYP娛樂怒而提告。對於這個亂象,南韓媒體指出,國家警察廳即將啟動深入調查,第一步將針對影片最大源頭的Telegram。

《路透》報導,雖然官方並未對外證實,但近期deepfake引起的性騷擾或不良行為議題,卻已經引起韓國民眾關注。許多南韓電視台和媒體也跟進報導,透過潛入或其他方式,取得部份聊天群組的私密內容,發現確實存在大量使用毫不相關的素人女性或演員、歌手等女性明星的外貌,以此偽造的情色影片與圖片,在社群上瘋狂轉發和流傳。

最先曝光這個亂象的是資安企業「Security Hero」,他們釋出最新的研究報告,報告中直接點名南韓,表示從該國網路上一共搜查出9.58萬支偽造換臉的不雅影片,其中超過一半以上,遭到合成羞辱的女性,是該國女性藝人,而不雅影片中99%比例受害對象都是女性。

為了保護受害人,南韓警方也開設24小時通報保護專線,並擴大監控團隊規模,加強搜查各種深偽影片與網站。但警方也坦言,接下來如要追查Telegram勢必將遇到不小挑戰,畢竟這是一個強調加密的社群平台,警察想從官方手中取得數據的機率,恐怕是難上加難。

《TVBS》提醒您勇敢說不:

◎尊重身體自主權,遇到性騷擾勇於制止、勇敢說不,請撥打113、110

◎現代婦女基金會 性侵害防治服務專線02-7728-5098分機7

◎婦女救援基金會 02-2555-8595

◎勵馨基金會諮詢專線 02-8911-5595/性騷擾專線04-2223-9595

更多 TVBS 報導
惡用Deepfake技術!TWICE成換臉淫片主角 JYP怒喊告:絕不寬貸
小玉換臉蹲牢中!反骨女神「求償百萬」嘆心累 實拿金額曝
Deepfake成「N號房2.0」!TWICE遭換臉合成不雅片 公司震怒提告
全球最嚴重國家!南韓「深偽色情內容」猖獗 未成年受害近6成