AI換臉色情片!韓深偽犯罪猖獗 政府展開整頓
南韓近期發現大量Telegram聊天群組,正在散播利用AI深偽技術合成的色情影像,受害者大多數是未成年,還有學生、軍人和藝人等,當中還包括偶像團體BLACKPINK,讓經紀公司憤而喊告。這些受害者除了個人資料被非法使用,還進而被跟蹤和威脅,事件嚴重至南韓總統尹錫悅下令徹查,當地警方也已宣布展開打擊專項行動,並對Telegram平台展開調查。
安裝程式、上傳照片,系統便會自動識別,之後再選擇另一張照片進行臉部互換,一張合成照就此誕生。整個過程只需要不到5分鐘,而且不只圖片能使用深偽技術,合成影片也是輕輕鬆鬆就能搞定。
韓聯社TV記者:「這是製作深偽影片的應用程式,選擇想要合成的影片和我的照片,只需幾秒鐘就可以看到製作完的影片,也可以直接分享到社群平台。」
操作容易、製作快速的深偽APP,近期被南韓不肖人士濫用,他們用AI將女性臉部照片和色情影像合成,製作虛假性剝削影片,並上傳到Telegram聊天群組。
韓聯社TV記者:「這裡是約有1千人進入的Telegram群組。像這樣,根據受害者的出生年份或地區,設立數十個聊天室。」
只要上傳認識女性的照片和個人訊息,聊天室就有負責的人,製作色情影片,並分享出去。這樣的聊天室數不勝數,受害者遍及南韓社會,就連未成年、青少年,不法人士都沒放過。
受害高中生:「我國中二年級上傳網路或不公開帳號上的照片,都被傳播至Telegram。」
這名受害高中生,最近才從朋友口中得知,自己的照片就這樣被擅自利用。
深偽影像犯罪正擴散至南韓校園,學生、教師都成了目標。根據教育部掌握的資訊顯示,從今年1月到8月27日,全國中小學發生的相關受害事件接近200例。而且不只受害者有未成年,調查結果顯示,深偽性剝削案件加害人,甚至有高達73.6%,是10到19歲未成年。
韓聯社TV記者:「今年3月,河東郡的一所國中,發生了6名國一男生,將12名同年級女生的照片,與色情影像合成並共享的事件。忠州某高中有兩名男生被警方立案,因他們涉嫌用同學校女學生的照片,製作淫穢合成物。」
除了校園內深偽犯罪猖獗,軍營也淪陷,Telegram上還有以女性軍人為目標的特定群組,成員甚至將被合成受害者稱作軍需品。
韓聯社TV主播:「女團(G)I-DLE的經紀公司Cube娛樂表示,惡意的深偽作品正在網路上流傳,我們計畫對這些深偽影片製作者和傳播者採取法律行動,絕不手軟。」
還有許多韓國女星,包括BLACKPINK、TWICE等大勢女團在內,也成為被合成受害者。惡劣行徑讓各家經紀公司接連發聲喊告,不願縱容有心人士。但後續還有更大問題,這類犯罪可能進一步衍生出威脅或跟蹤等二次犯罪。
東國大學警察學系教授 李允浩:「(人們)不是會把這些東西分享出去嗎?有人可能就說,我來幫你阻止傳播,以此做威脅、造成二次傷害的可能性,都是有的。」
為了解決棘手情況,南韓警方8月底宣布現在開始到明年3月31日,將展開集中打擊深偽性犯罪專項行動。(08/0156到最後警察廳畫面)
南韓總統 尹錫悅(8/27):「我們任何人都可能成為這一類數位犯罪的受害者,我敦促有關當局進行澈底調查,並採取措施根除這些數位犯罪。」
深偽犯罪頻傳讓全民人心惶惶,南韓總統尹錫悅譴責罪行,並下令徹查;首爾當局也啟動24小時全年無休受害舉報和諮詢中心,並積極要求社群平台,協助下架色情內容。
南韓廣播通信標準委員會長 柳熙林(8/27):「計畫與Telegram、Facebook、X、Instagram、YouTube等全球網路平台運營商,組成緊密的協商體,在迅速採取刪除、中斷傳播措施的同時,也強烈要求它們自律。」
另外,政府也決定明年投入20億韓元開發系統,辨別透過深偽製作的影片內容。
南韓通訊廣播技術政策課長 李柱植:「投入10億韓元開發精準探測深偽和生成抑制技術,並開始開發自我進化型的深偽探測技術,這部份則是10億韓元。」
隨著深偽色情案件氾濫成災,首爾當局正積極出手整頓,多管齊下打擊數位性犯罪。
更多 TVBS 報導
AI機器人新應用 陪伴中風、腦損傷患者復健
輝達也加入新一輪融資 OpenAI估值突破千億美元
機器人進駐便利商店 接待遊客咖啡拉花
南韓電信詐騙多!40歲婦幫抓犯 翻拍電影獲獎金