美首例AI性犯罪!他拍女童生成裸露影像遭逮

▲「深度偽造」(deepfake)合成的影像氾濫。(圖/美聯社)
▲「深度偽造」(deepfake)合成的影像氾濫。(圖/美聯社)

[NOWnews今日新聞] 藝人黃子佼去年被揭發MeToo醜聞後,近日又遭檢方查獲持有未成年少女不雅影片,被處以緩起訴處分2年、繳庫120萬,這起宛如「台版N號房」的事件震驚全台,也喚起各界修法呼聲。而在歐美國家,對持有兒少不雅影像者則普遍採取更加嚴峻態度,今年1月美國警方就查獲一起利用生成人工智慧製造未成年少女色情影像的犯罪案件,目前嫌犯正面臨17項兒童性犯罪指控並被羈押,光是保釋金就要150萬美元(約新台幣4756萬元)。

人工智慧(AI)技術進步之餘,也有著被有心人士利用的可能,美國今年破獲首例涉及AI技術運用的性犯罪事件。根據佛羅里達州警方公告,警方在接獲網路檢舉後,於今年1月26日於馬丁郡逮捕一名51歲的男子丹尼爾·沃倫(Daniel Warren)。

在持有傳票和搜查令的情況下,警方搜查發現沃倫拍攝鄰居女童的照片後,利用AI技術將這些照片製作成色情影像,根據《CBS》和《NBC》報導,沃倫在會將鄰居女童的原始照片經由AI技術移除身上的衣物,不僅製作成裸露影像,還能生成讓女童擺出各種姿勢,甚至是虛擬的性行為場景。

佛羅里達州馬丁郡警官布勞頓(Brian Broughton)稱,如果只是簡單一瞥根本無法察覺這是經過AI生成的影像,製作性影像的技術已經逼真到讓他感到害怕。報導稱,沃倫在居住的社區當中表現得相當友善,鄰居對他印象良好,然而在他持有的影像當中,最年幼的受害者甚至還不到5歲。

當局稱,調查單位針對超過39個電子設備進行詳細分析,最終發現的影像讓人感到不適,「這些孩子甚至不知道自己成為受害者,所以我們正在打擊的是一種新型態的犯罪形式。」

沃倫目前面臨著17項幾乎都是重罪的兒童性犯罪指控,由於付不出高達150萬美元的保釋金,目前他仍被當局羈押,等候5月2日出庭受審。

這是美國第一起涉及運用AI技術的性犯罪事件,警方正在調查他是否還有涉及其他性影像的製造傳遞或交易,目前美國有9個州已經制定法律,禁止生成或共享未經同意的深偽影像,預計本案將會受到外界高度關注。

更多 NOWnews 今日新聞 報導
「英版黃子佼」架設暗網散布兒童不雅照!遭重判16年
「N號房事件」揭開性剝削產業黑幕 韓國受害者後來怎麼了
不只泰勒絲受害!深偽色情影像泛濫 美國僅9州立法禁合成影像