用AI「一鍵脫衣」!陸工程師賣同事裸照1張7元 近7千張流出

「小玉換臉」事件的翻版在中國發生。(示意圖/shutterstock 達志影像)
「小玉換臉」事件的翻版在中國發生。(示意圖/shutterstock 達志影像)

中國近日發生一起「小玉換臉」事件的翻版!一名在科技產業上班的男子,竟利用AI功能中的「一鍵脫衣」,賣出了近7000張AI製裸照,受害者除了身邊的女同事之外,還有明星、不知名素人等等。

白男利用AI科技「一鍵去衣」販售女性不雅照。(圖/翻攝自央視新聞)
白男利用AI科技「一鍵去衣」販售女性不雅照。(圖/翻攝自央視新聞)

根據《央視新聞》報道,嫌犯白男住在北京,是一間網路公司的技術員。從去年6月開始,白男無意間接觸到「一鍵脫衣」的技術,只需幾秒鐘、就能生成多張相應的圖片,於是他想出歪點子,開始以此牟利,不僅使用身邊女同事的照片,還有網紅、明星等等,偽造大量不雅圖片,並發出廣告「電腦AI脫衣,白菜價,一張1.5人民幣(相當於新台幣7元)」。

根據白男陳述,這項技術並非真的「脫衣」而是深度偽造,是針對AI圖像生成模型「Stable Diffusion」作為框架,配合特定AI模型製作而成。他在2個月內製作出近7000張不雅照,獲利近萬元人民幣,對大量女性受害者的名譽造成嚴重損失。

警方在白男的電腦中查獲大量不雅照。(圖/翻攝自央視新聞)
警方在白男的電腦中查獲大量不雅照。(圖/翻攝自央視新聞)

北京市海淀區檢察院認為,白男以牟利為目的,製作、販賣淫穢物品,情節嚴重,其行為觸犯《中華人民共和國刑法》的相關規定,應當以製作、販賣淫穢物品牟利罪追究其刑事責任,案件有待宣判。

《TVBS》提醒您:

根據刑法第235條規定,散布、播送或販賣猥褻之文字、圖畫、聲音、影像或其他物品,或公然陳列,或以他法供人觀覽、聽聞者,處2年以下有期徒刑、拘役或科或併科三萬元以下罰金。意圖散布、播送、販賣而製造、持有前項文字、圖畫、聲音、影像及其附著物或其他物品者,亦同。提醒大家勿加入跪求、私給等行列以免觸法。

《TVBS》提醒您勇敢說不:

◎尊重身體自主權,遇到性騷擾勇於制止、勇敢說不,請撥打113、110

◎現代婦女基金會 性侵害防治服務專線02-7728-5098分機7

◎婦女救援基金會 02-2555-8595

◎勵馨基金會諮詢專線 02-8911-5595/性騷擾專線04-2223-9595

更多 TVBS 報導
首度納入經常戰備 瑞典智庫:中共24枚核彈頭用於洲際彈道飛彈
不讓李強看到她! 陸方用肉身擋住華裔記者成蕾
隨機下手!香港機場行李箱大盜出沒 變賣精品得手460萬
5年2101次!陸男愛外送「每天吃同家」 餐廳老闆感動:懂吃