換臉牟利數位暴力 民團疾呼速立專法保護

【記者邱奕懿/台北報導】

當前的科技發展迅速,犯罪手法也不斷翻新,近日爆出前知名youtuber透過Deepfake的技術,將網紅、藝人、政治人物的臉「移植」到色情片的AV女優上,製作成情色影片牟利,此舉震驚社會,同時也衍生出更多法律層面的問題。

Deepfake指的是透過AI技術將影片、照片中人物換臉處理,也是「#數位性暴力」的一種型態

針對Deepfake技術造成眾多被害人被製作成色情影片流傳,目前《刑法》有#妨害名譽罪、#散布猥褻物品罪可以使用,被害人也可依《民法》進行求償。但上述法條無法因應新型態的犯罪行為,在案件發生時迅速處理,並祭出完整的法律制裁,也無法給予被害人足夠的保障,更沒辦法產生遏止以及預防的效果。

為此,婦援會以及民團、朝野立委長年來致力於《#侵害個人性私密影像防制條例》專法的推動,將各種類型的「#數位性暴力」,包括Deepfake等等納入專法的規範。專法其中一部份強調,案件發生時應盡速協助被害人將性私密影像下架,並扣留證據預防影像再度外流,同時提供專業社工人員、心理諮商補助等服務、保護令,明訂且加重加害人已遂和未遂的罰則,並對網路業者加以規範。

面對新型態的數位性暴力犯罪行為,不論是修法或是立專法,都要考量現行法律不夠完善的面向,如目前針對未成年被害人有較明確罰則,對成年被害人的保障相對不足,但不論是成年或是未成年的被害人,案件發生後創傷跟後遺症都相當嚴重,為了避免更多犯罪行為以及憾事發生,我們更要加緊腳步,修法刻不容緩!

而除了法律的修訂,更要普及各類性別以及網路教育,在科技發展迅速的同時,讓正確的觀念以及數位倫理向下扎根,婦援會也呼籲大家一同打造友善的性別環境和社會風氣。