女性政治人物淪深偽AI情色受害者 恐傷害民主與國安
法新社報導,從美國到義大利、英國和巴基斯坦,女性政治人物愈來愈常遭受人工智慧(AI)生成的深偽色情或性意味影像所害。研究員指出,私密影像常被用來玷汙女性在公共領域的名聲、破壞她們的職業生涯和大眾信任,並製造勒索或騷擾的契機,進一步威脅到國家安全。
專家說,有些照片應用程式(App)可褪去影像中的女性衣物,隨著這類廉價AI工具激增,網路上出現大量未經同意的深偽影像,全球監管這項技術的行動難以約束。
專門研究假資訊的「美國陽光計畫」(American Sunlight Project)在色情網站上發現超過3萬5000個描繪26名國會議員深偽內容的例子,其中25人是女性。「美國陽光計畫」上月公布的研究結果顯示,國會有近六分之一的女議員曾因這類AI生成影像而受害。
計畫執行長楊科維茨(Nina Jankowicz)說:「女議員正以驚人速度成為AI生成深偽色情影像的受害者…這不只是一個技術問題,而是直接侵害領導階層中的女性和民主本身。」
為避免有心人搜尋,「美國陽光計畫」沒有公布受害女議員名單,但已私下通知她們的辦公室。
英國第4頻道(Channel 4)去年調查發現,超過30名女性政治人物成了深偽色情網站受害者,副首相芮納(Angela Rayner)也是其一。這個網站似乎利用AI技術「脫光」約12名女性政治人物的衣物,未經同意就將她們的照片變造成裸照。
在義大利,總理梅洛尼(Giorgia Meloni)正向兩名男子要求10萬歐元(約新台幣340萬元)賠償,他們被控製造梅洛尼的深偽影片,並上傳到美國色情網站。
在巴基斯坦,法新社事實查核人員發現一支深偽影片,內容是女議員瑪吉德(Meena Majeed)公開擁抱一名男部長,這在保守的穆斯林國家會被視為不道德行為。另外,巴基斯坦旁遮普省(Punjab)資訊部長柏卡里(Azma Bukhari)在網路上發現一支深偽影片把她的臉嫁接在一名印度演員的性感身軀上,讓她「身心受創」。
非營利的「科技政策媒體」(Tech Policy Press)去年表示,「AI生成影像和影片被用來騷擾政壇中的女性,造成令人恐懼的效果,這是一種愈來愈常見的現象」,並警告此一趨勢將對女性的「政治抱負」產生嚇阻效應。
Yahoo奇摩關心您:若發現性影像流傳,請「不」拍、「不」傳、「不」留,一起防制性影像散布。 並尋求下列管道申訴、下架:
※ 衛福部性影像處理專線:02-6605-7373
※ 性影像處理中心線上申訴與下架