Deepfake是什麼?移花接木色情影片、網銀用戶帳戶恐被盜?唐鳳政委示範Deepfake有多恐怖!

有影片就有真相嗎?行政院政委唐鳳近來在臉書發布一部影片,主角神似他本人,揭開內幕後才知道是由他人錄製,並透過深偽(Deepfake)技術達成。YouTuber小玉先前也遭爆,利用Deepfake技術,將總統蔡英文、藝人鄭家純、立委高嘉瑜等人的頭像移花接木成色情影片牟利,嚴重貶損當事人形象,震驚社會。Deepfake究竟是什麼?使用上有哪些別具爭議的灰色地帶?目前又有哪些防範措施呢?

Deepfake是深度學習(Deep Learning)與偽造(Fake)混合而成的單字,專指源自人工智慧(AI)的「生成對抗網路」(Generative Adversarial Network,GAN)偽造技術。(圖片來源:Getty Image)
Deepfake是深度學習(Deep Learning)與偽造(Fake)混合而成的單字,專指源自人工智慧(AI)的「生成對抗網路」(Generative Adversarial Network,GAN)偽造技術。(圖片來源:Getty Image)

Deepfake深偽是什麼?

深偽(Deepfake)一詞於2017年問世,是深度學習(Deep Learning)與偽造(Fake)混合而成的單字,專指源自人工智慧(AI)的「生成對抗網路」(Generative Adversarial Network,GAN)偽造技術。深偽可應用於仿冒影像及聲音,只需特定對象大量的影音素材,即可從現有數據產生更多新數據,製造出逼真的假影片。若將此技術用於影像合成領域,可使電影或遊戲製作更為省時;但在現實中,若與假訊息結合,可能讓不實內容影像製作變得氾濫。

Deepfake深偽技術正面用法

深偽技術有其正面價值,例如迪士尼曾利用該技術輔助,創造出擬真的電影合成畫面;也有新創團隊藉此讓愛因斯坦原音重現。知名族譜公司MyHeritage,更是推出一款名為「Deep Nostalgia」的線上工具,只要點擊數次手機頁面,就能讓古人的照片栩栩如生,甚至可讓逝去親人的照片「動起來」,不僅能轉頭、能眨眼,還能微笑。

但比起正面價值,Deepfake的負面爭議不斷。

Deepfake深偽爭議一:色情片移花接木 貶損人格聲譽

2017年美國社群網站Reddit上,一名帳號為deepfake的用戶張貼了一系列色情影片,他透過AI技術將色情影片中的人臉更換為名人,包含女星蓋兒加朵(Gal Gadot Varsano)、史嘉蕾喬韓森(Scarlett Johansson)與艾瑪華森(Emma Watson)都是受害者。

日前台灣YouTuber小玉等人,也利用深偽技術將知名網紅、明星與名人的臉「移植」到色情片上,並透過Telegram開設群組、招收會員販售牟利,嚴重貶損當事人形象與聲譽,全案依涉嫌散播猥褻物與妨害名譽等罪解送偵辦。這是台灣治安史上,首例使用AI演算深偽技術,衍生的新型犯罪。

除了明星可能受害,情侶分手以「報復性色情影片」威脅的事件屢見不鮮,當深偽技術門檻降低,可預見一般民眾未來也可能深陷「換臉」危機。

Deepfake深偽爭議二:變造言論或形象 恐致政界大動盪

色情片的應用之外,深偽技術也充斥於政治場域。2018年4月,外媒Buzzfeed以AI技術改變美國前總統歐巴馬(Barack Obama)的演說內容,使其說出:「川普(Donald Trump)總統完全就是個笨蛋」。2019年5月,社群媒體瘋傳聯邦眾議院議長裴洛西(Nancy Pelosi)演說時,結巴、咬字含糊的變造影片,看起來就像喝醉酒。

(請注意,以下為DeepFake變造影片)

2020年8月,時任美國民主黨總統參選人拜登(Joe Biden),在家中接受記者電視訪問時打瞌睡,26秒的變造影片極為真實。9月時,時任美國總統川普則與國務卿蓬佩奧(Michael Pompeo)在抖音(TikTok)中高唱「我愛你中國」,影片十分擬真。

假冒政治人物使其說出沒說過的話,或做出沒做過的事,成了有心人士在網路資訊戰上操弄政治風向的關鍵武器。不只對當事人形象有所影響,也可能導致政治、社會、經濟與外交層面大動盪。

Deepfake深偽爭議三:假造企業主發言 訛騙頻傳或干擾營運

2019年9月,有歹徒利用深偽技術的語音合成方式,模仿英國能源公司德國母公司的執行長聲音,與該公司出納人員通話,順利騙匯22萬歐元(約新台幣716萬)至跨國帳戶。2020年也有人在視訊會議軟體中,「偽裝」特斯拉執行長馬斯克(Elon Musk)發言。這一類假造企業高層發言的行徑,若遭惡意發布成企業利多或利空的消息,很可能干擾企業營運,甚至可能造成股民血本無歸。

Deepfake深偽爭議四:網路銀行應用 影響恐延伸至個人

隨著深偽技術日新月異,涉及的犯罪領域也不斷擴大。以查破社群平台假帳號起家的以色列新創Cyabra公司全球業務副總裁阿賽夫丹比(Assaf Danby)直言,「越來越多用戶透過視訊電話開戶,由於深偽影片能偽造某人身分,在視訊電話中,能順利通過銀行的人臉辨識系統審查」,因此他認為,下一波深偽攻擊,可能將鎖定網路銀行的用戶,民眾不得不當心。

延伸閱讀》Deepfake恐危國安 FBI警告是新興威脅

以AI還治其人之身 科技社群龍頭開發防偽技術

深偽技術的普及,對政治、國安、經濟、輿論各方面都影響甚鉅,包含歐美執法機關及科技巨擘均積極開發防偽技術,偵測並阻絕可疑影片。例如,微軟(Microsoft)與紐約州立大學水牛城分校(UB)等單位,研發利用眼角膜上的光線反射圖像,來辨識影像的真實性,有效率達94%。而臉書(Facebook)與密西根州立大學(MSU)則透過對假照片及生成照片的模型,進行逆向工程,以發現可用來偵測假照的特徵。

此外,臉書也開發「換臉影音辨識審核機制」,防堵換臉假影片流傳;推特(Twitter)亦跟進,明確標示換臉影音為假訊息。YouTube則在其現行社群準則內的垃圾郵件、欺詐行為與詐騙政策裡,就有禁止變造媒體資訊的規定。

「換臉」色情片無法可管 法務部已提修正草案

YouTuber小玉等人以換臉色情片牟利,可謂新形態的數位性暴力犯罪;然而,我國目前對此並無任何規範與罰則。法務部已於去(2021)年11月提出刑法修正草案,增訂「散布性私密影音罪」、「製作或散布他人不實性影音罪」等,最重可處七年徒刑,不過仍待立法院三讀通過。

看到來路不明影片?唐鳳呼籲:先查證、不轉傳

民眾也許認為辨識Deepfake影片並不難,但身邊的親朋好友不一定有看出影片蹊蹺的能力;甚至當影片偽造的是不熟的人,辨別度很可能大幅降低。由於影片的影像及聲音可以輕易被竄改,行政院政委唐鳳提醒民眾,看到來路不明的影片時,應提高警覺,並做到「先查證、不轉傳」,只要養成主動查證的習慣,提升自身媒體素養,就能避免自己與周遭親友受到假訊息的危害。

實習記者:陳昭容

核稿編輯:沈孟燕