用AI生成新聞圖片可以嗎?

政大助理教授李怡志以生成式AI協助《上下游》〈中國牡蠣如何變成馬祖生蠔?還原走私牡蠣產業鏈〉一文生成圖片。(圖片:政大新聞系助理教授李怡志授權提供使用)
政大助理教授李怡志以生成式AI協助《上下游》〈中國牡蠣如何變成馬祖生蠔?還原走私牡蠣產業鏈〉一文生成圖片。(圖片:政大新聞系助理教授李怡志授權提供使用)

政大助理教授李怡志以生成式AI協助《上下游》〈中國牡蠣如何變成馬祖生蠔?還原走私牡蠣產業鏈〉一文生成圖片。 究竟使用AI生成新聞圖片或示意圖可以嗎? 如果可以,有那些眉角需要注意,值得討論。

今年6月24日上午,國內首先將生成式AI(特別式AI生成式圖像)引進校園和部分媒體(實驗性質)的先驅之一,目前執教於政大新聞系的李怡志,在他的個人臉書發表了一篇文章,表示:他以生成式AI的技術,協助《上下游》的〈中國牡蠣如何變成馬祖生蠔?還原走私牡蠣產業鏈〉[1]專題報導產生示意圖,該報導「雖然有現場採訪,也有目擊者,但受限於各種條件限制,很多場景並無法拍攝、沒有照片,所以希望我能協助他們產生示意圖。由於新聞系的老師很少有機會參與實驗性的新聞產製流程,所以我抱持實驗的態度,同意在課餘時間,無償協助此計畫,並將素材用於我日後的研究。」

換言之,這則《上下游》作品中的圖片,是使用生成式AI製作完成的。個人好奇的是,不知道各大新聞獎的評審們在審查這類作品的過程中,除了討論文字內容外,對於報導的圖片是使用生成式AI產製一事,會有甚麼樣的討論?

次日(6月25日),其所領導團隊的作品〈房間:流亡港人的台北記憶〉[2]在今年SOPA奪得「卓越新聞報導創新獎」的簡信昌,則在其個人臉書發表了一篇評論文。簡單的講,他的結論是:「…如果以技術的角度,在可以協助報導、讀者的前提下,我認為有足夠人工核實以及充分的揭露下,我個人還是支持新聞編輯室引入各種 AI 做為輔助工具。」

有關這個現象,「真實照片」對應於「AI生成式照片,在六月初有一則有趣的報導[3],是亞歷克斯‧格林伯格(ALEX GREENBERGER)撰寫的〈攝影師用真實照片贏得人工智慧影像大賽,然後被取消資格〉,報導指出,攝影師阿斯特雷(Miles Astray)以一張真實照片參加生成式AI生成圖片的比賽,並贏得首獎。 事後,因為評審委員們得知攝影師並未使用AI生成式技術製作這幅作品,他因此被取消獲獎資格。

阿斯特雷獲獎的照片是一張火鶴(Flamingo)將頭部彎曲到身體裡的照片,不過,攝影師事後表示,他是為了捍衛「人類」攝影師的權益,而故意去挑戰這個比賽的。這個行動本身就充滿了挑釁、抗議,與反諷。

其實,不管是攝影師使用各種攝影工具拍攝的照片,或創作者使用生成式AI軟體產生的圖片或示意圖,都是「再現」(representation)的一種形式而已,是再現真實的不同「類型」,其間並無何者比何者「更真實」,或品質「更優異」的問題。

那麼,使用AI生成新聞圖片可以嗎?

美聯社對於AI生成圖片的規範[4]是:

★我們將避免傳輸任何被懷疑或被證明是對現實的虛假描述的人工智慧產生的圖像。然而,如果人工智慧生成的插圖或藝術作品是新聞報導的主題,只要在標題中明確標記,就可以使用它。

至於英國的《衛報》則在2023年的1月份,就由凱瑟琳.維納和安

娜.貝特森(Katharine Viner and Anna Bateson)兩人合寫了一篇〈衛報如何因應生成式AI〉(The Guardian’s approach to generative AI),介紹《衛報》對於生成式AI的規範原則[5]。文中提到共有三大原則:

1. 為了讀者利益:

「我們將尋求僅在有助於原創新聞創作和傳播的情況下在編輯中使用生成式AI工具。我們將防範生成工具及其底層訓練集中嵌入的偏見危險。如果我們希望在作品中包含人工智慧生成的重要元素,只有在有明確證據表明特定益處、人工監督以及高級編輯的明確許可的情況下,我們才會這樣做。當我們這樣做時,我們將向讀者揭露。」

2. 為了我們的使命、我們的員工和更廣泛的組織的利益: 「當我們使用生成式AI時,我們將重點關注它可以提高我們工作品質的情況,例如幫助記者查詢大型資料集、透過糾正或建議協助同事、為行銷活動創造想法或減少時間的官僚作風。消耗業務流程。這些工具的任何使用都將集中在《衛報》有價值和值得保護的內容:『嚴肅的報導需要時間和精力,仔細揭露事實,追究權力的責任,並質疑想法和論點』。

3. 尊重那些創造和擁有內容的人。

「許多生成式AI模型都是不透明的系統,其訓練材料是在其創建者不知情或未同意的情況下收集的。當我們授權這些資料在世界各地重複使用時,我們對新聞業的投資就會產生收入。因此,我們考慮使用的AI工具和模型的原則是:它們考慮許可、透明度和公平獎勵等關鍵問題的程度。我們對生成式AI工具的任何使用並不意味著放棄我們對基礎內容的任何權利。

李怡志在前引臉書文中,詳細描寫他協助《上下游》的〈中國牡蠣如何變成馬祖生蠔?還原走私牡蠣產業鏈〉生成式意圖的過程:「記者給我大量的現場資料與參考照片,以及文字描述。消化完每一個場景後,我先重新描述一次示意圖情景,再利用Midjourney等工具,生成示意圖片。全部圖像生成後,交付給記者,之後《上下游》的編輯、記者內部先開會討論,然後針對圖片與現場的差異,以書面、會議、補充資料等方式,再跟我溝通,重新生成圖片,希望盡可能重現記者或目擊者的印象。所以每一張完成的圖片,都來自於現場資料與記者修正。」「我也協助《上下游》撰寫了生成式人工智慧的使用指引,希望在充分揭露的情況下,讓讀者知道這些示意圖是人工智慧協助生成,也無意混淆閱聽人。

我們在這裡可以看到幾個重點:

1、 資料的生成必須建立在媒體自己產製的現場資料與參考照片;

2、 生成圖片或示意圖的人,必須與熟知新聞現場狀況的人深入溝通討論,確認圖片或示意圖可以充分表現記者想要傳達的意思;

3、 新聞報導中必須充分揭露示意圖是人工智慧協助生成,無意混淆閱聽人。

這或許可以成為未來媒體使用生成式AI產製圖片或示意圖的使用指引。

[1] https://www.newsmarket.com.tw/mazu-oyster

[2] https://www.readr.tw/post/2934

https://www.readr.tw/post/2935

https://www.readr.tw/post/2936

[3] https://www.artnews.com/art-news/news/photographer-wins-ai-image-contest-real-picture-gets-disqualified1234709692/?fbclid=IwZXh0bgNhZW0CMTEAAR2CHP_0FJytBy8p8uuKk5AFoxoCtP8jlbdPwjQAqZEXINgTzeQkvKtubyw_aem_73ngKIO5IQIripdaCJFidw

[4]翁秀琪(2023)。〈新聞室裡的AI倫理問題〉。《鏡電視公評人報告》11月號,頁128-130。https://statics.mnews.tw/assets/documents/clpkzzy1s00vz10oq37a40fjc.pdf

[5] 同註4。