德國之聲如何應對生成式人工智能?

德國之聲中文網)德國之聲今年將迎來70歲生日。從一開始,我們就肩負明確的使命——為全球各地受眾提供可信賴、高質量、獨立的新聞報道。

這幾十年來,我們不斷在發展進化。從無線電廣播到電視,再到互聯網和社交媒體,我們一直在調整獲取信息以及制作新聞的方式,以便更好地將新聞傳遞給您。

然而,我們對新聞所堅持的高標准始終如一。

如今我們都站在下一場重大變革的中心。生成式人工智能(Generative AI)如一股顛覆性的力量。許多行業正在或即將經歷這場變革,新聞業也不例外。

透明度是最重要的新聞標准之一,因此我想與您分享我們對新聞工作中生成式人工智能的看法。

仍由記者掌控局面

德國之聲堅決致力於由人類制作新聞。我們不將生成式人工智能視作可以取代記者或編輯工作的手段。這意味著,如果您正在閱讀、觀看或聽取德國之聲的新聞報道,您可以確信是德國之聲記者為此責編。

我們的新聞質量由我們的記者來保證。我們所承諾的獨立、盡責、尊重、透明度、獨立性、多元性以及多元意見無論在何種情況下都適用。

與此同時,我們也樂於探討如何利用人工智能工具來輔助我們的新聞工作。

德國之聲已經在使用基於人工智能的工具來幫助記者完成工作。例如,使用幫助分析大規模數據集的工具以及語言轉換工具以撰寫報道;使用人工智能來提高我們的報道在搜索引擎上的可見度,或者幫助編輯迅速識別社交媒體上的仇恨言論。視頻上嵌入人工智能生成的字幕使得更多人能夠觀看它們。我們將尋找在這些基礎上進一步取得進步的方法。

與此同時我們的記者將繼續對所有的應用程序進行掌控,並在發布內容前對其進行徹底檢查。我們將始終公開和透明地介紹人工智能的使用方式。

人工智能聊天機器人,如ChatGPT,不能被視為准確的信息來源。它們可以提供靈感,但不能提供可靠的信息。它們會犯錯誤,且對於獲取信息的來源並不透明化。像我們驗證來自其他來源的信息一樣,我們將同樣驗證來自聊天機器人的信息。我們不會直接使用人工智能聊天機器人作為信息來源。

我們還將擴展事實核查能力。生成式人工智能使得在世界範圍內制造和傳播虛假信息變得更加容易。作為記者,揭露這些虛假信息是我們的工作。

人工智能生成的圖像

我們也不認為發布由人工智能生成的逼真圖像有任何價值。這意味著我們不會生成此類圖像來用於我們的工作。如果需要對由他人制作的人工智能生成圖像進行報道,我們尤其會明確指出該圖像不為真實。

但,我們可能會使用生成式人工智能來創建或改進插圖以及實現數據可視化。

挑戰與機遇

我們知道生成式人工智能存在風險。人工智能很可能會幫助虛假信息以比以往更大的規模進行傳播。我們也知道人工智能所依賴的數據集是構建在反映社會偏見的數據之上。因而我們將不斷訓練記者以識別這些偏見。在使用人工智能產品和服務時,我們還將非常重視數據安全和隱私。

合理地使用人工智能也能創造一定的機會。它可以更好地輔助我們的記者完成任務,為他們騰出更多時間,離開辦公桌,探索並講述重要的故事,與人們實地交談並獲取不同的觀點。這些是我們的用戶所看重的事,而機器永遠無法提供。

德國之聲的任務仍然是:提供原創的獨家報道,關注人們所關心的問題——以及,保持過去70年一直以來的高水准。

© 2023年德國之聲版權聲明:本文所有內容受到著作權法保護,如無德國之聲特別授權,不得擅自使用。任何不當行為都將導致追償,並受到刑事追究。

作者: Manuela Kasper-Claridge