突破論壇》AI會害人?專家揭4大風險 現行3解方「可能沒什麼用」

生成式人工智慧(AIGC)近年出現突破性發展,為科技發展進程投下震撼彈,也透過各種層面的運用影響人類社會及生活模式,但在AI飛速發展並頻繁受用的同時,卻也悄無聲息的埋下不少風險。長風基金會2日下午舉辦2023突破論壇,以「全球啟動AI風險控管:台灣怎麼管?誰來管?」為題,邀請相關領域專家,探討AI發展的風險,以及如何既鼓勵創新,又能有效保護使用者。

此次論壇由人工智慧科技基金會執行長溫怡玲主持,邀請安侯建業(KPMG)顧問部數位創新服務副總經理李祖康、科技媒體INSIDE創辦人蕭上農及長風基金會執行長蔡玉玲等人,討論台灣AI管理制度。

溫怡玲指出,探討AI時千萬不要只從技術層面討論,接下來的重點是應用,如在金融、教育或在環境保護、社會責任及公司治理(ESG)上如何應用。AI構成有3大構成要素,台灣其實沒有真正的AI供應鏈,因為台灣只有算力,如輝達(NVIDIA)的重心也在算力,台灣缺乏模型、數據等要件。

<cite>人工智慧科技基金會執行長溫怡玲(左)指出,台灣其實不具備完整的AI產業鏈,只有算力,缺乏模型、數據等要件。(鍾秉哲攝)</cite>
人工智慧科技基金會執行長溫怡玲(左)指出,台灣其實不具備完整的AI產業鏈,只有算力,缺乏模型、數據等要件。(鍾秉哲攝)

溫怡玲續指,儘管我國在AI擁有要素的是算力,但台灣在算力的資源也不夠,甚至花錢也買不到,因為產能都被國外其他大國買去,如輝達算力資源出售最多的國家是沙烏地阿拉伯;而在模型的數據上,台灣更是嚴重不足,以繁體中文的數據集為例,簡體中文是繁中的2000倍,數據不夠的問題必須要解決。

分析AI發展4大風險 溫怡玲曝3解方:但可能沒什麼用

談及AI發展的風險,溫怡玲分析,數據偏差、模型不透明、自主性過高、安全和隱私,這4項就是AI發展的風險,當AI系統訓練和運作所用數據存在偏差或不足,就可能導致系統產生偏頗或不準確的結果。她舉例,在簡中與繁中相差2000倍之下,若用中文搜索「國慶日」出現的勢必是10月1日。

針對AI模型不透明造成的風險,溫怡玲解釋,這可能使得AI工具的輸出結果難以理解或解釋,進一步導致結果偏差或不可預測;而AI自主性過高,可能導致在缺乏人類的監督下,偏離原訂目標造成無法預期的影響;安全隱私部分,因AI系統可能成為駭客攻擊目標,或使大量個人數據使用的資料外洩。

溫怡玲提到,目前AI發展可能造成的負面影響與問題,包括倫理和法律問題、失業和社會不平等,以及造成數據隱私和安全性都出問題,而現在可行的改善措施,如增加開發的多樣性和包容性,以及減少偏見和歧視風險、並制定道德準則,只能引導AI發展與應用,教育與宣傳也有必要,但這些也可能沒什麼用。

引述報告指AI風險被低估 李祖康:恐難掌握「黑箱模型」問題

李祖康則以調研報告分享,在蒐集7間不同行業的公、私人企業,共140名美國高階經理人的見解後,發現在前述營收均超過10億美元的公司中,都認同生成式AI將帶來全球超高經濟潛力產值,但企業雖期待高卻仍保持觀望,有6成5認為生成式AI將在未來2到3年造成極大影響,但有6成認為距離應用首個生成式AI方案仍有1至2年。

但AI相關的風險卻被低估,雖企業高層已投入並盡可能參與AI模型分析與創建流程,但模型的實施、完善和風險審查等工作仍照給中階管理層執行,意即風險雖被體認,但尚未得到完全解決。

李祖康引述報告內容,了解AI模型應用需求與目的是管理基礎,但了解AI模型如何開發和運作也同等重要,但模型缺乏透明度這種常見且嚴重的風險,卻被嚴重低估,許多企業正使用其他公司開發、不具可見性的「黑箱模型」,企業恐無法掌握供應商的所有潛在風險。

<cite>安侯建業(KPMG)顧問部數位創新服務副總經理李祖康指出,企業嚴重低估模型不具透明度這種常見且嚴重的風險,企業恐無法完全掌握供應商的所有風險。(鍾秉哲攝)</cite>
安侯建業(KPMG)顧問部數位創新服務副總經理李祖康指出,企業嚴重低估模型不具透明度這種常見且嚴重的風險,企業恐無法完全掌握供應商的所有風險。(鍾秉哲攝)

對於如何應對並管控AI的潛在風險,李祖康引用報告結論,指出制定受信任的AI治理程序是有效方式,負責任的AI系統是以安全、值得信賴和合乎道德的方式設計,而受信任的AI系統則應包含公平、易於理解、可問責、資料完整、可靠且安全,並具有隱私安全等8項風險指導原則。

李祖康說,目前有不少企業正在熱烈探討AI如何應用、發展,卻較少有企業探討風險為何,而台灣從去年下半年到今年上半年,也有企業開始談論AI風險,但卻又少有公司去探討未控制的風險為何。他也說,現在很多企業開始回頭檢視AI發展的風險,可能讓近期發展的步調變慢,但仍建議企業在運用AI時,從設計、模型、運算、研發到策略等,每個環節都要管控風險。

更多風傳媒報導