機密外洩、散佈錯誤資訊,企業導入 AI 有哪些風險?如何避免?
隨著生成式人工智慧的快速發展,許多企業開始在業務中廣泛應用這項技術。根據 Coleman Parkes Research 的研究,91% 的公司決策者擔憂,若他們的競爭對手在人工智慧方面取得領先,會讓公司居於弱勢。因此,AI 作為一項新興技術,在企業內的採用率史無前例地高,有近四分之一(24%)的組織已經將 AI 整合進工作流程中。
「面對 AI 技術的應用,FOMO(Fear of missing out)是存在的,尤其是當每個組織都『感覺』有人工智慧應用策略時。」Forrester Research 分析師瓦洛提(Alla Valente)說。然而,與其帶來的便利和效率提升相伴而生的,還有潛在的風險。
根據《CIO》報導,企業過於急躁地導入生成式 AI,可能帶來不必要的風險。生成式 AI 雖然能夠處理大量數據並生成精確的結果,但若缺乏適當的監控和校驗,也可能會生成不準確甚至有害的訊息。例如,AI 可能生成虛假的折扣資訊,2022 年加拿大航空公司的 AI 聊天機器人就向一名旅客提供錯誤資訊,稱他可以獲得一張免費機票,對企業聲譽和社會信任造成嚴重影響。
為了避免這些風險,企業可以採取以下幾種做法:
1. 選擇自行開發並監控
使用外部 AI 服務,存在著將公司內部機密資訊或者用戶資料外洩的風險,不容忽視。Google 就曾提醒內部員工在使用聊天機器人時,要保持警惕;蘋果(Apple)、摩根大通(JPMorgan Chase)、Verizon 也因為擔心內部機密走漏,直接禁止員工使用 ChatGPT。
因此,許多企業為使 AI 可以賦能自家員工又避免機密外洩,選擇親力親為,自行打造生成式 AI 供內部員工使用。
以零售巨頭沃爾瑪(Walmart)為例,該公司去年在公司內部推出「My Assistant」,如今已在 11 個不同國家為員工所用。
沃爾瑪業務服務資深副總裁格力克(David Glick)指出,在打造內部 AI 工具時,尤其重視員工的需求,像是總結大量資訊、自動化某些工作流程,快速索引資訊等,是員工日常工作中常見的需求和痛點,藉此打造出最適合員工們的 AI 工具,此外,由於是內部開發,所以企業可以更好的控制 AI 的行為和輸出,並能夠在出現問題時迅速調整和修正。
2. 設立嚴格的審核機制,持續監測和迭代
如果企業想要將生成式 AI 應用在客戶服務、聊天機器人等,在上線之前,應該設立多層次的審核機制,不僅包括技術層面的測試,還應包含法律和道德層面的審查,確保 AI 的輸出符合企業價值觀和社會責任。
Omdia 首席分析師貝庫(Mark Beccue)就指出,生成式 AI 很有可能會加劇社會上的偏見和歧視。因為作為大多數生成式 AI 輸出來源的大型語言模型(LLM),是根據公共資料所訓練,這些資料可能包括有害語言或種族、性別、性取向、能力、語言、文化等方面的偏見內容,導致輸出結果也跟著包含偏見或不當內容。
在上線之後,企業也應該持續監測 AI 的輸出,收集回饋並不斷迭代改進,透過定期檢查和更新,確保 AI 系統沒有偏離預期的運作軌道。
3. 透明度與問責機制
在使用生成式 AI 的過程中,保持透明度是與外界建立信任的關鍵。企業應該公開 AI 的應用範圍和效果,並設立明確的問責機制,讓外界了解企業如何管理和控制 AI 風險。
除此之外,員工的培訓也至關重要。企業應該確保相關員工了解生成式 AI 的運作原理和潛在風險,並能夠在遇到異常情況時及時應對。
生成式 AI 的應用為企業帶來了巨大潛力,這點是無庸置疑的,但也伴隨著不可忽視的風險。企業唯有在謹慎規劃、嚴格監控和持續改進的基礎上,才能充分發揮 AI 的優勢,避免因技術問題而帶來的負面影響。
更多報導
MarTech 工具大爆發!RMN、CRM、CDP...台灣零售業「數位行銷軍火庫」一次盤點
2 招把 Google、Bing 搜尋引擎換成 ChatGPT Search!步驟教學一次看
RAG:讓 AI 更聰明的秘密武器,揭開生成式 AI 的新篇章