連Google都警告員工:別向AI聊天機器人洩密!甚至Bard也要防,為什麼?

科技巨頭Google加入了AI產品戰局,正在開發以及向全球推廣自己的聊天機器人Bard,不過根據公司內部人士提供的資訊,Google母公司Alphabet已建議員工不要在任何AI機器人中輸入任何機敏資料,甚至自家的Bard也不例外。

近來快速發展的AI生成技術確實成為人們日常中的得力助手,舉凡擬定電子郵件、文件甚至是軟體程式碼的草稿等大小事,這些AI生成模型都能完成,大大加速工作執行速度。但是這些內容除了可能包含錯誤訊息外,還有可能使用任何人們輸入的資料,包含受版權保護的小說段落,甚至可能出現牽涉到隱私或機密的敏感資料。

小心!工作使用AI機器人恐洩漏機敏資訊

根據《路透社》的報導,有四位公司內部人士援引長期保護資訊政策證實,Google母公司警告員工不要使用任何AI聊天機器人,特別是不要輸入機密資訊。ChatGPT、Bard或其他AI聊天機器人的用戶可能沒有意識到他們和AI夥伴的對話不只停留於聊天中,還提供AI服務的公司能夠儲存這些聊天內容,而公司員工甚至可以訪問和查看用戶和聊天機器人之間所發送的訊息。

除此之外,研究人員還發現AI語言模型經常根據使用者所提交的資料進行數據訓練,雖然這麼做的目的是讓AI聊天機器人學習如何提供更好的服務,但這可能也導致聊天機器人在與其他用戶對話時共享他人所提供的資訊。這並非憑空猜測,因為ChatGPT的開發商OpenAI就在網站上載明,這項工具可能會使用用戶所提供的數據來改善AI模型。

Google的擔憂主要集中於公司的機密安全性,如果員工將機密資訊輸入聊天機器人,這些訊息都有可能向公眾公開,對於可能危及其產品安全性的程式碼也是如此,形成資安漏洞。因此,Alphabet也提醒工程師避免直接使用聊天機器人所生成的程式碼。

43%工作者會在老闆不知情的狀況,使用AI工具

而根據這個問題,Google回應《路透社》,儘管Bard生成的程式碼可能不是工程師所希望的建議,但它仍然是一個有用工具。Google表示,他們的目標是透明化呈現技術原有的侷限性,希望避免像ChatGPT一樣有對商業造成損害的風險。Google對此議題的謹慎也反映了,目前許多企業已經將避免使用公開的聊天機器人列入安全標準中。

事實上,也有越來越多的企業已經在AI聊天機器人中設置了防護欄,包含三星、亞馬遜和德意志銀行等。但是根據網站Fishbowl對美國頂尖公司在內約12,000名的受訪者進行調查,截至1月份,將近43%的專業人士會使用ChatGPT或其他AI工具,而且通常沒有告訴他們的老闆。

Google和微軟都有另外向商業客戶提供價格更高的對話工具,並保證不會將數據納入公共AI模型中。微軟消費者行銷長裕蘇夫‧梅赫迪(Yusuf Mehdi)對此表示,公司採取了適當的保守立場,不希望員工將公共聊天機器人用於工作是有道理的。不過微軟拒絕評論是否全面禁止員工將機密資訊輸入公共AI程式中,包含其自己公司的程式,但另一位高層告訴《路透社》他個人不會使用。

參考資料:ReutersMashableNew York PostAndroid Authority

延伸閱讀:AI副作用浮出,蘋果、三星全禁用ChatGPT!什麼比提升效率更重要?哪些企業也跟進?

責任編輯:錢玉紘

更多報導
和ChatGPT之父唱反調,他對人工智慧超樂觀:AI不會毀滅人類,反而能拯救世界!
AI副作用浮出,蘋果、三星全禁用ChatGPT!什麼比提升效率更重要?哪些企業也跟進?