美、英在內18個國家與多數業者共同制訂首個針對全球人工智慧制定安全標準

美、英在內18個國家與多數業者共同制訂首個針對全球人工智慧制定安全標準

美國網路安全暨基礎架構安全管理署 (CISA)與英國國家網路安全中心 (NCSC)共同釋出首個針對全球人工智慧制定安全標準《安全AI系統開發指引》 (Guidelines for Secure AI System Development),標榜從設計階段提高系統安全,藉此避免可能的資安風險發生。

《安全AI系統開發指引》由美國、英國、法國、德國、日本、韓國、新加坡在內18個國家,以及微軟、Google、OpenAI、Anthropic、Scale AI等業者參與制訂,強調提供人工智慧技術開發時的建議,並且推動人工智慧系統應遵循安全原則。

此安全標準將安全性、透明度與使用權責列為優先考量項目,同時也說明建立安全設計規範的組織架構重要性。

除了對應所有類型的人工智慧系統,此安全標準也涵蓋透過外部託管模型或API資源串接打造的人工智慧,並且針對設計、開發、佈署,以及維護運作過程提出可能的安全風險,藉此協助研究人員、開發者或管理人員進行決策,進而降低整體安全風險。

而美國政府先前也已經在今年7月取得多數推動人工智慧技術發展的業者承諾,並且在10月簽署首份人工智慧行政命令,由美國國土安全部制訂人工智慧安全標準,藉此避免人工智慧造成更大風險影響。

更多Mashdigi.com報導:

內部資料顯示「X」在今年底以前的廣告收入損失高達7500萬美元

AWS透過背後基礎模型強化各類人工運算服務

Reddit傳將再次掛牌上市,最快明年第一季提出申請