打開AI黑盒子 台大找到AI決策關鍵並公開給各界使用 (影音)

科技部長陳良基戴上假髮,驗證台灣大學AI中心的「可解釋性人工智慧」。(楊文君攝)
科技部長陳良基戴上假髮,驗證台灣大學AI中心的「可解釋性人工智慧」。(楊文君攝)


科技部今天(11日)舉辦記者會,邀請台灣大學AI中心分享「可解釋性人工智慧」,除了具備高辨識率的人臉辨識能力外,還可以有條理的解釋AI產出結果的原因,將能有效提升人類使用AI的信任度。#請聽記者鄭翔云、楊文君的採訪報導#

近年來AI人臉辨識已進步到深度學習等類神經網絡,由電腦自己訂規則,憑著數以千計的條件,產出高精準度的答案,不但可辨認出真假金正恩,還可以在低解析度或刻意喬裝的情況下辨識,甚至超越人類辨識能力。

台大資工系教授徐宏民指出,過去人們不了解AI做出決策的過程及原因,讓人駐足不前,因此,台大人工智慧技術暨全幅健康照護聯合研究中心(台大AI中心)在科技部支持下,打造出「可解釋性人工智慧」(Explainable AI,XAI),猶如打開「AI黑盒子」,確認AI決策的合理性。他說:『(原音)我們可以解釋過去跟現在小豬哪邊不一樣,像是髮型不太一樣,下巴這邊變得比較尖一點,可以解釋出這邊不太一樣,但鼻子、眼睛周遭還是非常像,所以專注在這邊,最後判斷就是小豬。』

科技部長陳良基也指出,科技部已於去年9月公布人工智慧科研發展指引,強調AI的「透明性與可追溯性」及「可解釋性」,期盼讓普世大眾對AI感到信賴與安心。他說:『(原音)這是非常重要的,就是AI不應該是個黑盒子,他必須告訴我說,他現在幫我決定能不能進這個門、能不能得到這個補助,不能說我就算完、不知道怎麼解釋,就必須解釋清楚。』

徐宏民也提到,為加速技術擴散與落地應用,此AI模組xCos可與其他人臉辨識系統作相互搭配,並已將這項技術以Open Source方式供國內外產學研單位使用,希望將其相關理念拓展至其他深度學習相關應用中,網址為:https://github.com/ntubiolin/xcos

 

原始連結