可解釋性的人臉辨識模組 提升人類對AI信任度

科技部今(11)日召開記者會,邀請臺灣大學人工智慧技術暨全幅健康照護聯合研究中心(以下簡稱臺大AI中心)轄下的徐宏民教授團隊,發表該團隊在科技部的支持下所開發出的可解釋性人工智慧(Explainable AI ,XAI)模組xCos,該模組除了具備高辨識率的人臉辨識能力外,還可有條理的解釋AI產出結果的原因。這項技術不僅可協助國內外相關業者開發AI辨識技術、明白AI決策建議背後的理由,更能提升人類對於使用AI的信任度。


科技部部長陳良基表示,科技部自2017年宣布人工智慧(AI)科研戰略,引導臺灣成為AI發展重鎮,續於2018年起補助臺灣四所頂尖大學成立AI創新研究中心,包含臺灣大學(核心技術與生技醫療)、清華大學(智慧製造)、交通大學(智慧服務)及成功大學(生技醫療)。歷經2年多的醞釀與實踐後,臺大AI中心轄下的徐宏民教授團隊打造出能嵌合在各個人臉辨識模型的「可解釋性AI模組xCos」,該研究成果在近年世界各國強調AI透明度的當下,讓系統直接告訴我們人臉判釋的相似度及背後原因,並正將XAI技術擴展到其他關鍵性的人工智慧決策,包括能源、醫學、工業製造等領域。 


世界頂尖的人臉辨識技術再精進
徐宏民教授團隊在科技部的長期支持下,自2011年便開發出第一套行動裝置上的人臉搜尋系統,之後不斷自我挑戰包括跨年紀的臉部辨識能力、偽裝人臉辨識等,前於2018年在全球三大電腦視覺頂尖會議之一的CVPR偽裝人臉辨識競賽(Disguised Faces in the Wild)中,以辨識率唯一超過9成之姿,技壓群雄奪下全球冠軍。


徐宏民教授表示,團隊過去三年透過產學合作,協助幾家軟硬體公司開發人臉辨識產品。在深度模型設計過程中會遭遇AI人臉辨識結果跟我們大腦直覺無法吻合的案例,不曉得判斷的依據為何。為解決這樣的問題,團隊花了一年多的時間開發了可解釋性人工智慧(Explainable AI ,XAI)模組xCos,可以成功解釋為何兩張人臉會辨識為同一人(或另一人)的原因,提出AI黑盒子的決策依據、協助人臉辨識產品開發,同時xCos會自動留意人臉不自然的表面而專注在真實以及具辨識能力的人臉位置,進而達到偽裝人臉辨識的效果。且經過測試,就算搭配不同的人臉辨識軟體,亦能發揮同樣的功能。


揭開AI的黑盒子,讓AI來告訴你「它」的理由
陳良基部長提到,人類總是藉由不斷的提問「為什麼」來釐清問題、尋求突破與找到答案,這也是人類科技能進步的原因。早期的AI,是基於規則系統(rule-based system)由科學家提供各種判斷依據,讓電腦依流程判斷出結論,例如決策樹等,此方法可以輕易的回頭找出電腦產出成果的原因,具有高度的可解釋性。但近年AI已進步到使用深度學習等類神經網絡,在快速且大量的消化各式資料後,由電腦自己訂規則,憑著數以千萬計的條件產出更高精準度的答案,但逐漸的,人們開始注意到AI無法詳細說明「它」做出決定的推理過程與原因,在得不到滿意的回答之前,將讓人駐足不前,不敢放心地運用AI解決問題,甚至質疑其決策行為。


根據國際知名公司資誠聯合會計師事務所(PricewaterhouseCoopers,PwC) 指出,人工智慧具有15兆美元的市值,但當前的關卡就是AI缺乏解釋性。現階段的AI只看到了輸入的資料及輸出的結果,中間的判斷依據與過程難以捉摸,就如黑盒子般,倘能理解AI如何做出判斷,確認決策的合理性,未來才能更進一步改善與強化模型可靠性,因此,可解釋性人工智慧(XAI)成了近年來各國AI研究領域的趨勢之一,包括美國國防高等研究計劃署(DARPA)於2018年宣布投入20億美金推動的AI計畫中,AI的可解釋性就是其中重要的一環。


可解釋性與高相容性,加速相關應用技術開發與產業提升
陳良基部長補充,「可解釋性的人工智慧」無疑是國際上AI發展的重要目標,科技部已於去(2019)年9月公布人工智慧科研發展指引中強調AI的「透明性與可追溯性」及「可解釋性」;另歐盟今(2020)年2月份發表的人工智慧白皮書(WHITE PAPER On Artificial Intelligence - A European approach to excellence and trust)也提及缺乏信任是阻礙AI廣泛應用的主要原因,因此未來AI發展的重點須透過理解AI決策成因,來強化運作流程的透明度,進而讓普世大眾對AI感到信賴與安心。


此外,徐宏民教授說,這套XAI模組xCos除了可供末端的使用者了解人臉辨識結果的原因外,更可協助開發人員探究及檢視系統的運作機制,該團隊為加速技術擴散與落地應用,所研發之可解釋性AI模組xCos可與其他人臉辨識系統作相互搭配,團隊亦已將這項技術以Open Source方式供國內外產學研單位使用(https://github.com/ntubiolin/xcos),希望將其相關理念拓展至其他深度學習相關應用中,同時也正將XAI技術擴展到其他領域關鍵性的人工智慧決策系統,如AI僅告知發電廠未來1小時是否要增加發電量,但XAI可以補充說明是因為預測氣候的改變或今日有特殊節慶等;AI可以說出X光片是否有肺炎徵兆,但XAI可更進一步解釋判斷的依據以及指出病徵的位置,這些XAI的應用,都可強化人民對AI的信任,更可協助系統開發人員進一步檢視AI判斷是否合理,便以改善與強化AI模型,進而促進國內外AI技術與相關產業進展。