AI法官能否勝任 技術可行人情難判

(中研院提供、李侑珊整理)
·2 分鐘 (閱讀時間)

隨著AI人工智慧科技飛速發展,相關應用已出現在人類世界的各個角落,例如美國法院廣泛運用「COMPAS」系統來幫助法官評估被告再犯風險,作為量刑依據,2019年愛沙尼亞甚至還提出了「AI法官」的構想。

AI能不能代替人類處理複雜的法律問題,坐上審判席呢?中央研究院法律學研究所特聘研究員李建良認為,這可以從兩個層次來討論,一是AI技術的可能性,二是倫理、規範上是否可行。

要討論AI技術能力,就要先定義何謂「好的判決」?李建良分析,社會對判決的評斷標準分為檢視「判決結果」及「判決理由」。若重視結果,AI法官其實是有能力透過大量數據歸納、分析而做出判決。

李建良認為,但若重視判決的過程,以目前的AI技術還給不出合理的解釋,也無法因個案背後不同的風俗民情做出多重考量的判斷。此外,AI可能在資料學習的過程中,複製並強化人類社會性別、種族等議題的偏見與不平等。不過,理性、客觀的確是AI的優點,且AI技術未來仍有很大突破空間,李建良認為AI在法律上對人類的幫助很值得期待。

制度上是否可開放,李建良認為,必須從更重要的規範及倫理角度來討論。2013年,美國威斯康辛州法院參酌COMPAS風險指標,判處被告Eric Loomis 6年刑期,Loomis上訴最高法院,要求說明COMPAS演算過程。這個案子不但突顯AI法官可能帶來的價值問題-演算法黑箱,讓人難以檢視判決過程;同時可能造成「因襲性」問題,意即AI法官從相似案件資料中推斷被告可能犯案,但忽略個別主體差異。如此一來,是否會弱化法律判決過程中,翻轉與改變社會價值的責任與意義?

目前的AI技術,尚無法高度涉入複雜的法律系統,但是當有一天,AI技術更加成熟,我們會不會為了科技提供的「客觀公正」而放棄或犧牲人類社會的基本價值?李建良認為這是「AI法官是否可行?」最核心、也最困難的問題。