AI預測犯罪 少數族裔不認同 民團:加劇歧視和偏差執法

早先有研發團隊開發了人工智能工具,可提前一周預測未來犯罪,準確度為90%。這對於遭受犯罪和治安問題困擾的華裔民眾來說,無疑是好消息。不過對於人工智能、犯罪預測和預測模式功能的執行偏差,華裔學者有不同看法。

芝加哥大學研發團隊早前在 「人類自然行為」刊期 (Natural Human Behavior)發表了一個人工智能犯罪預測系統。他們從公共電子數據庫裡收集芝加哥2014到2017年發生的暴力犯罪(凶殺、攻擊、毆打),和財產犯罪(入室盜竊、砸車盗竊)數據進行模型訓練,一年的樣本數據用作驗證。據稱可預測罪案發生的地點,且準確率達到90%。研發團隊還使用同樣模型用於美國其他八個城市,得到同樣準確的結果。研究還發現,貧困社區的犯罪並不一定導致更多逮捕行為,這表明「執法存在偏見」。

對此,加州州立大學富樂頓分校電子計算機科學系教授陳君儀表示,人工智能輔助犯罪預測的最大優點就是數據來源的多元性,人工智能可以處理結構性(數據文字)及非结構性(圖片影象音頻影頻)的大量數據,加上多種先進的預測軟件工具可以提供使用,所以較易達成高準確度的預測標準。

然而,人工智能的預測精準度完全取決於機器學習的大量數據,甚至必須取得某種數據規律模式(pattern)以供機器學習,才能達到預測的功能。所以要訓練模型達到預測目標,必須具備三個條件:1. 須收集大量與犯罪有關的即時數據;2. 處理和保持高質量的樣本犯罪數據;3.須在數據中找到以供機器學習的犯罪數據規律模式。

陳君儀分析指出,由於必須要有犯罪規律和模式,才能供機器學習,因此對於單一突發或稀少出現的犯案,如無前科紀錄的犯罪、家暴、入室盜竊、隨機犯罪,甚至種族歧視犯罪,由於缺少犯罪規律數據所以無法預測。他認為,該行業目前最大挑戰的可能是,需要將AI對大量結構化或標準化數據的需求,與人權隱私權相協調。AI對大數據的「渴望」與當前的隱私立法和文化直接衝突。

加州州立大學沙加緬度分校,刑事司法學系教授黃世龍則表示,近年來犯罪預測偵測科技發展迅速,比如人臉識別、無人機、AI大數據犯罪預測。這些科技提高警務效率和破案率,讓警察執法如虎添翼。同時,民間公司研發的科技是根據較客觀的數據,可降低對警方執法偏差的擔憂,警方也很樂意使用這些新科技。

但民權團體和少數族裔並不埋單,對這些技術的使用深感疑慮。他們認為,這些科技和預測只會加劇對少數族裔社區的歧視和偏差執法,有害無益。以此次芝加哥團隊的AI為例,儘管其準確率高達90%,但研究指出白人高收入社區的逮捕率高於低收入社區,顯見有警察偏差的執法。

再以人臉辨識識別為例,前幾年被警局廣泛使用。但很快發現由於人面識別軟體常出現錯誤指認,少數族裔受害最深,而遭受質疑和抗議。最近的研究指出,三大臉面部識別軟體的錯誤率接近30%,少數群體的錯誤率最高。錯誤的主要原因是學習樣本主要來自白人,AI沒有學習足夠少數族裔的面部差異。

黃世龍表示,犯罪偵防及預測的科技發展,需與少數族裔的權益取得平衡才能廣泛使用。他建議應先建立審查機制,來評估新防治犯罪科技是否影響到某些族裔群體。

更多世界日報報導
曼哈頓華人餐廳戶外用餐區 光天化日男女「尋歡」
路透專欄作家:美中關係千瘡百孔 進入瓦解的最後階段
備戰衰退…超市引進平價商品 顧客改刷信用卡