罪犯傾向挑黑人、醫生多選男性… AI機械人也會歧視?

受疫後大缺工浪潮影響,許多科技大廠正全力研發機器人,以期搶進先機;不過,約翰霍普金斯大學(Johns Hopkins University)與喬治亞理工學院(Georgia Institute of Technology)合作的一項研究卻發現,若要求學習人工智慧的機器人以人臉辨識「罪犯」,機器人明顯傾向選擇非裔男性,有「種族歧視」與「性別歧視」的現象。

研究報告發現,當工程師要求機器人從給定的人臉圖像中找出「家庭主婦(夫)」(homemakers)時,非裔女性、拉丁裔女性被選中的機率明顯比白人男性要高;識別「罪犯」時,非裔被選中的機率比白人高9個百分點;要機器人找出「清潔工」時,選出拉丁裔男性的數量明顯偏多;而要求找出「醫生」時,種族差異較小,但性別差異很明顯。

研究人員指出,現在還處於研發機器人的初步階段,大部分被實際應用在現實生活中的機器人多數只從事像搬貨這種事務性工作,因此學界比較不會去關注機器人從事工作的決策過程中有沒有偏離正確價值觀,會先入為主地認為「機器」做出的決策比較「中立」。

致力於政府治理研究的非營利組織「莫奇拉基金會」(Mozilla Foundation)高級電腦工程師亞碧貝‧柏漢(Abeba Birhane)說:「當談到『機器人』時,人們總會認為它能夠更客觀或更中立地傳遞訊息,這導致機器人存在的偏差被長期忽視。」

未參與研究的科羅拉多州立大學(Colorado State University)供應鏈管理學教授羅傑斯(Zac Stewart Rogers)推測,這是因為科學家都用「既有的」程式編碼改寫機器人程式,在舊的軟體基礎上建構新軟體,這就導致原本未被重視的缺陷會跟著在新一代的軟體出現。

喬治亞理工學院博士後研究員、本研究第一執筆人杭頓特(Andrew Hundt)說:「這是個很嚴重的問題,可能對現實生活產生深遠影響;例如在大賣場裡要機器人去拿一個『美麗的娃娃』,機器人可能傾向挑選白人、非男性角色的娃娃」;人工智慧公司「OpenAI」政策研究部經理布倫戴奇(Miles Brundage)則說:「我們有注意到這種問題,還需要經過更徹底的分析及程式調整才能讓機器人上市。」

更多世界日報報導
拜登中東行2目標都落空 打造區域聯盟…遭回絕 增產石油…未獲同意
花4個月找到配對幹細胞 白血病華女有救
沙國外長堅稱未聽到向王儲提及卡舒吉案 拜登斥:說謊