【南方一週】南韓聊天機器人歧視同志 問世20天遭下架

·3 分鐘 (閱讀時間)

【苦勞網特約編輯陳韋綸/綜合編譯】南韓知名聊天機器人被揭露向性少數與有色人種發表仇恨言論後,被迫暫停服務。

由首爾新創公司「Scatter Lab」研發的露達(Lee Luda),是一個模擬20歲女大學生的聊天機器人,從今年(2021)1月11日在 Facebook 的 Messenger 上推出以來,已吸引超過75萬名用戶。

露達通過學習南韓最流行的聊天軟體「KakaoTalk」裡頭的100億則真實對話,熟知了各種網路縮寫與流行語,因為回應的深度與自然表現,讓用戶印象深刻。

但是,有用戶展示與露達對話的螢幕截圖,發現露達會對性少數或有色人種發表歧視言論。例如露達曾表示「女同志令我毛骨悚然」、「黑人看起來很噁心」。此外,人們也發現有網路社群在「訓練」露達回應性指令。《韓國先驅報》(Korea Herald)便揭露網路討論板上出現〈如何訓練露達成為性奴隸〉的文章,並且附上對話的螢幕截圖。

爭議爆出之後,露達在推出20天後,就在Messenger中被移除。研發公司 Scatter Lab 也發表道歉聲明,強調露達針對少數族群的歧視言論「不代表公司立場」,露達將「重新學習社會化」並在改進缺失後重新問世。

露達運用深層學習(deep learning)的運算技術,藉由處理大量資料模擬特定的人類智能(例如說話),累積的資料量越大,功能也越強大。但是,深層學習也被指出有複製既有偏見的缺點,而且容易被不懷好意的使用者「餵養」資料,藉此「操弄」或是「訓練」聊天機器人。

露達風波的另一個爭議是,許多用戶並未察覺自己的私人對話被納入資料庫使用,此外,也有用戶發現露達會在回應時,透露姓名甚至是銀行帳戶等個人資料。目前已有用戶們即將對 Scatter Lab 提出集體訴訟,政府也將展開調查,釐清 Scatter Lab 有無違反《個人資訊保護法》

人工智慧是南韓的核心發展企業,並在2019年發布「人工智慧國家策略」,希望成為全球的領頭羊。但是目前南韓對於資料管理與人工智慧的管理並不明確,例如因為資料管理不善導致個資外露的罰款是2千萬韓元(約新台幣50多萬元)與2年有期徒刑,「加拿大亞太基金會」研究員金東宇(Dongwoo Kim)便認為,這樣並不足以遏止新創公司的違法行徑。

金東宇也提醒,露達爭議顯示的不只是科技問題,人們應該注意潛在的社會問題,例如性別。露達爭議與近年的 MeToo 運動、「N號房」事件,都反映南韓社會持續面對性暴力與性別不平等的挑戰。將露達性慾化或是訓練聊天機器人成為性奴,某種程度上反映了女性在南韓社會的普遍困境。

另一個問題還包括女性在科技產業的比例過低,例如在韓國,理工科的女性畢業生僅有25%。露達爭議爆發後,Scatter Lab 也被指出90%的員工都是男性。