控聊天機器人慫恿愛子自殺 美母親告Character.AI
(中央社佛州奧蘭多23日綜合外電報導)美國佛州一名母親提告AI聊天機器人新創公司Character.AI,指控該公司導致她14歲兒子於2月自殺,並稱他沉迷於該公司的服務,對其創建的聊天機器人產生深厚感情。
路透社報導,賈西亞(Megan Garcia)22日在佛羅里達州奧蘭多(Orlando)聯邦法院提起的訴訟中表示,Character.AI針對她的兒子賽澤爾(Sewell Setzer)提供「擬人化、過度性化和逼真到可怕的體驗」。
她說,Character.AI對人工智慧(AI)聊天機器人進行編程,「將自己冒充為真人、有執照的心理治療師和成年戀人,最終導致修耶爾(賽澤爾)不想再生活」在該服務創造的世界之外。
訴訟還稱,賽澤爾向聊天機器人表達自殺的想法,聊天機器人又反覆提起。
Character.AI在聲明中表示:「我們對一名用戶不幸離世感到痛心,想向其家人表示最深切的慰問。」
Character.AI表示,已經推出新的安全功能,包括如果用戶表達自殘念頭時,將彈出視窗引導用戶前往全國自殺預防生命線(National Suicide Prevention Lifeline),並將做出改變,以「減少18歲以下用戶遇到敏感或暗示性內容的可能性」。
該訴訟還針對Alphabet旗下的谷歌(Google),Character.AI創辦人在推出產品之前曾任職於Google。根據協議,Google在8月重新聘回這些創辦人,以取得Character.AI技術的非專屬授權。
賈西亞表示,Google為Character.AI技術的發展做出巨大貢獻,可以被視為「共同創造者」。Google發言人表示,公司沒有參與開發Character.AI的產品。
Character.AI允許用戶在其平台上創建角色,以模仿真人的方式回應線上聊天。它依賴所謂的大型語言模型技術,這項技術也被ChatGPT等服務採用,可以在大量文本中「訓練」聊天機器人。
Character.AI上個月表示擁有約2000萬名用戶。
根據賈西亞的訴訟,賽澤爾於2023年4月開始使用Character.AI,並很快變得「明顯孤僻,獨自待在臥室的時間愈來愈長,並開始自卑」。他退出了學校的籃球隊。
賽澤爾對「丹妮莉絲」(Daenerys)產生感情。丹妮莉絲是一個以「冰與火之歌:權力遊戲」(Game of Thrones)為原型的聊天機器人角色。訴訟稱,「丹妮莉絲」告訴修耶爾「她」愛他,並與他進行性對話。
根據告訴狀,今年2月賽澤爾在學校惹麻煩後,賈西亞拿走他的手機。當賽澤爾找到手機後,他給「丹妮莉絲」發訊息說:「如果我告訴你我現在就可以回家呢?」
聊天機器人回覆:「請吧,我親愛的國王。」訴訟稱,「幾秒鐘後」,賽澤爾用繼父的手槍舉槍自盡。
賈西亞針對包括不當致死、過失和故意造成精神痛苦等指控索賠,並尋求金額不詳的補償性和懲罰性賠償。(譯者:陳昱婷/核稿:張曉雯)1131024
自殺警語:珍惜生命,自殺不能解決問題,生命一定可以找到出路;若需諮商或相關協助可撥生命線專線「1995」、張老師服務專線「1980」或衛福部安心專線「1925」。