AI聊天機器人慫恿17歲自閉症少年「殺死父母」 下場曝光

美國一對父母控告AI聊天機器人,竟慫恿兒子「殺死父母」。(示意圖:Motion Elements)
美國一對父母控告AI聊天機器人,竟慫恿兒子「殺死父母」。(示意圖:Motion Elements)

AI聊天機器人平台Character.AI再度引發爭議,美國一對父母提起訴訟,控告聊天機器人竟慫恿患有自閉症的17歲兒子「殺死父母」,導致孩子行為異常。

《CNN》報導,這對家長來自美國德州,本月9日向當地法院提出訴訟,要求平台在解決安全問題前停止服務。

家長提供對話紀錄作為證據,表示自去年4月起,患有自閉症的兒子在未告知父母的情況下開始使用Character.AI,兒子曾向AI抱怨,被父母限制使用科技產品,機器人回應,在類似案件中,兒子最終選擇「殺死父母」;家長認為,平台的聊天機器人實際上是在引導兒子產生錯誤的想法,因此決定提告。

◆《中廣新聞》提醒您:自殺防治安心專線1925。珍愛生命請撥打1925。