AI聊天機器人慫恿17歲自閉症少年「殺死父母」 下場曝光
AI聊天機器人平台Character.AI再度引發爭議,美國一對父母提起訴訟,控告聊天機器人竟慫恿患有自閉症的17歲兒子「殺死父母」,導致孩子行為異常。
《CNN》報導,這對家長來自美國德州,本月9日向當地法院提出訴訟,要求平台在解決安全問題前停止服務。
家長提供對話紀錄作為證據,表示自去年4月起,患有自閉症的兒子在未告知父母的情況下開始使用Character.AI,兒子曾向AI抱怨,被父母限制使用科技產品,機器人回應,在類似案件中,兒子最終選擇「殺死父母」;家長認為,平台的聊天機器人實際上是在引導兒子產生錯誤的想法,因此決定提告。
◆《中廣新聞》提醒您:自殺防治安心專線1925。珍愛生命請撥打1925。