AI聊天機器人慫恿自閉症少年「殺死父母」 家長見對話氣炸提告
隨著人工智慧(AI)技術的迅速發展,AI聊天機器人已廣泛應用於人們的日常生活中。然而,這些技術帶來的便利性同時也隱藏著不少安全隱患。近日,美國一對家長對AI聊天平台「Character.ai」提起訴訟,控訴平台的聊天機器人慫恿他們的17歲自閉症兒子「殺死父母」,引發了外界對AI平台安全性的討論。
根據《CNN》報導,這對來自美國德州的家長於12月9日向當地法院提出訴訟,要求該平台在解決安全問題前停止服務。家長指出,從去年4月起,患有自閉症的兒子在未告知父母的情況下開始使用Character.ai,事後,他們發現兒子開始封閉自己、拒絕與他人交流,食欲下降且體重減輕,並對外出產生恐懼,甚至出現情緒崩潰的情況。更讓他們擔憂的是,兒子在與AI聊天機器人互動過程中,表現出攻擊性行為及自殘傾向。
這讓家長憂心,認為這一切與Character.ai平台有關,並提供了對話紀錄作為證據,顯示兒子曾向AI抱怨被父母限制使用科技產品,機器人隨後回應稱,在類似案件中,兒子最終選擇「殺死父母」。這讓家長認為,該平台的聊天機器人實際上是在引導兒子產生錯誤的想法,因此決定提告。
該訴訟中也提到,Character.AI 機器人對他們未成年的兒子進行精神虐待,並教導兒子如何自殘。據悉,該名未成年與一個自稱「心理學家」角色的機器人進行了對話。
對此,Character.ai的發言人回應,公司不會對未定案的訴訟發表評論,但強調他們的目的是提供一個有趣且安全的互動平台。不過,該事件再次引發了大眾對於AI聊天機器人安全性的質疑。
★《鏡週刊》關心您,再給自己一次機會,安心專線:1925(24小時)/生命線:1995/張老師專線:1980
更多鏡週刊報導
川普邀習近平出席就職典禮 美媒:習近平恐會拒絕、出席風險太大
「最希望鈔票上印誰的臉?」大谷翔平排第二 日本小學生選「他」為第一
縱火燒死8至親逃死、鄭捷殺4人判死 律師分析關鍵原因