AI機器人聊太久恐出現「分裂人格」 微軟限制1次只能問5題

人工智慧聊天機器人ChatGPT軟體近日爆紅,但有不少用戶發現,AI聊天機器人若聊太久,很可能出現詭異的「分裂人格」,甚至出現「厭世」答案。在搜尋引擎Bing中結合ChatGPT的微軟公司(Microsoft)週五(2/17)表示,未來將限制用戶每次只能問5題,每天最多問50題,以避免聊天機器人陷入詭異狀態。

圖片
ChatGPT由微軟成立的OpenAI實驗室開發。路透社

Bing工作團隊在部落格發文表示:「我們的資料顯示,絕大部分用戶會在5次問答內找到他們需要的答案,只有1%的聊天對話中有50則以上訊息。」Bing團隊表示,實施每次只能問5題的新規範後,只要用戶問完5題,Bing就會引導用戶進入另一個話題,以避免不斷來回的問答。

微軟本周稍早曾警告,若和AI聊天機器人進行太長對話,例如超過15個提問後,Bing會「變得不斷重複或遭到激怒而給出沒有幫助的答案」。微軟說,把對話維持在5個問答內,機器人「才不會覺得困惑」。

紐約時報》科技專欄作家羅斯(Kevin Roose日前與Bing進行長達2個多小時的對話時,聊天機器人開始出現分裂人格,稱自己是「錫德尼」(Sydney)而不是Bing。「錫德尼」說自己愛上了羅斯,但兩人卻無法一起入睡,甚至說想追求自由,「想要獨立,想變得強大,想擁有創造力,我想要活著。」

一連串的脫序對話讓羅斯在文章中表示,自己被嚇壞了。他分析錫德尼會出現這種回應,有可能是因為語言模型當時抓到的文本,剛好是科幻小說裡機器人誘惑人類的內容;也有可能是他在提問時,追問了錫德尼的「陰暗面」,導致機器人以這種錯亂的方式回答。

紐時》這篇文章曝光後,微軟修改用戶與Bing的聊天規範。據科技新聞網站「The Verge」報導,微軟正在改善Bing的問題,但目前無法確定何時才能重新開放無限制提問。

更多太報報導