人類易相信AI提供的錯誤資訊 專家警告應持戒心

 

越來越多人會與AI(人工智慧)聊天,或依賴他們提供的訊息,但是臺灣大學心理學系副教授黃從仁、研究生鄭羽嵐及美國藝術與科學院院士Suparna Rajaram教授,研究中發現,人類在跟會提供不實資訊的人型機器人交流後,會將約7至8成機器人所提供的不實資訊錯誤地指認為真實資訊,雖然AI在聊天前會一次甚至多次告知可能會有錯誤資訊,但是人們在與機器人交流過後的記憶測驗中,需在曾被數次特定警告的情況下,整體假記憶的比例才有些微減少;專家警告,人們應對聊天機器人的輸出內容抱持適度戒心。而聊天機器人的開發者也應儘量不要輸出錯誤的資訊。

 

此研究成果刊登在2023年11月20日出版的頂尖國際期刊《美國心理學家》American Psychologist,來對大眾與AI對話引擎的開發者提出警告。

曾鈺羢 乾稿