AI搜尋引擎的信任危機

近年來,隨著生成式AI的迅速崛起,AI搜尋工具逐漸取代傳統搜尋引擎,成為民眾獲取資訊的新途徑。但一份由哥倫比亞大學新聞學院發表的最新研究卻揭露出目前主流的AI搜尋工具在資訊引用上錯誤率竟高達6成之多,這一結果對整個AI產業與資訊傳播環境無疑是當頭棒喝。

這份引發科技界關注的研究,以8個主流AI搜尋工具進行測試,包括OpenAI旗下的ChatGPT Search、Google的Gemini、Perplexity、微軟的Copilot以及xAI公司推出的Grok系列等。結果這些被寄予厚望的AI搜尋引擎卻頻頻出錯,錯誤率最高的Grok-3 Search竟達94%,微軟的Copilot則有約7成的錯誤率,即使如同市場明星一般的ChatGPT Search,也達到近6成的錯誤引用。

更令人擔憂的是,AI搜尋工具在面對缺乏確切資訊的情況下,不僅沒有拒絕回答,反而自信滿滿地「杜撰」資訊。這種被稱為「幻覺」的現象,普遍存在於現有的AI搜尋引擎之中。

這些AI工具還牽涉到道德及法律層面的爭議。研究指出,部分AI搜尋工具無視網站設定的機器人排除協議,擅自索取那些被明確禁止存取的內容。這種行為不僅侵犯出版商權益,更進一步損害使用者對AI科技的信任。

面對如此高的錯誤引用率與道德爭議,AI產業與科技巨頭們似乎仍未提出具體的解決方案。以Google為例,這家坐擁逾18萬名員工的科技大廠,曾經自稱為「AI-first」,但旗下的Gemini有超過半數的引用是錯誤或虛假的連結。

當大眾越來越依賴這些AI工具進行知識獲取與判斷時,高錯誤率將帶來嚴重的資訊汙染,造成用戶的誤解甚至誤判。尤其年輕一代使用者,倘若持續將AI視為唯一且便利的資訊來源,可能導致他們缺乏基本的資訊辨識與批判性思考能力。

對於出版業與內容產業而言,這種侵權行為不僅造成流量與收入的流失,更破壞了版權內容產業原本的商業模式與經濟循環,從長遠來看將進一步削減專業新聞媒體的生存空間。

綜觀上述現象,AI搜尋工具的問題已不再只是技術缺陷,更是牽涉到倫理道德、商業生態與使用者教育的全面問題。當這些AI工具已然進入大眾生活並改變了資訊的傳播方式,相關企業必須立即承擔起社會責任,加強資訊引用的準確性與透明度,同時嚴格遵守內容授權協議。

我們也必須重新思考AI的定位與功能,AI科技的初衷是輔助與擴展人類能力,而非取代人類的思考與判斷。面對科技的快速演進,培養公民批判性的資訊素養,提倡多元資訊來源,才是防範AI錯誤資訊泛濫的最佳解方。(作者為台北商業大學前校長)