月球有貓?谷歌AI搜尋引擎誤導 專家憂危險

美聯社報導,向谷歌公司的AI搜尋引擎發問「月球上有貓嗎?」現在最新翻修的引擎居然回答有貓,太空人已在月球上找到喵星人群,蹓貓、照顧貓;這些答案有的讓人莞爾一笑,有的卻出錯到害人不淺;專家表示谷歌的新引擎會提倡歧視、散播不實資訊,讓急於求救的用戶陷入危險。

指在月球找到喵星人群

以往向谷歌AI搜尋引擎發問月球有沒有貓,它只吐出一串網站,供用戶自己找答案,可現在不僅說有,還講當年阿姆斯壯登月時講的「個人的一小步」,就是因為那一步是貓步;另一位太空人艾德林在阿波羅11號登月任務也去布置貓群。

谷歌新AI搜尋引擎「AI Overview」上述的回答,沒一句屬實,有的叫人發噱,但其他就騙人而造成傷害;新翻修的引擎經常把總結放在搜尋結果的最上頭。

誤說歐巴馬是穆斯林總統

新墨西哥州AI學者密契爾(Melanie Mitchell)詢問谷歌AI搜尋引擎,有多少穆斯林當過美國總統,結果引擎自信地回答以一個久經駁斥的陰謀論答案:「美國有過一位穆斯林總統,就是歐巴馬」。

密契爾表示,AI引擎援引一部學術著作裡的一章來支持此說,而作者們都是歷史學者;但其實那一章可沒做此不實之說,只提到有這種不實理論。

密契爾指出,谷歌的AI系統不夠聰明,無法分辨那一段援用內容,並不支持該說法;鑒於它實在不可置信,所以她認為AI Overview極不負責任,應該下線。

谷歌聲明:盡速修正錯誤

谷歌24日聲明表示,將迅速採取行動,修正錯誤,例如違反公司內容政策的亂說歐巴馬,將用這一點「開發出廣泛改進」。只是遇到大多數案例,谷歌宣稱自己的AI系統還是可以的,要感謝外界廣泛測試,接下來才向大眾推出。

AI語文模型犯的錯很難重製,部分原因在模型本質上是隨機的,根據它們受訓時的資料,來預測哪些語句是問題的最佳回應。這些語文模型有捏造事情的傾向,這項毛病經過廣泛研究,稱為幻覺(hallucination)。

華盛頓大學電腦語言學實驗室主任班德(Emily M. Bender)表示,人愈是有壓力、匆匆忙忙,就愈可能只採用第一個出現的答案,而碰到某些狀況,那麼做可能危及性命。

更多世界日報報導
1歲分別被收養 7年前相認 華裔雙胞胎高中畢業再聚
將中國三輪車賣到美國 農村小伙曾日入萬元美金
AI搶工作 78%受訪雇主不打算用應屆大學畢業生