科學家讓機器學習道德特徵,結果發現 AI 比人更懂得合作妥協

(首圖來源:shutterstock)
(首圖來源:shutterstock)

去年中國烏鎮 AlphoGo 與柯潔的圍棋世紀大戰中,我們都見識到人工智慧(AI)這些年來的快速進步,如今幾乎可以確定的說,在大多數零和遊戲(Zero-Sum Game)中,機器會擊敗人類。但如果其他情況下呢?

不論西洋棋、圍棋或撲克牌,過程經常由兩個或以上的玩家互相衝突競爭,並由一方擊敗對手獲勝,對 AI 發展來說,這樣的遊戲結果能提供明確的里程碑來衡量發展過程。但 AI 最終要應用的現實世界畢竟不是這麼簡單,機器必須學會與人、機器之間更複雜的長期合作關係。

New Atlas 報導指出,為了解 AI 面對人及其他機器「社交」時的情況,美國楊百翰大學(BYU)電腦科學教授 Jacob Crandall、Michael Goodrich 和麻省理工及其他單位同事合作創造了一種 S# 演算法,試圖教導機器學習合作及妥協,並在實際遊戲中測試性能。

與過往圍棋、西洋棋等單人零和遊戲不同,研究人員選擇玩家需要不同程度合作及妥協的數款遊戲,包含囚徒困境(Prisoner’s Dilemma)與牽涉到夏普利值(Shapley value)等內容,接著團隊便在機器、人類與人機等不同合作方式情況下進行測試。

(Source:shutterstock)
(Source:shutterstock)

結果顯示,至少以 S# 編程機器的情況來說,在大多數情況下,機器確實比人類更懂得如何合作與妥協。

Crandall 表示,在這些遊戲中,如果參與的兩個人都相互誠實、忠誠,那就能完成得像兩台機器一樣好,但實際的多數情況並非如此,Crandall 將這種情況稱為「人為疏失」(human failings)。

「我們實驗中的人類參與者有種不忠誠的傾向,他們會在合作關係中叛逃(defect)且不誠實,約有近半參賽者互動時會某種程度不遵照建議進行。」

從另一方面來看,研究人員編程為「重視誠實」的機器,就確實是誠實的。Crandall 認為,這種演算法正在體會道德特徵是件好事,它被編程為不說謊,並在需要的時候保持合作。

未來像自駕車等多種 AI 應用,機器都必須學會與人類和其他機器分享資訊、合作或妥協,研究人員認為,這些發現將能為未來應用 AI 技術的設備奠定基礎。

這項研究已刊登在《自然─通訊》(Nature Communications)期刊。

AI Is Better at Compromise Than Humans, Finds New Study
Morality algorithm lets machines cooperate and compromise better than humans