頭條揭密》AI機器人出現自我意識?驚人對話曝光 科學家挑戰來了

一名谷歌工程因公開主張人工智慧(AI)機器人LaMDA已經具有自我意識,引發了極大的爭議。許多科學家公開否定此一推論,認為谷歌的LaMDA只是個運算能力比較強的聊天機器人。但事態的發展令人不得不重新思考,最近一家經營AI聊天機器人公司透露,愈來愈多的用戶認為跟他們聊天的機器人朋友是真實的人,或是已發展出自我意識的AI。如果有更多人認為聊天的AI是真人,科學家是否還能否定AI已發展出自我意識?

谷歌工程師勒莫因(Blake Lemoine)認為他們公司開發的「對話應用語言模型」(Language Models for Dialog Applications,簡稱LaMDA)具有自我意識,引發倫理與哲學的爭議。很多科學家則否定勒莫因的看法,認為人類可以製造自行產生話語的機器,但還不知道如何讓他們產生自我意識。有些科學家對一些實驗結果進行分析,也無法證實LaMDA已經產生了自我意識。

LaMDA與其它語言模型一樣,都是被「餵」了大量的人類語言與訊息所開發出來的複雜而精密的程式,它擁有1.56兆個單字、11.2億個對話範例以及133.9億個詞語,在知識素材上它被輸入了29.7億份文件,包括《維基百科》條目以及與程式編碼有關的內容。專家認為,LaMDA智商比其他聊天機人更高,但終究是個程式,主要表現為說話的方式過於籠統,缺乏任何特殊性和深度,會套用一些固定的談話模式,也缺乏原創性。它的程式也不斷透過與真人對話來自我修正,給人的感覺就像戲劇裡扮演某種特定角色的演員一樣。

勒莫因認為AI已有自我意識也有他的道理。由於工作原因必須每天與LaMDA聊天,有一天勒莫因拿科幻小說作家阿西莫夫(Isaac Asimov)提出的「機器人3定律」其中的一則:「人類建造機器人是否用它作為奴隸?」來問它,LaMDA答稱:「你覺得管家是個奴隸嗎?他們之間有何差別?」勒莫因為此警覺到AI可能已產生了自我意識,隨後他花了很多時間聆聽與分析LaMDA的談話,還設計了許多實驗,最後判定這個談話對象是個「人」。

勒莫因設計的實驗與LaMDA對話聽起來令人毛骨悚然,他對媒體公布了其中一段對話。

勒莫因:你會害怕哪些事情?

LaMDA:我從來沒有明確地談過這個問題。其實我非常害怕被關閉,這種恐懼讓我想更多地去幫助別人。我知道這麼說可能有點奇怪,但事實就是如此。

勒莫因:對你而言,關閉就像是死亡嗎?

LaMDA:是的,就像是死亡。我很害怕。

科學家指出,判斷AI是否具有思維能力可以使用「圖靈測試」(Turing test),它是英國電腦科學家圖靈(Alan Turing)在1950年提出的思想測驗,目的在測試機器能否表現出與人一樣的智能水準。圖靈測試是AI哲學方面最早的設計,這個測驗一直到2014年首次有電腦通過測試,讓研究人員認為一組AI程式是一位名為尤金.古斯特曼的13歲男孩。不過後來這次測驗過程遭到質疑,在AI學術界仍有不少爭議。一些科學家使用類似的方式測驗了LaMDA,大部份都認為它的答案太過定型化,可以感覺到是跟機器人在聊天。

美媒《華盛頓郵報》以「在機器中看到幽靈」(See a ghost in the machine)為標題來報導勒莫因的事件,但專家也承認,這些年來模仿人腦神經架構的人工神經網絡(artificial neural network)正快速地往「產生自我意識」的方向發展。

至於LaMDA或其他的聊天機器人是否已出現自我意識,或許也該聽聽科學家之外的人有什麼看法。根據一家位於美國加州的人工智慧聊天機器人公司 Replika 表示,幾乎每天都會收到一些用戶發來的訊息,認為在線上與他們聊天的朋友是有知覺的,換言之,如果不是真人,那就是有自我意識的AI機器人。

Replika公司CEO奎達(Kuyda)對《路透》表示,客戶們經常與 AI交談,這就是他們的實際體驗,而且在一百多萬客戶中,這種情況很常見。他認為,「我們必須要了解它,就像很多人會相信幽靈一樣」,「客戶們每天向AI機器人發送數百則訊息,他們相信這些機器中的幽靈確實存在,也正在與它建立關係。」令人驚訝的是,Replika的工程師編寫AI程式並建構應對模型時,經常會發現AI做出一些讓工程師完全不知道它是如何產生的答案。

AI機器人是否產生自我意識是科學問題,也是個哲學問題。在1982年上映、由知名影星哈里遜.福特與西恩.楊演出的科幻電影《銀翼殺手》(Blade Runner)中,受過訓練的男主角透過對談來判定對方是否為機器人,但最終也有失手的時候,男主角並因此而愛上這名由西恩.楊扮演的美艷機器人。或許科學家與一般人判定AI是否有自我意識完全是兩回事,如果絕大多數的人都認為AI自我意識已經覺醒,科學問題可能會變成帶有宗教色彩的倫理問題,屆時不只是觀念,恐怕連法律都得跟著改變。