生成式AI革命/AI能聊天創作,離全面反叛已不遠?

3月底,馬斯克與生命未來研究所的科學家們簽署公開信,呼籲停止開發先進的AI系統。馬斯克長期警告人們應謹慎地面對人工智慧,和他併肩的還有物理巨擘霍金。霍金在2014年便預言:「人工智能可能終結人類。」隨著大型語言模型應用落地,讓人不由得擔心,類似《黑鏡》的科幻故事,僅是創作者的杞人憂天,還是噩夢終將成真?

人工智慧領域著名的莫拉維克悖論(Moravec's paradox),指的是AI能夠在人類不擅長的領域交出漂亮成績,例如十位數的數學運算,但無法做到人類能輕鬆辦到的事,如上街買菜、整理房間。

近年來,專注解決單一任務的「弱AI」(weak AI)已小有所成,包含下棋、掌握知識、鑑別病況;今年生成式AI大爆發,雖然還未達到通才的「強AI」(strong AI,或稱通用人工智慧,artificial general intelligence,AGI),但已讓人振奮不已。不過,距離機器人成為人類最佳伙伴的那一天,還有哪些技術門檻等待跨越?

人們對於機器人的想像,有些浪漫無比,有些則是恐懼。曾子軒利用Midjourney產生
人們對於機器人的想像,有些浪漫無比,有些則是恐懼。曾子軒利用Midjourney產生

通用型人工智慧的願景及距離

研究專長涵蓋神經網絡的政治大學應用數學系副教授蔡炎龍表示,至今為止,電腦還無法擁有人類具有的常識,且無法解決不同任務。舉例來說,想讓模型「認識」五色鳥,至少要提供上千張照片,但人類只要看過幾次就能辨別,「(機器)這點太不像人類了。」

即便學會辨認五色鳥,若改派發學中文的功課模型,它得從零開始訓練。可是即使稚嫩如幼童,也能處理類型相異的任務,「我們還沒有找到人類到底是如何運作。」

蔡炎龍除了擔任政大應數系副教授並兼任學務長,也在台灣人工智慧學校擔任講師。曾子軒攝
蔡炎龍除了擔任政大應數系副教授並兼任學務長,也在台灣人工智慧學校擔任講師。曾子軒攝

已經有學者利用增強學習(reinforcement learning),將機器丟在陌生環境,讓它自己累積經驗,例如學習玩電玩、下棋,表現甚至能夠打敗人類。不過,蔡炎龍認為,無法兼顧不同性質工作的問題,讓AI進展到跟人類一樣能夠「通才」的AGI,還很遙遠。

人們可能認為ChatGPT已經很厲害,能夠吟詩作賦、分析數據,但它沒辦法辨識圖型、聽懂聲音。蔡炎龍提醒,ChatGPT背後的原理是讓模型學習字詞之間的關係,進而預測詞彙排列的機率,人們使用時很容易誤以為它很聰明,但這些話語僅是計算而來,「它其實不知道自己在講什麼。」

現職為工程師,同時為台大哲學系博士生的洪偉強調,大語言模型創造出的只是「隨機性幻象」,它將資料壓縮與重組,因為產出時的偶然特性,讓人誤解它具有心智,其實不然。

洪偉關心哲學普及,曾在媒體上發表多篇哲普相關著作。陳之俊攝
洪偉關心哲學普及,曾在媒體上發表多篇哲普相關著作。陳之俊攝

當AI擁有自主意識,也需要擔負道德與法律責任?

靠著機率推算出語句,並不真正能夠理解人類的話語,哲學家稱之為「哲學殭屍」。但如果殭屍能夠通過圖靈測試,人類無法分辨虛實,那什麼時候才能真正斷言,機器已經具備意識?

對此,清華大學人社AI應用與發展研究中心博士後研究學者甘偵蓉表示,學界當前的共識是以「客觀的量測」(取用意識,access consciousness)與當事者的「主觀經驗報導」(現象意識,phenomenal consciousness)兩個面向確認「意識」的有無。

人們談論AI有無意識時,主要是針對後者,但這會遇到哲學上的「他心問題」(other mind problem,又稱為哲學殭屍論證):我們其實永遠無法確認,他人是否與自己一樣,擁有類似的心靈與意識,至多透過客觀觀察或他人報導來類比推論。

甘偵蓉進一步以2012年集結認知科學與神經學等領域專家發表的「劍橋意識宣言」為例,該宣言沒有定義何謂意識,但科學家們主張,即使動物和人類的大腦結構不同,從構成意識的生物結構與物質來看,再加上動物能夠做出表達意圖的行為。因此,包含哺乳類、鳥類在內的動物具有意識。

甘偵蓉說,由此可見,意識或許不是有與沒有,而是程度差別。不過,在檢視人機之分時,人們不只關心機器是否具有意識,也關心機器是否應該負起決策後果的責任,也可說是關於機器的倫理。對此,甘偵蓉曾在論文中,以「分散式行為主體性」描述機器出錯時,責任應該由誰承擔的問題。

她表示,以現有技術來說,自駕車肇事時AI無法負責;但AI未來若進化到如同人類具有學習與反思批判能力時,就應該可以承擔道德責任,我們也能向其課責。這時的AI也有被賦予人格的空間。

「現在的AI很會分析,但那不夠,還沒有道德反思能力。」甘偵蓉認為,負起道德責任的前提在於具備成熟理性,而這個層次高於意識。她以幼童和失智者為例,兩類人都有意識,但因為不具備完整的成熟理性,因此不用負起完全責任。由此類推,未來就算AI有了意識,也還無法跟人類比肩。

洪偉補充,與其嘗試找出人機之分的界限,他認為「重點不在知道,而在承認,」我們應探討承認機器地位、將其納入人類社群的時機,而門檻在於和人類的相似程度。--若機器進一步發展出同理心,不只是遵照程式規範,就會更被人類接納。*註:洪偉表示此想法受中正大學何宗興教授啟發

甘偵蓉關心人工智慧倫理,曾執行科技部研究計畫「人工智能系統內建倫理之哲學議題探究」。甘偵蓉提供
甘偵蓉關心人工智慧倫理,曾執行科技部研究計畫「人工智能系統內建倫理之哲學議題探究」。甘偵蓉提供

讓機器有情感,可能遭AI非蓄意滅絕?

現在常見的AI都是以輔助工作、執行任務為目標所設計,擬人化的陪伴型機器人,主要出現在虛構作品中,「有人希望能夠創造跟人類一樣有情感的AI,因為人類很寂寞。」針對這點,洪偉顯得悲觀,他強烈反對發展此類和人類相似的AI。

然而,他的理由並非如同科技末世論者一般,憂慮奇點出現、機械大軍全面反叛,洪偉更擔心科技公司、政府、財團等具有權力者掌控技術,進而操縱這些因為有意識情感,而被賦予人權的AI。

甘偵蓉的擔憂則關乎當下。她提醒,AI即使沒有意識,在技術持續發展之下,未來沒有意識但功能強大的AGI甚至超級AI(artificial super intelligence,ASI),都可能威脅到人類生存。這種人工智慧系統被設計成最佳化(optimize)執行目標,一旦無法確保它以人類可接受的方式完成任務,人類有可能在過程中遭AI非蓄意的滅絕。

甘偵蓉以大眾熟悉的「電車兩難」為例,當人命的選擇落地於自駕車系統開發時,人們總是會問,該轉彎撞1個人,還是依照原路直行撞5個人?「這個問題一開始就問錯了,」因為自駕車在設定行進路線時,不應以人類作為撞擊目標,而應擺在如何對齊程式設計與人類既有的倫理價值(human value alignment),這也是近年學界討論的方向。

甘偵蓉引述AI技術專家羅素(Stuart Russell)提出的例子,說明人工智慧對齊的意涵:「假設家裡父母出去,,AI被賦予照顧小孩的任務。因為沒有食物小孩大哭,正巧家裡有隻貓咪,機器人可以為了顧好小孩,把貓咪煮來吃嗎?相信多數人不會接受。」

科技進步,有些人感覺正在面臨生存威脅,其他人則期待萬分。

「我們是社群動物,都不完美、很脆弱,」針對人類相較機器的獨特性,甘偵蓉的回答很浪漫。正因如此,「人類需要相互依賴、善待彼此,這就是人存在的價值。」

更多精采報導,歡迎加入《遠見》 Line官方帳號!

更多精采報導,歡迎加入《遠見》 Line官方帳號!

看更多遠見雜誌文章:
馬斯克籲暫停AI開發原因》他憂未來將上演「魔鬼終結者」
從零搞懂AI?比爾蓋茲、馬斯克推薦五大書單
生成式AI造成「更真的假世界」,扭轉需要全社會攜手