AI巨擘反對馬斯克暫停開發,提「飛機說」有理?

馬斯克上月底連署千人公開信呼籲暫停開發GPT-4半年,引發兩派聲浪。像是全球AI關鍵領袖的Meta副總楊立昆、以及DeepLearning.AI創辦人吳恩達都表反對,並以發明飛機的過程來比喻。此說有道理?請見完整對話解析。

上月(3)月底,馬斯克與眾多業界人士發表暫停開發人工智慧系統6個月的公開信,引發正反雙方激辯。

公開信見諸於世後,Meta的副總暨首席AI科學家楊立昆(Yann LeCun)和DeepLearning.AI創辦人吳恩達(Andrew Ng)先後在推特上反對該公開信。美國時間4/7,兩人在YouTube上展開對談,分別從區分產品與研發差異和開發AI帶來效益的不同角度,解釋他們為何反對這起連署。

楊立昆和吳恩達在YouTube對話,解釋反對停止開發AI的理由。截自兩人在YouTube上的對話
楊立昆和吳恩達在YouTube對話,解釋反對停止開發AI的理由。截自兩人在YouTube上的對話

吳恩達認提AI正面效益,楊立昆指可以管制產品,但不該限制研究

首先,吳恩達從商業角度出發,指出在各國和不同產業處於高度競爭階段的此時,停止開發AI非但不實際,也會是一種扼殺創新的行為。

他認為,人工智慧現在的確有風險,包含偏見、公平性、權力集中,但也帶來好處,包含教育、醫療保健等領域,因此不該停止AI研發。

另外,他也補充,與其禁絕技術發展,不如投入更多資金、投入促進AI安全性的研究,會更有建設性。

至於楊立昆,先批判停止開發將是蒙昧主義的再現(obscurantism),並以新版的文藝復興、啟蒙運動再臨比喻AI帶來的變革,「你為什麼會想要停止這些(進步)呢?」事實上,他在推特上就曾經以伽利略和古騰堡為例,點出進步觀念往往無法見容於守舊的社會中。

接著,他強調應該釐清研發(research & development)和產品開發(product development)的差異,以OpenAI為例,「它已經從研究實驗室轉向(pivot)為...微軟的簽約研發研發實驗室。」

楊立昆同意監管單位確實應該管制例如產品端,因為可能會對公眾帶來危害,但不應介入研發端。

他也呼應吳恩達的論點,認為應該正視人工智慧帶來的好處,他以偵測仇恨言論為例,過往技術無法良好分辨,但大語言模型的出現則良好地解決問題。「AI不是問題,」楊立昆如此強調,「AI是解方。」

最後,他針對生命未來研究所的論點反擊。生命未來研究所的一個重要訴求是開發出「和人類價值相符(human value alignment)的人工智慧」,楊立昆質疑,「我們會聰明到可以開發出超級聰明的系統,但又不夠聰明,以至於無法替系統制定目標(如危害人類)?」

至於避免通用型人工智慧(AGI)到來的擔憂,楊立昆他不否認技術終將進步到AGI的到來,但他認為研究者們的心中要先有到達AGI的藍圖(blueprint),思考出可能路徑後才有辦法投入研發,而現在連藍圖都還未出現,談論這些為時尚早。「還沒發明飛機的時候,你要如何設計安全的飛機引擎呢?」

楊立昆用飛機比喻AI開發,認為至少要先發明AI才能談管制,馬斯克在推特上回應:還沒管制前,飛機常常墜毀!

和楊立昆共同獲獎的班吉歐:AI進步太快,有必要退一步

班吉歐(Yoshua Bengio)和楊立昆在2018年共同獲得有「電腦界諾貝爾獎」之稱的圖靈獎,但他這次卻站在這位老友的對立面。

在部落格發表的一篇以「減緩通過圖靈測試的AI系統的發展速度」為題的文章中,班吉歐解釋了簽署這封公開信的想法。

「 一年前我可能不會簽署這樣的信件,」但因為意想不到的進步,讓班吉歐改變主意。正因為ChatGPT的出現,使得機器的能力通過了和人類對話、甚至假扮人類的「關鍵門檻」。

他的擔憂可以分為短期的歧視與偏見、中期的權力集中、長期的AGI風險。此外,他也提及生命未來研究所長久以來的擔憂:人工智慧用於軍事用途將對人類造成巨大危害。

如此看來,對連署信持正反立場者,其實都同意AI確實有風險,也都同意該投入AI安全性研究與加強監管。

但是,雙方的根本差異也不小,主要有兩點差異,一是對於「技術是否中立」的觀點分歧,二是對科技企業自我規範的信任程度不一。這兩個交織的因素,讓他們無法達到共識,也讓這場是否應該限制AI開發的烈火,燒得更加熾烈。

兩人對話完整重播請見:

手刀報名》5/9 最強線上課程:
「從ChatGPT到Midjourney: 打造AI腦,高效致勝工作法」

更多精采報導,歡迎加入《遠見》 Line官方帳號

更多精采報導,歡迎加入《遠見》 Line官方帳號!

看更多遠見雜誌文章:
馬斯克籲暫停AI開發原因》他憂未來將上演「魔鬼終結者」
生成式AI革命/AI能聊天創作,離全面反叛已不遠?
AI哲學辯證/總怕AI取代人類?請先面對自我的存在焦慮