ChatGPT-4進步太快引爭議!AI教父吳恩達、楊立昆現身:反對暫停開發的3大理由

馬斯克和生命未來研究所成員日前公開發表暫停開發人工智慧系統6個月的公開信,持續引發正反雙方激辯。其中Meta副總暨首席AI科學家楊立昆(Yann LeCun)和DeepLearning.AI創辦人吳恩達(Andrew Ng)於美國時間4月7日在YouTube展開對談,分別從研發角度、商業角度、人類公共利益角度等面向,說明他們為何反對這起連署的想法。

過去幾個月以來,人工智慧發展席捲全球,當人類在睡覺的時候,它依然快速成長的特性,引來各種正反兩面的言論。繼馬斯克與比爾蓋茲之後,吳恩達與楊立昆也展開對談。

從商業角度出發,吳恩達認為全球各國產業處於高度競爭之際,停止開發AI非但不實際,也會是一種扼殺創新的行為。人工智慧現在的確有風險,包含偏見、公平性、權力集中,這些都是真實的問題,但是,這些技術也帶來許多好處,包含教育、醫療保健等領域,因此,不該停止AI研發的進展。

吳恩達認為,與其禁絕技術發展,不如投入更多資金、促進AI安全性的研究,例如打造更沒有偏見的模型,這樣會更有建設性。

楊立昆和吳恩達在YouTube對話,解釋反對停止開發AI的理由。截自兩人在YouTube上的對話
楊立昆和吳恩達在YouTube對話,解釋反對停止開發AI的理由。截自兩人在YouTube上的對話


可以管制產品但不該限制研究

楊立昆的論點層層遞進,他先批判停止開發將是蒙昧主義的再現(obscurantism),並以新版的文藝復興、啟蒙運動再臨比喻AI帶來的變革,「你為什麼會想要停止這些(進步)呢?」事實上,他在推特上就曾經以伽利略和古騰堡為例,點出進步觀念往往無法見容於守舊的社會中。

接著,楊立昆強調應該釐清研發(research & development)和產品開發(product development)的差異。以OpenAI為例,「它已經從研究實驗室轉為(pivot)微軟的簽約研發實驗室。」

當一個應用進入產品開發階段,的確需要有監管單位做出適切的規範(proper regulation),進而避免可能會對公眾帶來的危害,但楊立昆認為,這些限制不應介入研發端。

吳恩達與楊立昆都認為應該正視人工智慧帶來的好處。以偵測仇恨言論為例,過往礙於技術無法良好分辨,但大語言模型的出現則良好地解決問題。「AI不是問題,」楊立昆如此強調,「AI是解方。」

最後,楊立昆針對生命未來研究所的論點反擊。生命未來研究所的一個重要訴求是開發出「和人類價值相符(human value alignment)的人工智慧」,楊立昆質疑,「我們會聰明到可以開發出超級聰明的系統,但又不夠聰明,以至於無法替系統制定目標(如危害人類)?」

通用型人工智慧AGI的隱憂

至於避免通用型人工智慧(AGI)到來的擔憂,楊立昆不否認技術終將進步到AGI的到來,但前提是,研發人員的心中要先有到達AGI的藍圖(blueprint),思考出可能路徑後才有辦法投入研發。現在這個階段,藍圖還未出現,相關談論為時尚早。「還沒發明飛機的時候,你要如何設計安全的飛機引擎呢?」

楊立昆用飛機比喻AI開發,認為至少要先發明AI才能談管制,馬斯克在推特上回應:還沒管制前,飛機常常墜毀!

圖靈獎得主班吉歐怎麼看

另外,值得一題的是,2018年和楊立昆一起獲頒圖靈獎的班吉歐(Yoshua Bengio),這次卻站在這位老友的對立面。

班吉歐在部落格發表一篇以「減緩通過圖靈測試AI系統的發展速度」為題的文章中,解釋了簽署這封公開信的想法。「 一年前我可能不會簽署這樣的信件,」但因為意想不到的進步,讓班吉歐改變主意。正因為ChatGPT的出現,使得機器的能力,得以通過和人類對話、甚至假扮人類的「關鍵門檻」。

班吉歐擔憂的面向包括短期的歧視與偏見、中期的權力集中、長期的AGI風險。此外,班吉歐也提及生命未來研究所長久以來的擔憂:人工智慧用於軍事用途將對人類造成巨大危害。

雖然班吉歐的立場,不是針對整體AI的進程,而是專注治理規模大於GPT-4的大型AI系統(governance for the huge AI systems larger than GPT-4),因為這樣的系統可能會對社會帶來傷害,更有濫用風險。

班吉歐呼籲應該將公共資金挹注於對社會有益的AI系統中,例如對抗氣候變遷、醫療研發等,上述都是容易被私部門忽視的領域。

對於這位結交於80年代的老朋友,楊立昆表示,他和班吉歐的政治理念不同,「他(班吉歐)認為由利益驅動的企業掌控這些技術,本質上就是不好的,我不認同這個觀點。」

吳恩達也補充,以大語言模型來說,開發端已經是百家爭鳴,規模各異的組織都在開發,可說是高度競爭,並不會由少數幾間企業掌握。楊立昆也補充,雖然如GPT-4的模型需要仰賴大量算力,但已經出現差異化的產品,有些模型的能力比不上OpenAI的產品,但可以在個人電腦甚至行動端應用。

其實,對連署信持正反立場者,共享許多價值,他們都同意AI確實有風險,同樣提倡投入AI安全性研究,一樣希望可以加強監管力道。

雙方的根本差異有二,一是對於「技術是否中立」的觀點分歧,二是對科技企業自我規範的信任程度不一。這兩個交織的因素,讓他們無法達到共識,也讓這場是否應該限制AI開發的烈火,燒得更加熾烈。

兩人對話完整重播請見:

手刀報名👉 5/9 最強線上課程:「從ChatGPT到Midjourney: 打造AI腦,高效致勝工作法」

更多精采報導,歡迎加入《遠見》 Line官方帳號

更多精采報導,歡迎加入《遠見》 Line官方帳號!

看更多遠見雜誌文章:
馬斯克籲暫停AI開發原因》他憂未來將上演「魔鬼終結者」
生成式AI革命/AI能聊天創作,離全面反叛已不遠?
AI哲學辯證/總怕AI取代人類?請先面對自我的存在焦慮