馬斯克籲暫停AI開發原因》他憂未來將上演「魔鬼終結者」

3月29日,Tesla創辦人馬斯克(Elon Musk)又撈過界,和眾多名人一起,包含蘋果共同創辦人、圖靈獎得主、數間科技企業執行長發聯名信公開呼籲暫停大型AI試驗。這是馬斯克「見不得OpenAI好」?其實他早於六年前就說過,擔心AI將讓未來世界成電影「魔鬼終結者」。

本週,除了特斯拉新車Model S與Model X在台開賣,引起車友興奮,老闆馬斯克又不務正業。他除了用電動車取代油車、替人類完成太空旅行夢想、也更積極對於生成式AI風潮下指導棋:聯名一群科技業大咖,發公開信呼籲暫停AI開發。完整原文公開信,可見此網址

不過,對於AI的擔憂,馬斯克早就多次表露心聲。2017年時他就曾說,擔心人工智慧的進步速度過快,機器人會威脅人類的生存,到時《魔鬼終結者》就不會只是電影情節,因此他希望研發人工智慧技術者應該確保人類安全。

大眾很難理解馬斯克的警告,因為他所參與的企業,不可避免地會使用相關技術,例如特斯拉的自動駕駛系統,就是AI領域研究人員渴望攻克的聖杯;若是真的可以安心上路,恐怕會大幅影響眾多職業駕駛的工作。

自己也愛用AI,又要出面喊話,馬斯克究竟在搬演哪齣戲碼?

公開信核心訊息:開發AI沒有不對,但要考慮人類福祉

這封公開信由非營利組織生命未來研究所(Future of Life Institute)發起,組織的願景為「將具改變性的科技導引到對生命有利、避開風險的正確方向」,成員包含Skype的共同創辦人、DeepMind的科學家,外部顧問更是眾星雲集,例如馬斯克、摩根費里曼、多位常春藤名校的教授。

這封公開信主要希望各家企業與研究企業,能夠暫停開發如GPT-4一樣甚至更強大的人工智慧系統,因為現在並沒有合適的監管機制。

參與連署者認為,若是放任進行這場科技上的軍備競賽,人們可能將會失去對於文明的掌控。技術領導者並非經由民主程序產生,不用受到監督,卻會影響整個社會、甚至所有人類的未來。

信中提出許多深刻問題,除了點出現在AI產生的混亂如假新聞以外,也拋出許多大哉問:即使機器更有效率,但我們真的應該放任其取代人類的工作嗎?我們需要繼續開發可能取代人類的機器嗎?

目前,表態支持者和反對者的陣營都各有學界與產業界的重鎮,即使是人工智慧界的大佬,或者是資工系教授,意見仍舊分歧。

人工智慧發展史上的巨擘、臉書首席AI科學家楊立昆(Yann LeCun)就以催生現代科學的伽利略、掀起印刷革命的古騰堡為喻,直指先進技術往往不見容於社會,但卻是推動進步的重要力量。

楊立坤在推特上反對這封暫停開發人工智慧系統的公開信。

在Coursera上開設機器學習課程、催生谷歌大腦的吳恩達(Andrew Ng)同樣出聲反對。他認為現在已經能夠見到不同領域中GPT-4模型帶來的真實效益。雖然他認同AI帶來的威脅,但與其用不切實際的禁令限制發展,吳恩達覺得不如在AI開發時,直接投資在確保安全性上,並利用監管手段增加透明性。

統整反對者的意見,多半認為暫停開發沒有實際作用、可以砸錢加強安全性、促進更多公共討論、加強監管解決問題。

Coursera上開設機器學習課程、催生谷歌大腦的吳恩達(Andrew Ng)。取自Andrew Ng官網
Coursera上開設機器學習課程、催生谷歌大腦的吳恩達(Andrew Ng)。取自Andrew Ng官網


科技巨頭沒有動機照顧全人類

其實,雙方的論點並非沒有交集。支持公開信者的訴求除了暫停開發比GPT-4更先進的系統以外,希望可以制定供開發者遵守的安全規範,並透過外部監察的方式,避免可能造成人類威脅的技術出現。

另外,不只是消極被動地服膺準則,他們還希望開發者可以積極地「治理」新技術帶來的諸多挑戰,例如區分內容是否由AI生成、釐清AI帶來的傷害責任歸屬、規劃投資於安全性的資金、預防對政治權力的干預等。

事實上,早就有多家機構努力著手於上述事項,國際間對於開發人工智慧時的注意事項,也有相關規範,例如理工人熟悉的IEEE、聯合國教科文組織、歐盟等,都有制定AI的倫理準則,具體內容包含尊重人權、透明、促進福祉等,也有討論到當機器犯錯時,誰該負起責任的問題。然而,問題就出在開發者未必要遵守,因為他們沒有經濟的動機上這麼做,科技巨頭們都擔心會輸掉這場人工智慧的戰役,比起人類的福祉,股東權益更加重要。

公開信的末尾有些詩意。信上說,人們現在正在享受強大AI帶來的「人工智慧夏天」,而他們可望這個夏天能夠維持得更久一些,不要在沒有準備的情況下,走入逐漸寒冷的秋天。

更多精采報導,歡迎加入《遠見》 Line官方帳號!

看更多遠見雜誌文章:
代寫論文ChatGPT,背後OpenAI揭祕
ChatGPT背後OpenAI技術長:她無公開臉書超神秘
AI太危險?馬斯克:人工智慧讓我壓力大,政府應出手監管