霍金:AI風險大 須防超級智能崛起

旺報【特派員蔡浩祥╱北京報導】

全球移動互聯網大會(GMIC)27日於北京舉行,邀請全球知名物理學家史蒂芬•霍金(Stephen Hawking)發表演說,分析當前人工智慧(AI)發展。他呼籲,相較持續成長的AI,他雖持樂觀態度,但人類受到漫長的生物進化限制,終將被取代,為避免「超級智能」崛起,人類必須適當投入研究,以因應衝擊。

談及AI技術與人類的依存關係,霍金表示,強大的AI對人類而言,是最好也是最糟的事,雖然目前尚無法斷定,不過AI的發展,本身就是一種存在問題的趨勢,而這些問題必須得到解決。

霍金坦言,AI正逐漸替代人類從事的工作,並迅速消滅數以百萬計的工作崗位,為經濟帶來破壞,更讓人擔心的是,儘管人類可以長時間控制AI發展,一旦AI脫離束縛,以不斷加速的狀態持續進化,「超級智能」恐將終結人類文明。

他舉例,倘若AI發展導入武器使用,按全球9大核武國家所持有約1萬4000件核武器,隨時可將城市夷為平地,使全球糧食體系崩塌、局勢陷入動盪,進而造成大量人類死傷;有鑑於此,如何從AI獲益並規避風險,是非常重要的。

霍金認為,隨著科學技術發展,科技已融入人類生活,特別是AI,在未來幾十年內將逐漸滲透到醫療、工作、教育及科技等眾多領域。但我們必須確保是由人類來掌握AI,而不是由AI掌握人類。

★更多相關新聞

創台灣AI實驗室 杜奕瑾高薪挖角
杜奕瑾 鄉民精神上身
台灣最大BBS站——PTT鄉民傳奇
人工智慧60年 AlphaGo開啟新里程
機器人不只有三定律,人工智慧引發了九大問題