【向子期專欄】人工智慧有了意識我們該怎麼辦?
人工智慧整合機器人可以進行對話,並檢測與之互動的人臉上的情緒。一些研究人員擔心,如果人工智慧系統變得有意識,而人們忽視或虐待它們,它們可能會遭受痛苦。瑪麗安娜·倫哈羅 Mariana Lenharo發表在最新一期權威期刊《自然》(Nature)的<如果人工智慧有了意識我們該怎麼辦?這些科學家說是時候制定計劃了>( What should we do if AI becomes conscious? These scientists say it’s time for a plan)指出,研究人員呼籲科技公司測試其意識系統並制定人工智慧福利政策。(Researchers call on technology companies to test their systems for consciousness and create AI welfare policies.)
制定政策如果這些場景成為現實,則對系統進行處理
人工智慧 (AI) 的快速發展使曾經僅限於科幻小說領域的倫理問題凸顯出來:例如,如果人工智慧系統有一天能夠像人類一樣“思考”,那麼它們是否也能夠擁有主觀意識?經歷?他們會經歷痛苦嗎?
一群哲學家和電腦科學家認為,人工智慧的福利應該被認真對待。在上個月發佈在預印本伺服器 arXiv 1上的一份報告中,在同行評審之前,他們呼籲人工智慧公司不僅要評估其系統的意識證據和自主決策的能力,還要制定政策如果這些場景成為現實,則對系統進行處理。
如果人工智慧變得有意識:研究人員將透過以下方式知道
他們指出,如果不認識到人工智慧系統已經變得有意識,可能會導致人們忽視它、傷害它或使其遭受痛苦。
有些人認為,現階段需要人工智慧福利的想法是可笑的。其他人則持懷疑態度,但表示開始計劃並沒有什麼壞處。其中包括英國布萊頓蘇塞克斯大學的意識研究員阿尼爾·賽斯(Anil Seth)。 「這些場景可能看起來很奇怪,但事實上,有意識的人工智慧可能離我們很遙遠,甚至可能是不可能的。但它的出現所帶來的影響是巨大的,我們不能忽視這種可能性,」他去年在科學雜誌《鸚鵡螺》中寫道。 “問題不在於弗蘭肯斯坦的生物復活了;而是在於。”它是有意識的並且可以感覺的。
人工智慧系統未適當的意識測試,人們也可能會受到傷害
英國牛津數學家喬納森·梅森(Jonathan Mason)並未參與該報告的製作,他表示,隨著我們越來越依賴這些技術,風險也越來越大。梅森認為,開發評估人工智慧系統意識的方法應該是當務之急。他說:“讓社會在某些事物上投入如此多的資金,並變得如此依賴我們知之甚少的事物,以至於我們甚至沒有意識到它具有感知能力,這是不明智的。”
紐約大學哲學家、報告的合著者傑夫‧塞博表示,如果人工智慧系統沒有經過適當的意識測試,人們也可能會受到傷害。他說,如果我們錯誤地假設一個系統是有意識的,那麼福利資金可能會被集中到它的護理上,從而從需要它的人或動物身上被拿走,或者「它可能會導致你限制讓人工智能安全或對人類有益的努力」 」。