「人工智慧安全峰會」今在倫敦登場 《經濟學人》:這個世界想監管AI,但不清楚該怎麼做

劃時代的人工智慧安全峰會將於英國舉行,主要議題是如何確保人工智慧受到監管,不會變成法外瀆職工具,也不會危害人類。這是全球具影響力的領導者,首次認真討論一項可能改變世界的技術。
英國政府將於11月1日、2日舉辦人工智慧安全峰會(AI Safety Summit),地點選在倫敦近郊的布萊切利園(Bletchley Park),約百名來自全球的領導者和專家將與會,討論人工智慧的安全與風險。二次世界大戰期間,電腦之父艾倫・圖靈(Alan Turing)和密碼解讀團隊,就是在這座莊園分析納粹德國的加密系統。

《經濟學人》(The Economist)分析,許多國家都嘗試監管人工智慧,例如歐盟(EU)官員希望在年底以前敲定人工智慧法案,布魯塞爾的商談已於10月25日進入關鍵階段,而布萊切利園峰會前後,白宮也將頒布有關人工智慧的行政命令。除此之外,G7國家這個秋天將起草一份人工智慧公司的行為準則,中國則於10月18日提出全球人工智慧倡議。前外交官布萊克(Jonathan Black)是峰會的其中一位籌備者,他表示與氣候變遷等重大政治議題相比,人工智慧討論收穫許多善意,但是「我們仍不知道正確答案。」

推動人工智慧跨國法規的動力來自政治經濟。人工智慧是遍及全球的科技,能夠打造聊天機器人「ChatGPT」等人性化服務,而且資料傳輸方便,部分大型語言模型(large language model)還可以在筆記型電腦上頭運作。這些特質也代表,如果只有某些國家轉緊螺絲監管人工智慧的使用領域,那麼整體來說,這些規範等於毫無用處。根據皮尤研究中心(Pew Research Center)民調,逾半數美國人對於人工智慧抱持的擔憂多過興奮。

監管對象難達共識

如此一來,人工智慧該如何監管、由誰監管,就成了迫切的問題。歐盟打算藉由人工智慧法案,鞏固全球數位準則奠定者的地位,而白宮希望阻止這種「布魯塞爾效應」。不過歐盟和美國也有共同的主張,就是不想被中國超越。現階段中國已經通過幾項人工智慧法案,不過那些規定的保護對象主要是共產黨利益,而不是人類。

除了國與國之間的競爭關係,開發人工智慧的科技公司,也積極促成跨國AI法規。這件事令人非常驚訝,因為過往科技業界多半反對規範,但現在,不只Google母公司Alphabetc和微軟(Microsoft)等科技龍頭,Anthropic和OpenAI等人工智慧公司都主張制定法規。科技公司擔心,無節制的競爭會促使同行魯莽地推出新模型,而不考慮被濫用或AI開始思考等問題,從而讓所有人陷入危機。

約翰・霍普金斯大學(Johns Hopkins University)政治科學專家法雷爾(Henry Farrell)指出「關於監管的對象和如何監管,我們還沒有共識」。從監管的目標著手會很困難,因為人工智慧發展太快,幾乎每天都會有新創公司推出新產品,開發人員也無法肯定新的大型語言模型會呈現哪些功能。這使得風險評估變得至關重要,如果缺乏評估,就無法檢查、判斷一項產品是否符合規範。

科技公司可能支持監管,但希望限縮監管範圍,而且只對極端風險進行監管。在美國參議院七月舉行的一場聽證會上,Anthropic執行長阿莫德(Dario Amodei)警告,數年內,人工智慧模型將能提供製造生物武器的資訊,讓更多人有能力進行大規模生物攻擊。美國證券交易委員會(U.S. Securities and Exchange Commission)主席詹斯勒(Gary Gensler)則預測,如果相關單位不迅速介入干預,將幾乎無法避免人工智慧引發的金融危機。

<cite>2023年5月16日,OpenAI執行長阿特曼在參議院委員會就人工智慧的潛力及其風險作證。(美聯社)</cite>
2023年5月16日,OpenAI執行長阿特曼在參議院委員會就人工智慧的潛力及其風險作證。(美聯社)

不過也有人認為,這些臆測削弱了對其他威脅的重視,例如人工智慧有可能破壞民主制度。在另一場參議院聽證會上,人工智慧專家馬庫斯(Gary Marcus)的證詞開頭,是一段OpenAI「GPT-4」模型生成的新聞報導,指出國會一部份人「暗地裡受到外星實體控制」。馬庫斯對人工智慧抱持懷疑,認為人們「應該對可以虛構事實的系統抱持擔憂」。

具體監管內容難以達成共識。科技公司大多主張,對於最強大的新興AI應當縮減審查,微軟等公司則呼籲設立授權制度,要求科技公司註冊表現超越特定門檻的「前沿模型(frontier models)」。其他提議包括:管控訓練大型語言模型的晶片的販賣情況,以及當消費者訓練前沿模型時,要求雲端運算(cloud-computing)公司通報當局。

大多數公司也同意需要監管的是「模型的應用」而不是模型本身。辦公軟體:點到為止。健康保險AI:嚴格管理。公共場所的臉部辨識系統:大概不可能獲得許可。這種應用導向法規的優點是,現有的法律大概足夠用於人工智慧監管,不過人工智慧開發人員提醒,更廣泛、更具針對性的法規,會使革新速度變慢。

自願法遵轉向法規監管

直到去年為止,美國、英國和歐盟似乎都同意上述風險導向的管理方法,不過去年大型語言模型發展迅速、ChatGPT問世,讓這些國家不得不重新考慮。現在歐盟正在討論到底需不需要監督AI模型本身,歐洲議會希望開發者預先測試大型語言模型,分析模型對人類健康到人權的所有潛在影響,也堅持取得AI的訓練數據。加拿大政府向國會提交《人工智慧資料法案》(Artificial Intelligence and Data Act)便有相關強硬規定,英國可能重新審視不干涉的做法,巴西也在討論類似規範,而美國總統拜登(Joe Biden)日前簽署的行政命令,目標也是管理這項新興技術。

<cite>2023年10月30日,美國總統拜登在白宮東廳簽署人工智慧行政命令,一旁是副總統賀錦麗。 (美聯社)</cite>
2023年10月30日,美國總統拜登在白宮東廳簽署人工智慧行政命令,一旁是副總統賀錦麗。 (美聯社)

目前為止,美國政府採取自願法遵的方式,去年夏天談判之後,有15間人工智慧開發公司自願簽訂協議,同意在推出新模型以前,在公司內部及外部進行測試,並說明他們如何管控風險。這種類型的無約束力行為守則(code of conduct)仍是主流方法,各界都期望以更強硬的規範限制人工智慧的應用。

那麼,接下來的問題就是由誰監管。美國和英國認為現有的政府部門可以執行大部分工作,歐盟計畫創設新的監管機構。綜觀全球,一些科技公司主管呼籲設立類似聯合國政府間氣候變化專門委員會(IPCC)的跨政府組織,專責研究人工智慧議題並衡量影響。

考慮到這些問題規模大、牽涉範圍又廣,因此倫敦峰會可能無法完成所有協商,籌備者布萊克就認為,峰會應被視為一場對談。儘管如此,各界仍希望峰會能達成部分目標,尤其第二天會議室里只會有20位左右最重要的政界和商界高層,他們可能會認可白宮與人工智慧公司的自願協議,擁護創建AI的跨政府組織,或將英國的前沿人工智能工作組(Frontier AI Taskforce)推向全球。如果倫敦峰會取得進展,或可加速各國政府和G7設立法規監管人工智慧,促進更多討論。

更多風傳媒報導