人工智能力量的悖論

文 / 攝影  王半山
2035 年,此時,人工智能無處不在。人工智能係統管理醫院、運營航空公司,並在法庭上互相爭鬥。生產力已飆升至前所未有的水平,無數以前難以想像的企業以驚人的速度擴大規模,帶來了福祉的巨大進步。隨著科學技術的高速發展,新產品、治療方法和創新每天都會湧入市場。然而,隨著恐怖分子找到新的方式用智能的、不斷發展的網絡武器威脅社會,白領工人集體失業,世界正變得更加不可預測和脆弱。伊恩·布雷默和穆斯塔法·蘇萊曼(Ian Bremmer and Mustafa Suleyman) 發表在最新一期《外交事務》(Foreign Affairs) 的<人工智能力量悖論>(The AI Power Paradox)質疑,「各國能否在為時已晚之前學會管理人工智能?」(Can States Learn to Govern Artificial Intelligence—Before It’s Too Late?)
一場改變世界的技術革命的開始
就在一年前,這種場景還顯得純粹是虛構的;但現在看來,這種情況完全是虛構的。今天,這似乎幾乎是不可避免的。生成式人工智能系統已經可以比大多數人類更清晰、更有說服力地書寫,並且可以根據簡單的語言提示生成原始圖像、藝術甚至計算機代碼。生成式人工智能只是冰山一角。它的到來標誌著一個大爆炸時刻,一場改變世界的技術革命的開始,這場革命將重塑政治、經濟和社會。
與過去的技術浪潮一樣,人工智能將非凡的增長和機遇與巨大的破壞和風險結合在一起。但與之前的浪潮不同的是,它還將引發全球權力結構和平衡的巨大轉變,因為它威脅到民族國家作為世界主要地緣政治參與者的地位。無論他們承認與否,人工智能的創造者本身就是地緣政治參與者,他們對人工智能的主權進一步鞏固了新興的「技術極」秩序——在這種秩序中,科技公司在曾經為民族國家保留的領域中行使著權力。在過去的十年裡,大型科技公司實際上已經成為他們所創建的數字領域中獨立、主權的參與者。人工智能加速了這一趨勢,並將其延伸到數字世界之外。該技術的複雜性及其進步的速度將使政府幾乎不可能以合理的速度製定相關規則。如果政府不盡快迎頭趕上,他們可能永遠也追不上。
爭論仍然陷入了一個危險的虛假困境
值得慶幸的是,世界各地的政策制定者已經開始意識到人工智能帶來的挑戰,並努力解決如何治理人工智能的問題。2023 年 5 月,七國集團啟動了「廣島人工智能進程」,這是一個致力於協調人工智能治理的論壇。6月,歐洲議會通過了歐盟人工智能法案草案,這是歐盟圍繞人工智能產業建立保障措施的首次全面嘗試。7 月,聯合國秘書長安東尼奧·古特雷斯呼籲建立全球人工智能監管機構。與此同時,在美國,兩黨政客都呼籲採取監管行動。但許多人同意德克薩斯州共和黨參議員特德·克魯茲 (Ted Cruz) 的觀點,他在 6 月份得出的結論是,國會「根本不知道自己在做什麼」。
不幸的是,太多關於人工智能治理的爭論仍然陷入了一個危險的虛假困境:利用人工智能來擴大國家實力或扼殺牠以避免其風險。即使是那些準確診斷問題的人也在試圖通過將人工智能硬塞到現有或歷史治理框架中來解決問題。然而,人工智能不能像以前的任何技術一樣受到治理,而且它已經在改變地緣政治力量的傳統觀念。
不尋常且緊迫的挑戰需要原創的解決方案
挑戰很明顯:設計一個適合這種獨特技術的新治理框架。如果人工智能的全球治理要成為可能,國際體系必須超越傳統的主權概念,歡迎科技公司參與進來。這些參與者可能無法從社會契約、民主或公共物品的提供中獲得合法性,但如果沒有他們,有效的人工智能治理就沒有機會。這是國際社會需要重新思考地緣政治秩序基本假設的一個例子。但這並不是唯一的一個。
像人工智能這樣不尋常且緊迫的挑戰需要原創的解決方案。在政策制定者開始製定適當的監管結構之前,他們需要就如何治理人工智能的基本原則達成一致。首先,任何治理框架都需要是預防性的、敏捷的、包容性的、不可滲透的和有針對性的。在這些原則的基礎上,政策制定者應創建至少三種重疊的治理制度:一種用於查明事實並就人工智能帶來的風險向政府提供建議,一種用於防止它們之間的全面軍備競賽,另一種用於管理人工智能的破壞性力量。與世界上任何事物都不同的技術。
挑戰變得越來越困難。這就是人工智能權力悖論
不管你喜歡與否,2035 年即將到來。它是由人工智能帶來的積極進步還是由其造成的負面破壞來定義,取決於政策制定者現在的行動。
人工智能是不同的——不同於其他技術,它對權力的影響也不同。它不僅帶來了政策挑戰,而且還帶來了全面的挑戰。其超進化性質也使得解決這些挑戰變得越來越困難。這就是人工智能權力悖論。
進步的速度是驚人的。以摩爾定律為例,該定律成功預測計算能力每兩年翻一番。人工智能的新浪潮讓這種進步速度顯得有些奇怪。當 OpenAI 在 2018 年推出其第一個大型語言模型(稱為 GPT-1)時,它有 1.17 億個參數——衡量系統規模和復雜性的指標。五年後,該公司的第四代模型 GPT-4 被認為擁有超過一萬億。在過去十年中,用於訓練最強大的人工智能模型的計算量每年增加十倍。換句話說,當今最先進的人工智能模型(也稱為「前沿」模型)使用了 50 億 是十年前尖端模型的計算能力的幾倍。曾經需要數週時間的處理現在只需幾秒鐘即可完成。未來幾年將會出現能夠處理數万億個參數的模型。擁有超過 100 萬億個參數(大約相當於人腦突觸數量)的「大腦規模」模型將在五年內變得可行。
人工智能會成功創建具有自我改進能力的系統
每一個新的數量級都會出現意想不到的能力。很少有人預測到,對原始文本的訓練將使大型語言模型能夠產生連貫的、新穎的、甚至是創造性的句子。很少有人仍然期望語言模型能夠像現在的一些人那樣創作音樂或解決科學問題。很快,人工智能開發人員可能會成功創建具有自我改進能力的系統——這是這項技術發展軌蹟的關鍵時刻,每個人都應該停下來。
人工智能模型也可以用更少的資源做更多的事情。昨天的尖端功能如今正在更小、更便宜且更易於訪問的系統上運行。OpenAI 發布GPT-3 僅僅三年後,開源團隊就創建了具有相同性能水平的模型,其大小還不到其六十分之一,也就是說,在生產環境中運行的成本要低60 倍,完全免費,並且互聯網上的每個人都可以使用。未來的大型語言模型可能會遵循這種效率軌跡,在領先的人工智能實驗室花費數億美元開發它們後僅兩三年就以開源形式提供。
與任何軟件或代碼一樣,人工智能算法比物理資產更容易複製和共享(或竊取),成本也更低。擴散風險是顯而易見的。例如,Meta 強大的 Llama-1 大語言模型在 3 月份首次亮相後幾天內就洩露到了互聯網上。儘管最強大的型號仍然需要復雜的硬件才能工作,但中端版本可以在每小時幾美元租用的計算機上運行。很快,此類模型將在智能手機上運行。沒有任何一種技術能夠如此強大、如此廣泛、如此迅速地變得如此容易獲得。