美中AI領域混戰 美國技高一籌

美中在人工智慧領域的競爭日趨白熱化,台灣人工智慧實驗室創辦人杜奕瑾認為,美中人工智慧的發展方向不太相同,“美國更側重於民生專業用途的人工智能發展,而中國更側重跟國家安全相關的人工智能技術的發展。”
中國在人臉辨識、視覺化監控、個人資訊系統等領域的人工智慧應用走在世界前面。《紐約時報》在2月22日的一篇名為《中國「AI大混戰」背後:想超越美國,又離不開美國》的文章中引用杜克大學約翰·科克電氣與電腦工程傑出教授陳怡然的話說,“中國對人工智慧的投資中,有多達50%投向了監控所需的計算機視覺技術,而不是為生成式人工智慧建立基礎模型。”
在微軟、Meta、Google等美國科技巨頭紛紛推出大語言模型的同時,中國的百度、阿里、騰訊、科大訊飛等公司也相繼推出了自己的大模型。
不過,中國的人工智慧基礎模型常被指依賴美國的底層系統。例如知名創投家李開復創立的人工智慧公司「零一萬物」(01. AI)推出的大語言模型就是在Meta開源模型LLaMA的基礎上訓練出來的。
在別人的開源模型之上發展自己的模型,確實能降低訓練模型的成本,但會不會又變成一個被「卡脖子」的軟肋?
杜奕瑾在接受《縱深視角》專訪中說,很多國家已經對這個問題有所警惕。他說,「尤其是歐盟,他們說,如果這些基礎模型又一次被幾家科技巨頭壟斷的話,當大家都使用他的AI模型,那是不是到最後每個國家又像『數位殖民地』一樣。我們不斷地把資料讓他去訓練他最好的模型,但是我們對他的模型產生依賴,到最後你沒有辦法離開他。”
中國開發自己的AI大模型面臨的一大掣肘在於訓練大模型所需的資料。分析家指出,中國人上網往往使用微信、微博等App來進行交流,這樣產生資料是被一個個「圍牆」圈起來的,這讓AI模型在訓練時難以吸收這些資料。此外,由於中國政府人為設定的“防火牆”,國際海量資料無法自由進入中國,中國建模者可用於訓練大模型的資料顯著少於美國同行。同時,由於中國的資訊審查制度,中國自產的資料品質受損,用這些資料訓練出來的大模型自然不夠卓越。
另一個阻礙中國人工智慧基礎模型發展的問題在於晶片。英國智庫AI 治理中心分析了26 個中國大模型後發現,超過一半的模型的晶片都要依賴美國晶片公司英偉達。英偉達在過去一年中,為了繞過美國政府對華禁芯管制,向中國出售多款「特供」產品。但是,業內人士普遍認為,中國無法憑藉這些「低配版」晶片彌補算力不足。
「你(晶片)規格降低肯定算力就會降低嘛,比如說在這邊算得比較快,在那邊就沒有辦法算這麼快。」人工智慧專家杜奕瑾說,「以現在大型運算的算力來講的話,美國這邊還是比較充足的,中國這邊在晶片技術上的供應鏈相對來講沒有那麼強大。”
中國人工智慧的發展也面臨越來越多的政策管制。中國政府在2023年推出了《生成式人工智慧服務管理暫行辦法》,其中要求人工智慧生成的內容必須“符合社會主義核心價值”,“不得生成煽動顛覆國家政權、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統一和社會穩定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規禁止的內容” 。
分析家認為,中共執著於資訊控制,將嚴重阻礙中國人工智慧的發展。不過也有中國的業內人士認為,政府提早畫好“紅線”,反而讓人工智慧公司心裡更有數,更敢在一定的邊界內放手探索。
人工智慧的發展也帶來更多倫理和治理難題,例如如何防止生成式人工智慧製造並傳播虛假訊息?如何辨識和抵抗威權國家利用人工智慧對自由世界進行「認知戰」?
杜奕瑾創辦的台灣人工智慧實驗室發現,北京利用人工智慧影響境外輿論的手段越來越多元。例如,有些「協同群」會玩「角色扮演」的遊戲,它們同受中國方面的操控,但故意表現成不同的陣營,用最激烈的言論相互攻擊,目的就是挑起境外輿論的分裂。
杜奕瑾認為,美國應該從保衛數位人權的角度來思考人工智慧監管。他說,「以前網路是一個增加言論自由的空間,但是有了人工智慧之後,很多人在網路上發表言論會有很多水軍來攻擊你。這就好像一個人走在街上,你提不同意見就會被打一樣。所以這就不是一個平台治理的問題,而是你怎麼去保護一個自然人在網絡上可以公平地發聲。”