ChatGPT:風起雲湧的生成式AI和緊隨而至的監管 從中國網信辦新規看新賽道走向

本周,中國網信辦發佈了《生成式人工智能服務管理辦法(徵求意見稿)》,其中「利用生成式人工智能生成的內容應當體現社會主義核心價值觀」,以及必須向網信辦申報安全評估並且須進行算法備案等內容,引起關注。

正如特斯拉興起,推高了中國電動車行業的熱情;ChatGPT猶如一把大火,點燃了整個人工智能行業,僅僅幾個月,百度推出文心一言,阿里巴巴推出通義千問,百川智能、商湯科技、昆侖萬維也宣佈要進入這個領域。

它們被統稱為「生成式人工智能」(generative AI)。一句話概況,這種AI可以進行內容原創,通過算法來生成圖像、文字、音樂,甚至代碼和視頻,而且不需要人工干預。

這一特點令用戶既興奮又害怕。比如,它可以創造出以假亂真的新聞圖片,令虛假信息快速傳播。中國和其它國家的監管新規,能讓這條已經迅速火爆起來的賽道健康發展嗎?

為何這麼快就進行監管?

「這麼快就推出監管措施確實比較少見,比如P2P金融已經遍地都是,開始爆雷了才進行強監管。」一位要求匿名的中國人工智能從業者向BBC中文表示,生成式人工智能才爆發不到半年,中國的相關應用才推出幾周,就推出監管辦法,之所以這麼快主要有三個原因:生成式AI的倫理問題、破壞力,以及極快的進化速度。

倫理擔憂幾乎伴隨著人工智能的每一步發展。聯合國教科文組織發佈的《人工智能倫理問題建議書》稱,此類技術極具侵入性,它們侵犯人權和基本自由,且被廣泛使用。

這份建議書還表示,該技術也帶來了前所未有的新挑戰:性別和種族偏見增加,對隱私、尊嚴和行動力的重大威脅,大規模監控的風險,以及在執法中越來越多地使用不成熟的人工智能技術,如此種種。「直到現在,我們還沒有通行的標凖來應對這些問題。」

人類與機器人對話
人類與機器人對話

倫理擔憂對ChatGPT也同樣存在——它已展現出「石破天驚」的智能化一面,對很多領域產生破壞性,比較直接的例子是有大學生用其生成論文並獲得高分。

不僅如此,生成式人工智能進化速度極快,ChatGPT去年11月推出後,今年3月迭代出的GPT-4,不僅知識面更廣、對答更流暢,開始能夠讀懂圖片內容,在律師資格考試中拿下高分,而且具備自我反思的能力。

甚至ChatGPT的開發者也表示,全社會只有有限的時間來決定如何對其監管。

《生成式人工智能服務管理辦法(徵求意見稿)》頗受關注的一條是,「利用生成式人工智能生成的內容應當體現社會主義核心價值觀,不得含有顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經濟秩序和社會秩序的內容。」

上述業內人士認為,至於外界討論很多的,是出於防止政治風險的原因,「我認為是過度解讀了。中國的AI企業沒有衝動借助這一工具實現什麼政治目的,反而在開發之初就會極力避免,擔憂的方向應該反過來,有了生成式AI這一工具,在防顛覆、防分裂和大規模監控的應用,或可起到超出意料的效果。」

中美歐監管有啥不同?

目前來看,歐洲的監管速度和力度都走在前列,中國次之,美國最慢。

3月31日,意大利個人數據保護局宣佈即日起暫時禁止使用ChatGPT,歐盟的多個國家也開始跟進,在整個歐盟層面也開始醞釀具體監管措施。

中國則在4月11日宣佈推出上述管理辦法,並對社會公開徵求意見,意見反饋截止時間為2023年5月10日,照此估計正式實施應該在下半年。

但從目前條例上可以看出,該辦法實施的是前置監管,尺度還是很嚴格。比如,"利用生成式人工智能產品向公眾提供服務前,應當按照相關規定向國家網信部門申報安全評估,並履行算法備案和變更、註銷備案手續。

美國也有動作,4月5日美國總統拜登也在白宮與科技顧問討論,AI給人類、社會和國家安全帶來的風險和機遇,拜登說,「在我看來,科技公司有責任確保他們的產品在公開之前是安全的。」至於AI是否危險時,他回答,「還有待觀察,有這種可能性。」

4月11日,美國商務部也開始正式公開徵求意見,其中包括新人工智能模型在發佈前是否應經過認證程序等內容。

波蘭展示的一個偵察機器人
人工智能和機器人已經被軍隊在戰場上試驗使用。

另外值得一提的是中國正在醞釀的監管措施的適用範圍——「研發、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,適用本辦法。」

中國中倫律師事務所的蔡鵬等人撰文分析,這一劃定方法表明無論生成式AI公司的實體位於何處,只要其支持境內用戶使用,均會被納入監管規定。以ChatGPT為例,目前正在嚴厲打擊來自中國大陸地區的賬號註冊、使用其服務,不排除是避免中國法律管轄的先手。

這一點也間接表明,未來在AI領域也會有一個「防火牆」存在,複製了互聯網時代的格局。

上述業內人士也認為,中國和美國在人工智能時代,也會是涇渭分明的兩個市場,如同互聯網時代防火牆的隔閡,造成無論哪個賽道都發展出各自的巨頭。

「而歐洲在互聯網時代的發展是掉隊的,因此他們沒有獲益的機會,卻有受損的可能,因此在反壟斷、保護隱私方面,很激進,到了人工智能時代,也一樣。」

監管是否會制約中國AI產業發展?

有此一問,是因為過去幾年中國一些行業經歷疾風驟雨般的監管打壓——教育培訓行業被「一刀切」;互聯網巨頭們被約談,遭遇罰款和拆分;房地產企業們腳踩「三道紅線」後,債務違約,瀕臨破產,留下一地「爛尾樓」。

以至於今年馬雲回國的消息佔據諸多媒體頭條,側面也反映出,企業對於監管的戰戰兢兢。

Two robot hands gently manipulate an origami paper crane
Two robot hands gently manipulate an origami paper crane

「短期來看不會阻礙,甚至還可能促進AI的發展。」上述業內人士解釋,背後的邏輯是,中國企業長期對監管都緊繃著神經,尤其是人工智能,先天很敏感,企業心裏知道早晚都要強監管,現在早點劃定邊界,反而可以更好發展。

值得一提的是,這份監管文件中也明確了對生成式AI產業的支持和鼓勵態度,比如,「國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先採用安全可信的軟件、工具、計算和數據資源。」

在2017年中國政府還印發了《新一代人工智能發展規劃》,提出了人工智能發展的戰略目標;2022年,科技部等六部門印發了《關於加快場景創新以人工智能高水平應用促進經濟高質量發展的指導意見》,明確提出鼓勵在重點行業深入挖掘人工智能技術應用場景。

這些跡象表明,中國政府對待AI新產品的態度,並不像對於加密貨幣那樣,要「一棒子打死」,而是希望在可控狀態下進行發展。

監管可能的漏洞

相比於此前較低端的AI對話模型,比如網店客服,生成式AI則可以根據已有信息虛構內容,比如在中文互聯網上,有人通過AI虛構出特朗普被捕時的照片,由於過於逼真,使部分網民信以為真。

中文互聯網上,甚至有網友要求ChatGPT給出自己的簡歷,ChatGPT則直接"撒謊",虛構出完全不存在的經歷,甚至包含一系列虛假的論文標題及鏈接。

新的監管辦法中稱,「利用生成式人工智能生成的內容應當真實凖確,並且要求提供者採取措施防止生成虛假信息。」

「與其說漏洞,不如說不合理的地方。比如規定,AI生成內容應當真實凖確。這就極不合理,因為它的本質就是一個創造性的工具,感覺就像規定一個畫家或詩人,你的作品必須真實凖確。」上述業內人士表示。

上述中倫律所的文章也提到這一點——一方面,部分生成式人工智能生成內容,例如人工智能創作的文章、圖片、視頻本就屬於「不真實內容」,這是生成式人工智能本身的服務之一,如果強行要求人工智能生成內容必須真實凖確則與該技術初衷不相符。另一方面,當前人工智能技術尚在發展階段,單就技術而言,人工智能生成內容天然難以保證百分百真實凖確。如果僅因為內容錯誤或者不完全而導致內容不準確,是否也構成"虛假信息"?因此"虛假信息"的範圍有待進一步釋明和細化。

而且,從條例的細則來看,對企業的要求是在3個月採取措施修正生成錯誤回答的AI模型,確保同樣的錯誤不會再次發生,實際上也是給了企業不少的處理時間。

Alibaba headquarters in Beijing。
Alibaba headquarters in Beijing。

最擔心什麼?

「作為這個行業的人,我最擔心的不是監管,而是芯片問題。」上述從業者表示,很多人不知道訓練AI需要很高算力,用到英偉達高端芯片,而美國去年一紙禁令,很可能制約中國在AI領域的發展。

2022年8月,美國對向中國出口的英偉達A100和H100等人工智能芯片實施限制。

具體而言,美國政府限制向中國、香港和俄羅斯等國家和地區,銷售英偉達的A100圖形處理器。A100已面世兩年,它被廣泛用於數據中心進行要求很高的人工智能計算。

英偉達公司還表示,受影響的還有公司即將推出的H100系列芯片,H100的制程更先進,對人工智能計算的提升更顯著。

對於英偉達而言,中國市場是重中之重。它去年269億美元的收入中,超過四分之一來自中國和香港。

英偉達表示,A100的用戶包括阿里巴巴、騰訊和百度。這些公司運營著中國佔主導地位的雲計算服務,而且還能用於人工智能的算法和訓練。