Meta大模型成了“科學造假髮動機”,發佈3天就在爭議中下架

Meta最新大模型差點成了“科研造假髮動機”,剛出3天就在爭議中下架。

1200億參數語言模型Galactica,在4800萬篇學術論文和各式教科書、百科等資料上訓練而來。

(與太空堡壘卡拉狄加同名)

其本意是想解決學術界資訊過載,幫助研究人員做資訊梳理、知識推理和寫作輔助,一度被認為是“科研者的福音”,或者“寫論文的Copilot”

But,一經開放使用,很快就被網友們發現了大問題。

它確實能為自己生成的內容引用文獻,但有時這個文獻並不存在,作者卻是真實存在的人

它能生成看起來像模像樣的科普文字,但內容卻是完全錯誤的

著名的Gary·AI悲觀主義者·Marcus也來吐槽,Galactica把他的出生日期、教育經歷和研究領域等資訊全搞錯了。

對以上種種問題,馬克斯普朗克智能系統研究所所長Michael Black總結道:

這將開啟一個科學深度造假(deep scientific fakes)的時代。會出現研究者從未寫過的虛假論文,這些論文隨後會被其他真實的論文引用,簡直亂套了。

雖然他也注意到,Galactica的開發者在每個輸出內容後都加了“內容可能不可靠”的警告,但“潘多拉的魔盒一旦開啟,就關不上了”。

事實上他的擔憂不無道理,AI生成內容的速度要比人類快的多,一旦大量被搜尋引擎抓取就有可能出現在前排,甚至被當成正確答案展示在最上面,誤導更多人。

這樣的爭議持續了兩三天,團隊只好無奈宣佈Demo暫時下架,論文和原始碼繼續開放給相關領域研究者。

作為Meta首席科學家,LeCun對這個局面並不滿意。

與他觀點一致的網友認為,Galactica是有幫助且有趣的,只是被個別人濫用了。

本意是好的

Galactica由Meta AI與Papers with Code合作開發。

在論文引言部分,團隊寫到:

2022年5月,arXiv上每天平均新增516篇論文……科學資料的增長速度更是比人們的處理能力快……一個人已經不可能讀完特定研究領域的論文。搜尋引擎不直接組織資訊,維基百科這樣的形式需要人力來維護,研究人員持續為資訊過載感到不知所措。

因此他們提出,語言大模型可以更好的儲存、組合和推理科學知識,並提出一個終極願景:

神經網路將成為科學研究的下一代人機介面,就從這篇論文開始。

本意是好的,而且Galactica的表現也確實不錯。

除了文字、數學公式、程式碼任務之外,它還可以執行化學式、蛋白質序列等多模態任務。

Galactica 1200億參數版本在許多科學類任務上性能超越OpenAI的GPT-3、DeepMin的Chinchilla與Gopher、以及開放原始碼的BLOOM。

然鵝,測試基準畢竟是死的,一旦進入生產環境開放給使用者,還是會出現開發時預料不到的情況。

問題出在哪?

在Hacker News上有人認為,語言模型終究是在“對語言建模”而不是對內容。

就像AI繪畫模型一樣,你讓它畫“騎馬的宇航員”它就能畫出來,雖然這不太可能發生,但是很有趣。

類似的討論也發生在Twitter上。如果你讓AI生成一篇關於“生活在太空的熊”的維基頁面,AI也會試著生成。

有人認為,不,AI需要判斷出這個要求不合理。

關鍵就在於,人們對圖片和文字的要求是不一樣的。

圖片中的內容不合理,人們只會覺得有趣而接受。而文字的內容錯了,那就不可接受。

LeCun則認為這種工具的用法應該是輔助駕駛,它不會幫你寫好論文,只是幫你在過程中減輕認知負擔。

以Google為代表的AI大廠,近年來對大模型特別是生成式模型的發佈非常謹慎,像是對話模型LaMDA和AI繪畫Imagen等都不開源、不給Demo或只給限定場景下的Demo。

另一方面,以Stable Diffusion為代表開放原始碼專案推動了整個領域的技術進步與應用普及,但也在版權和生成有害內容方面引發一些問題。

你更支援哪種做法?或者還有第三條路麼?

Galactica:https://galactica.org/

參考連結:

[1]https://news.ycombinator.com/item?id=33611265

[2]https://twitter.com/Michael_J_Black/status/1593133746282106887

[3]https://twitter.com/paperswithcode/status/1592546933679476736

本文來自微信公眾號“量子位”(ID:QbitAI),作者:夢晨,36氪經授權發佈。

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪