高端大氣的谷歌AI,學術黑暗的“名利場”

在美國學術圈,種種圍繞論文發表的黑暗事情並不少見。一些人為了逃避這種學術黑暗,加上科技公司拋出的高薪橄欖枝,選擇加入工業界,跳槽谷歌這樣的科技大公司。然而令人沒想到的是:就連谷歌居然也叛變了,也成為了 AI 學術界的一個黑暗角落。

根據《紐約時報》獨家報道:谷歌在今年3月低調開除了一位 AI 研究員,因為他長期以來都和自己的同事們對著干,對公司發表的高知名度論文橫加質疑批判。

Google AI 在去年6月發表論文A Graph Placement Methodology for Fast Chip Design,提出採用 EdgeGNN 強化學習算法設計一些芯片組件的能力已經超過了人類。這篇論文(以下簡稱“芯片論文”)刊登於《自然》,在業界影響力極大,並且谷歌 AI 事業的總負責人 Jeff Dean 也是作者之一。

而這位研究員 Satrajit Chatterjee 對於芯片論文心存疑慮,所以率領了一支隊伍寫了一篇論文(簡稱為“駁斥論文”),試圖證偽前述論文中的一些重要的宣稱。

然而根據四位匿名谷歌員工透露的情況,就在這篇駁斥論文已經寫完的時候,公司先是拒絕了發布,然後很快就將 Chatterjee 開除出了公司。

“我們對駁斥論文裡面提出的一些宣稱進行了嚴格的檢查,最終認定它未達到我們的發表標准。”谷歌研究部門副總裁 Zoubin Ghahramani 對《紐約時報》表示。

Chatterjee 似乎也已經退出了 AI 研究的一線崗位,加入了一家風投公司(未經本人證實)。

除名作者、封口威脅:谷歌學術竟也如此黑暗?

事情經過大概是這樣的:

在前述的芯片論文刊登於《自然》之前,谷歌在2020年4月發表了一篇基本同題的預印本論文 Chip Placement with Deep Reinforcement Learning。

據《紐約時報》援引幾位匿名知情人士描述的情況,當時谷歌對 AI 設計芯片的研究方向非常重視,並且有很急切的慾望想要將自家研究的這項技術盡快變現。

這篇預印本論文發布的時候,谷歌找到 Chatterjee 咨詢能否將這項技術直接出售出售或授權給芯片設計公司。

然而,這位曾在英特爾工作,在芯片行業擁有豐富經驗的研究員,卻直接給 Jeff Dean 潑了一盆冷水。他發郵件告訴同事,自己對於這篇預印本論文當中的一些宣稱表示“保留意見”,並且質疑改採用的技術沒有經過嚴格的測試。

在團隊中,Chatterjee 並不是唯一對這項研究表示質疑的谷歌員工。就在這篇預印本論文中,還有兩位合作作者——谷歌 AI Kernel 團隊的創始人 Anand Babu 和軟件工程師 Sungmin Bae也支持 Chatterjee 的意見。

與此同時,谷歌已經等不及想要用這篇論文來賺錢了。

Satrajit Chatterjee圖片來源:個人網站

Google AI 把這篇預印本論文重新調整了一下,換了個標題,直接提交到了學術界最久負盛名的《自然》期刊,並且成功得到了發表(即前述的芯片論文)。

然而據硅星人瞭解,這次論文改題刪名重發事件,在 Google AI 內部引發了不小的爭議。有員工感到事情很詭異:

  • 首先,這論文為什麼改個題又發一遍?

  • 其次,既然要重新發一個版本,為什麼沒有經過公司內部論文評議委員會的重新審核?

  • 最後,也是最詭異的地方:為什麼這個發到《自然》的新版本,除掉了對本次研究發表不同意見的兩位作者名字?意思是他們倆對新版本沒有貢獻,所以就直接消除掉他們存在過的痕跡,就像從未對此次研究做出過貢獻一樣?

上圖:2020年4月的預印本論文版本;下圖:2021年6月的《自然》版本(“芯片論文”),後者刪除了兩位作者的名字圖片來源:arXiv, Nature

為了平息爭議,Jeff Dean 批准包括 Chatterjee、Bae、Babu 等在內的員工對芯片論文進行挑戰,並且允諾他們事後出來的報告(即駁斥論文)會按照公司既定的政策,走論文發表審批委員會的流程。

沒過多久,Chatterjee 等人就把駁斥論文寫出來了,標題為 Stronger Baselines for Evaluating Deep Reincorcement Learning in Chip Placement(點擊文末“閱讀原文”按鈕查看)。

在駁斥論文中,作者們提出了幾種新的基線,也即基準參照算法,意思就是比這個基線效果還差的即不能接受,沒有發論文的必要。

結果,作者所提出的比谷歌芯片論文中改採用算法的實現的效果還好,並且運行所依賴的算力小得多。消融研究結果指出了芯片論文中算法的弱點。

不僅如此,作者還進一步指出,人類芯片設計師的設計能力並不能夠作為強有力的基線,也即芯片論文裡拿強化學習算法跟人作為對比是很沒本事的行為。

帶著這些調查結果,Chatterjee 等人把駁斥論文提交到了谷歌的論文發表審核委員會,等了幾個月的時間,最後卻被拒絕發表。Google AI 方面高管的回應是這篇駁斥論文未滿足發表標准。

作者們甚至找到了公司 CEO Sundar Pichai 和 Alphabet 董事會,指出這篇駁斥論文被拒絕發表的情況,可能涉嫌違反了公司的 AI 研究發表和道德方面的原則。

然而,他們的反抗很快就被打壓了下來。沒過多久,Chatterjee 就收到了自己被解僱的通知。

與此同時,芯片論文的聯闔第一作者 Anna Goldie 卻有不同聲音。她告訴《紐約時報》 Chatterjee 在三年前曾經試圖奪權,自從那之後自己就成為了後者“虛假信息”攻擊的受害者。

我們不知道這位表達不同聲音的 Chatterjee,被公司解僱的直接理由究竟是什麼。但硅星人從谷歌員工那裡瞭解到, 一些員工認為 Chatterjee 被解僱的真實原因,是站在了公司利益,以及 Google AI 部分核心高管力推項目的對立面。

在一些人看來,即使如谷歌這樣架構扁平、制度公平的大公司,也難免為了保護公司利益和高管的顏面,而暫時改變自己的規矩,把唱反調的人一腳踹開。

利益沖突遭開除,員工“改名”表抗議

這確實不是 Google AI 內部第一次因為學術見解不同和辦公室政治而出現抓馬 了。

在行業裡影響力頗大的斯坦福 AI 實驗室成員、前谷歌研究員 Timnit Gebru,在兩年前遭到谷歌突然開除的事情,當時就已經給很多同行留下了非常差的印象。

並且巧合的是,Gebru 當時被谷歌開除的原因和 Chatterjee 一模一樣:跟公司利益對著干,被公司拒絕發表論文。

(事先聲明:Timnit Gebru 本人在行業裡是 AI 偏見方面的專家,但她本人具有一定爭議性。有很多人認為她的“社會正義戰士”性格強於作為學者的公允性,遭到部分同行質疑。)

Timnit Gebru 圖片來源:Wikipedia Commons 知識共享授權

2020年,Gebru 在網上和圖靈獎得主,人稱 AI “三教父”之一的 Yann LeCun 之間展開了一場對峙。

當時,有人採用低分辨率人臉還原模型 PULSE 還原奧巴馬照片,出現了白人結果。LeCun 對此發表了自己的觀點,認為是數據集的固有偏差導致了 AI 偏見的結果。

這一表示遭到了包括 Gebru 在內很多人的批評。Gebru 表示對 LeCun 的發言很失望,因為 AI 算法中的偏見不只是來自數據。她本人在此方面做了很多研究,發表了一些論文。她的觀點一直是:AI 的偏見不止來自於數據集,光解決數據集並不能徹底解決 AI 偏見問題。

LeCun 進一步發了十幾條推文,進一步解釋自己的觀點,結果卻被 Gebru 以及她的支持者當成了“班門弄斧”——雖然 LeCun 是”AI 教父“,但 Gebru 本人才是 AI 偏見方面的權威專家。

LeCun 和包括 Gebru 在內的批評者之間的罵戰持續了半個月,結果以前者“退推"告一段落。

Gebru 在社交網絡上直言抨擊 LeCun 這種機器學習元老級專家的行為,卻在谷歌內部被一些高層人士認為破壞了公司和學術界/行業之間的友善關系。雖然 Gebru 獲得了階段性的“勝利”,可是她當時並沒有完全意識到事情的嚴重性,以及陰雲已經籠罩在自己的頭上。

大家應該知道最近幾年大模型(以超大參數量的語言模型為代表)在 AI 研究領域有多火,包括谷歌、OpenAI、微軟、亞馬遜、BAAI 等機構都在這方面投資巨大,誕生了 BERT、T5、GPT、Switch-C、GShard 等在內的一系列超大規模語言向神經網絡模型和相關技術。

也是在2020年,Gebru 的團隊撰寫了一篇論文 On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 希望揭露超大規模語言模型在實際使用中的危險性,批評其可能在 AI 偏見方面造成的影響。

這一方向的研究並不小眾,畢竟在此之前已經有研究發現,GPT-2/3 等超大語言模型在真實場景中使用時會強化已經存在的社會偏見和歧視(包括性別、族裔),對實際用戶造成傷害。

Gebru 團隊的這篇文章,主要表達的觀點確實都沒什麼毛病。然而在 Jeff Dean 看來,篇幅很短,敘述和引述多於基於實驗的結果,缺乏科學實證的要素,不構成谷歌公開冠名發表論文的條件,因此將其駁回不予發表。

可能更接近本質的原因在於:這篇論文如果發表出來,等於是在和谷歌近幾年在大語言模型方面的努力唱反調,在谷歌 AI 管理層看來會非常影響士氣。

Gebru 堅持就算公司不批准,自己也要想辦法把論文發出去。谷歌要求她在論文裡去掉作者的谷歌從屬關系,意思就是這篇文章是幾個作者私下做的,公司並不認可。這一要求也被 Gebru 嚴詞拒絕。

對於 Gebru 的離開,谷歌表示她是自己辭職的(內部員工透露,Gebru 當時確實曾以辭職作為威脅)。但是 Gebru 對外透露的是自己被公司開除了。

Gebru 在谷歌的匯報對象 Samy Bengio 在當時表示自己感到非常震驚。Bengio 曾獲得谷歌傑出科學家的殊榮,是公司14年元老,原谷歌大腦團隊的創始成員之一(也是 AI 三教父之一 Yoshua Bengio 的胞弟),後來也直接因為對解僱 Gebru 不滿,在2021年離開了谷歌。

後來,Gebru 團隊的論文後來還是在2021年3月在 ACM 旗下的跨學科會議 FAccT(公平、責任和透明度大會)上得以發表,只是四位作者當中的兩位,無法以谷歌員工的身份出現在作者名單裡。

值得一提的是:雖然 Gebru 在論文發表前就已經和谷歌掰了,另一位作者 Margaret Mitchell 在文章發表的時候仍然供職於谷歌(後來也還是被開除了)。

在發表版本的論文裡,她“改名換姓”,在自己的名字前面加上了“Sh”,以諷刺公司對自己的噤聲:

圖片來源:Wikipedia Commons 知識共享授權

但是更離譜的事情還在後面。

就在上個月初,谷歌AI 發表了另一篇論文,介紹了團隊開發的一個全新的5400億密集激活參數的超大規模語言模型 PaLM。

在模型架構解釋 (Model Architecture) 和道德思考 (Ethical Considerations) 部分,PaLM 論文曾經先後至少兩次引用了前年被谷歌拒絕發表的那篇 Gebru 團隊的論文。

在道德思考的部分,論文寫道,由於從訓練數據和模型中完全消除社會偏見的可行性不高,因此分析模型中可能出現的相關偏見和風險是至關重要的,並且也引用和參考了 Gebru 等人在那篇被拒發論文中採用的分析方法。

更何況 Jeff Dean 也是 PaLM 論文的作者。這就屬實非常尷尬了。

上圖:諷刺的是,引用列表中還留下了前員工 Mitchell 影射公司的記錄。

Gebru 對此表示,

“這些(谷歌的)AI大佬們完全可以為所欲為。他們完全不用考慮我是被公司開除的,我的論文是被公司被評為不及格的。他們完全不用思考後果,他們恐怕早就忘了當年的事了。”

最後,可能很多人都想知道:為什麼最近幾年谷歌 AI 研究部門的鬧劇如此之多,而且還都是員工研究方向和公司利益沖突相關?

一位瞭解 Google AI 情況的前谷歌員工對硅星人做出如下評價:

“一邊要靠放衛星吸引更多 HR 和 PR 關注度,一邊要盡快把 AI 這邊的研究成果投產,一邊又因為某些有爭議的項目要改善社會責任感。魚和熊掌不可兼得。”

(註:關於"放衛星"的部分,這位前員工指的是谷歌的一些超大模型研究在發布當時並未達到 State-of-the-Art 的水平。比如谷歌的1.6萬億參數量 Switch Transformers 模型,性能並未超過有效參數量更少的類似模型,並且 API 方面的易用性也很差,所以沒法像 GPT-3 那樣做出很令人印象深刻的演示。)

毫無疑問,Google AI 已經成為業界科技公司裡從事 AI 的基礎和應用科研方面的標桿機構。

考慮到 Google AI 的許多研究成果能夠更快地投入到各種谷歌核心產品當中,而這些產品的用戶量又是數億甚至數十億級別的,可以說 Google AI 的研究對於世界也有著十分重大的意義。

與此同時,不可否認的是谷歌/Alphabet 仍然是一家營利性質的上市公司,需要對股東負責,需要穩定持續的增長。而 AI 在今天作為一個不算新,商業化的程度和可行性已經非常高的技術,谷歌公司內部對於 AI 產學研結合的期待肯定是日益提升的。

考慮到以上背景,就不難理解為什麼 Jeff Dean 等研究部門的大佬們,要不顧一切保護公司在 AI 研究方面的投資和名譽了。

必須承認的是,這些大佬們原本也都是在 AI 學術界建功立業的先驅,說他們不認可學術倫理,也是一種侮辱。但很遺憾,在現如今公司利益的面前,只能在其位謀其政。大難臨頭的時候,也許學術上的正直,也只好暫時往邊上稍稍了。

Jeff Dean 在谷歌開發者大會上演講圖片來源:杜晨 | 硅星人/品玩

本文來自微信公眾號 “硅星人”(ID:guixingren123),作者:杜晨,編輯:Lianzi ,36氪經授權發布。

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪