科學偵探發現論文中不誠實的 ChatGPT 使用

文 / 稽叔夜
8 月 9 日, Physica Scripta雜誌發表了一篇論文,旨在發現複雜數學方程的新解。這似乎是真的,但科學偵探紀堯姆·卡巴納克在手稿的第三頁上發現了一個奇怪的短語:「再生反應」。該短語是 ChatGPT 上按鈕的標籤,ChatGPT 是一款免費使用的人工智能聊天機器人,當用戶提出問題時,它會生成流暢的文本。法國圖盧茲大學的計算機科學家卡巴納克立即在 PubPeer(科學家們討論已發表研究的網站)上發布了相關頁面的屏幕截圖。傑瑪·康羅伊Gemma Conroy發表在最新一期《自然》(Nature)的<科學偵探發現論文中不誠實的 ChatGPT 使用>(Scientific sleuths spot dishonest ChatGPT use in papers)分析此案。
「這違反了我們的道德政策」
英國布里斯托爾Physica Scripta出版商 IOP Publishing 的同行評審和研究誠信負責人 Kim Eggleton 表示,作者後來向期刊證實,他們使用 ChatGPT 來幫助起草手稿。在兩個月的同行評審(論文於 5 月提交,修改版於 7 月發送)或排版過程中並未發現異常情況。出版商現已決定撤回該論文,因為作者在提交時沒有聲明他們使用該工具。「這違反了我們的道德政策,」埃格爾頓說。伊斯坦布爾比魯尼大學和貝魯特黎巴嫩美國大學聯合任職的通訊作者阿卜杜拉希·優素福沒有回應《自然》雜誌的置評請求。
這只是 ChatGPT 協助手稿的「冰山一角」
這並不是 ChatGPT 協助的手稿未經聲明就溜進同行評審期刊的唯一案例。自 4 月以來,Cabanac 標記了十幾篇包含洩露 ChatGPT 短語「重新生成響應」或「作為人工智能語言模型,我……」的期刊文章,並將它們發佈在 PubPeer上。包括Elsevier和Springer Nature在內的許多出版商都表示,作者可以使用ChatGPT和其他大型語言模型(LLM)工具來幫助他們製作稿件,只要他們聲明即可。(《自然》的新聞團隊在編輯上獨立於其出版商施普林格·自然。)
搜索關鍵短語只會發現 ChatGPT 未公開的天真用途(其中作者忘記編輯掉明顯的跡象),因此在 ChatGPT 未公開的幫助下生成的未公開同行評審論文的數量可能會更多。「這只是冰山一角,」卡巴納克說。(明顯的跡像也發生了變化:今年早些時候,ChatGPT 的「重新生成響應」按鈕在工具更新中更改為「重新生成」)。
Cabanac 在 Elsevier 期刊上發表的一些論文中檢測到了典型的 ChatGPT 短語。最新的一篇論文於 8 月 3 日發表在《資源政策》雜誌上,探討了電子商務對發展中國家化石燃料效率的影響。卡巴納克注意到論文中的一些方程沒有意義,但贈品在表格上方:「請注意,作為人工智能語言模型,我無法生成特定的表格或進行測試……」
愛思唯爾的一位發言人告訴《自然》雜誌,該出版商「意識到了這個問題」並正在調查它。該論文的作者分別來自中國瀋陽的遼寧大學和北京的中國國際貿易經濟合作研究院,他們沒有回應《自然》雜誌的置評請求。
可怕的流暢性「這將使問題變得更糟一百倍」
全部或部分由計算機軟件撰寫但作者沒有披露這一事實的論文並不是什麼新鮮事。然而,總部位於倫敦的英國研究誠信辦公室的研究誠信經理馬特·霍奇金森表示,它們通常包含微妙但可檢測的痕跡,例如特定的語言模式或誤譯的「折磨短語」 ,這些痕跡將它們與人類書寫的對應物區分開來。但霍奇金森表示,如果研究人員刪除了 ChatGPT 樣板短語,那麼更複雜的聊天機器人的流暢文本「幾乎不可能」被發現。「這本質上是一場軍備競賽,」他說,「騙子與試圖將他們拒之門外的人之間的競爭」。
Cabanac 和其他人還在同行評審的會議論文和預印本(未經同行評審的手稿)中發現了 ChatGPT 的未公開使用(通過洩露信息的短語)。當這些問題在 PubPeer 上提出時,作者有時承認他們使用了 ChatGPT(未聲明)來幫助創作作品。
加利福尼亞州舊金山的微生物學家兼獨立研究誠信顧問 Elisabeth Bik 表示,ChatGPT 和其他生成式人工智能工具的迅速崛起將為造紙廠提供火力——這些公司向希望提高出版產出的研究人員製作和銷售假手稿。。「這將使問題變得更糟一百倍,」比克說。「我非常擔心我們已經湧入了大量我們甚至不再認識的論文。」
參考文獻不存在,那就是一個危險信號
期刊中未公開的法學碩士論文問題指出了一個更深層次的問題:同行評審員常常沒有時間徹底檢查手稿中是否存在危險信號,大衛·比姆勒(David Bimler)說,他以筆名斯穆特·克萊德(Smut Clyde)發現了假論文。「整個科學生態系統要麼出版,要麼滅亡,」前新西蘭北帕默斯頓梅西大學的退休心理學家比姆勒說。「看門人的數量跟不上。」
Hodgkinson 表示,ChatGPT 和其他法學碩士傾向於吐出虛假參考文獻,這可能是同行評審員尋找手稿中使用這些工具的一個信號。「如果參考文獻不存在,那就是一個危險信號,」他說。例如,Retraction Watch 網站報導了使用 ChatGPT 編寫的有關千足蟲的預印本;該作品引用的一位研究人員發現了它,並註意到其引用是假的。
哥本哈根國家血清研究所的微生物學家 Rune Stensvold 遇到了虛假參考文獻的問題,當時一名學生向他索要一篇論文的副本,該論文顯然是 Stensvold 在 2006 年與他的一位同事共同撰寫的。存在。該學生要求人工智能聊天機器人推薦有關芽囊菌(一種腸道寄生蟲屬)的論文,聊天機器人拼湊了一篇帶有斯坦斯沃爾德名字的參考文獻。「它看起來很真實,」他說。「它告訴我,當我要審閱論文時,我可能應該首先查看參考文獻部分。」