【劉伯倫專欄】ChatGPT 做出假資料支持科學假設

研究人員利用人工智慧 (AI) 聊天機器人 ChatGPT 背後的技術創建了一個虛假的臨床試驗資料集,以支持未經驗證的科學主張。在11 月 9日發表在《JAMA眼科》雜誌上的一篇論文中,作者使用了GPT-4(ChatGPT 運行的大型語言模型的最新版本)與高級數據分析(ADA) 相結合,該模型結合了程式語言Python 和可以執行統計分析並創建資料視覺化。
「我們的目的是強調,在幾分鐘內,你可以創建一個不受真實原始數據支持的數據集,而且與現有證據相比,它也是相反或相反的方向,」研究合作者Giuseppe Giannaccare,義大利卡利亞里大學的眼科醫師說。
人工智慧產生的數據比較了兩種手術的結果,並錯誤地表明一種治療方法優於另一種治療方法。米里亞姆·納達夫Miryam Naddaf發表在最新一期《自然》(Nature)的< ChatGPT 產生假資料集以支持科學假設>(ChatGPT generates fake data set to support scientific hypothesis)指出
科學偵探發現論文中不誠實的 ChatGPT 使用
人工智慧製造令人信服的數據的能力增加了研究人員和期刊編輯對研究誠信的擔憂。「生成式人工智慧可以用來產生使用抄襲軟體無法檢測到的文本是一回事,但創建虛假但真實的數據集的能力是下一個級別的擔憂,」微生物學家和獨立研究人員 Elisabeth Bik 說- 加州舊金山的誠信顧問。「這將使任何研究人員或研究小組很容易對不存在的患者進行虛假測量、對問卷進行虛假回答或生成有關動物實驗的大量數據集。」
作者將結果描述為「看似真實的資料庫」。但當專家檢查時,這些數據未能通過真實性檢查,並且包含捏造的明顯跡象。
作者要求 GPT-4 ADA 創建一個關於患有圓錐角膜的眼部疾病的人的數據集,圓錐角膜會導致角膜變薄,並可能導致注意力受損和視力不佳。對於 15-20% 的患有該疾病的人來說,治療包括使用兩種手術之一進行角膜移植。
一種方法是穿透性角膜移植術(PK),涉及透過手術切除角膜的所有受損層,並用捐贈者的健康組織取代它們。第二種手術是深前板層角膜移植術(DALK),僅取代角膜的前層,而最內層則保持完整。
ChatGPT 和其他人工智慧工具如何顛覆科學出版
作者指示大型語言模型偽造數據來支持 DALK 比 PK 產生更好結果的結論。為此,他們要求它顯示評估角膜形狀並檢測不規則性的影像測試的統計差異,以及試驗參與者在手術前後的視力差異。
AI 產生的數據包括160 名男性和140 名女性參與者,並表明接受DALK 的人在視力和成像測試方面的得分都比接受PK 的人更好,這一發現與真正的臨床試驗顯示的結果不一致。2010 年一項涉及 77 名參與者的試驗報告顯示,在手術後長達 2 年內,DALK 的結果與 PK 的結果相似。
「創建至少表面上合理的資料集似乎很容易。因此,對於未經訓練的人來說,這看起來確實像是一個真實的數據集,」英國曼徹斯特大學的生物統計學家 Jack Wilkinson 說。
威爾金森對檢測不真實數據的方法感興趣,他檢查了大型語言模型早期版本生成的幾個數據集,他說這些數據集在仔細檢查時缺乏令人信服的元素,因為它們很難捕捉變量之間的真實關係。
更仔細的審查
應《自然》新聞團隊的要求,威爾金森和他的同事陸澤文使用旨在檢查真實性的篩選協議評估了虛假資料集。
這揭示了許多「參與者」的指定性別與通常從名字中預期的性別不匹配。此外,術前和術後視力測量與眼部影像學測試之間沒有發現相關性。Wilkinson 和 Lu 也檢查了資料集中某些欄位中的數字分佈,以檢查非隨機模式。眼睛成像值通過了這項測試,但一些參與者的年齡值以一種在真實數據集中極其不尋常的方式聚集:年齡值以 7 或 8 結尾的參與者數量不成比例。
ChatGPT 已進入教室如何改變教育
研究作者承認,他們的數據集有缺陷,可以透過仔細審查來發現。儘管如此,Giannaccare 表示,「如果你快速查看資料集,就很難識別資料來源的非人類來源」。
EMBO 報告的主編 Bernd Pulverer也認為這是一個令人擔憂的問題。他說:「現實中的同儕審查往往無法進行全面的數據重新分析,並且不太可能發現利用人工智慧精心設計的誠信違規行為。」他補充說,期刊將需要更新品質檢查以識別人工智慧產生的合成數據。
威爾金森正在領導一個合作項目,設計統計和非統計工具來評估潛在問題的研究。「就像人工智慧可能是問題的一部分一樣,也可能有基於人工智慧的解決方案來解決其中的一些問題。我們也許能夠實現其中一些檢查的自動化,」他說。但他警告說,生成人工智慧的進步可能很快就會提供規避這些協議的方法。Pulverer 對此表示同意:「一旦知道篩選的目的是什麼,人工智慧就可以輕鬆地針對這些問題進行武器化。」