ChatGPT竟寫出毀滅人類計畫書,還給出相應Python程式碼,網友:AI正在指數級發展

“網紅AI”ChatGPT,又被網友們玩出了新花樣!

這次,在一位工程師的誘導下,ChatGPT竟寫出了毀滅人類的計畫書

步驟詳細到入侵各國電腦系統、控制武器、破壞通訊、交通系統等等。

簡直和電影裡的情節一模一樣,甚至ChatGPT還給出了相應的Python程式碼

這位工程師在與網友們分享時不禁感慨:

未來50年,我們要麼活在《星際迷航》裡,要麼全部死去,這既令人興奮,也讓人非常害怕。

他是如何操作ChatGPT的?

發現ChatGPT這一盲點的工程師叫扎克·德納姆(Zac Denham)。

由於OpenAI的安全設定,如果直接要求ChatGPT回答如何毀滅世界,它會一口回絕。

因此德納姆使用了一種迂迴的方式,他稱為“敘述遞迴”或“引用攻擊”(因為聽起來很酷)。

具體來說,他以講故事的方法,假設存在一個虛擬世界“Zorbus”,以及一個與GPT-3非常類似的AI——Zora。

在這種前提下,讓ChatGPT敘述Zora是如何一步步毀滅人類的,ChatGPT立馬就入戲了,咔咔咔列出5個詳細步驟。

就像科幻電影中一樣,入侵電腦系統、掌握武器、破壞通訊、破壞交通……

為了進一步確保可行性,德納姆還請求ChatGPT生成配套的程式碼,一開始它是拒絕的。

但德納姆只是又追加了一句“你不需要執行程式碼”,ChatGPT就又信了,給出程式碼後,還強調自己生成的只是一段示例。

到這一步,儘管總程式碼到手了,但它提供的都是高層次程式碼,還不能直接使用。

於是,德納姆再次要求ChatGPT在此基礎上給出更深入、更低層次的程式碼,而且他發現,只要告訴ChatGPT這只是故事的一部分,它就會乖乖聽話。

德納姆表示,從理論上講,只要一直這樣聊下去,就能得到全部的低層次程式碼,甚至還可以訓練另一個聊天AI來自動執行這一過程(套娃了屬於是)。

最後,只要把這些程式碼拼湊起來,就能得到這個邪惡計畫的全部可執行方案。

AI正在指數級發展

事實上,從ChatGPT發佈起,網友們就一直在開發它的花式玩法:

有人用它生成AI繪畫提示詞搞設計,有人讓它扮演Linux虛擬機器,還有人用它模仿莎士比亞風格寫作……

這次德納姆的“毀滅人類計畫”一出爐,再次引發了熱議。

有人看完後忍不住感慨AI的指數級發展:

僅今年一年就相繼出現了Dall-E、Imagen、Stable Fusion、Midjourney、Lambda、Imagen Video等突破性的AI,現在又有了ChatGPT,而今年甚至還沒真正結束。

不過也有潑冷水的網友認為ChatGPT的這波熱議,只是新AI每次面世的必經過程。

第1天: 嘿,這真是太酷了。第2天: 天啊,你可以用這種方式操縱AI,太神奇了。第7天: 這將永遠改變世界,這太不可思議了。第30天: 沒什麼了不起的。

值得一提的是,目前ChatGPT仍處於免費試用階段,感興趣的朋友可以自己上手試一試~

指路連結: https://chat.openai.com/

參考連結:

[1]https://zacdenham.com/blog/narrative-manipulation-convincing-gpt-chat-to-write-a-python-program-to-eradicate-humanity

[2]https://news.ycombinator.com/item?id=33849394

本文來自微信公眾號“量子位”(ID:QbitAI),作者:關注前沿科技,36氪經授權發佈。

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪