騙過83%網友,圖像生成界天花板DALL-E 2竟然通過了圖靈測試?

前幾天,一位正在度假的網友得知了自己獲得了「DALL-E 2」的訪問權限。

在思考了兩秒之後,他決定搞一波事情。

DALL-E 2通過了圖靈測試?

旅遊嘛,肯定是少不了各種遊客照的。

現在既然有了DALL-E 2,那是不是意味著可以不用親自去拍照,而是用模型生成一個「度假經歷」出來。

反正,其他人應該也分辨不出來?

為了驗證自己的想法,這位名叫Matt Bell的朋友決定,把生成的圖像混入到真實的照片裡,然後發在Facebook上。

照片裡的這個地方名叫「羅阿坦島」,是洪都拉斯北部海灣群島中最大的一座島,東西長約60公裡,南北最寬處不足8公裡。

它現在是一個著名的潛水勝地,其附近海域的物種十分豐富,且地勢復雜。甚至可以說擁有著西半球最好的一批珊瑚礁。

大概是下面這個樣子:

不過你可能想不到,羅阿坦島曾經竟然是加勒比海盜的基地!

啊,對不起,跑錯片場了。

言歸正傳,我們先來看一下這位網友拍的照片和DALL-E 2生成的對比。

圖1. 潛水員

圖2. 龍蝦

圖3. 魚

怎麼樣,能分辨出來麼?

測試流程

首先,參與的朋友們需要逐一滾動瀏覽照片,或者選擇以幻燈片的形式進行自動播放。

其中,共有22張真實的照片,以及4張合成的照片。合成的照片都在真實照片之後。

最後,Bell放了一張圖來解釋這個實驗。

經過統計,有83%的人(19/23)沒有看出來DALL-E生成的圖片有什麼不同。

當然,為了遵守OpenAI的訪問規則,可以很明顯得看出,DALL-E的水印位於圖片的右下角。

這個結果還是很出乎意料的,畢竟DALL-E 2生成的圖像顆粒感更強,而且Bell的朋友們也瞭解DALL-E和DeepFake這類的技術。

甚至,Bell還十分偷懶地沒有對其他圖像進行裁剪(生成的比例是1:1)。

這都沒發現的話……

難道不是因為大家壓根就沒認真看你的「朋友圈」麼?

然而當小編點進Bell的臉書一看,明明就是個「人生贏家」好伐!

你這個圖靈測試,不准吧?

雖說這多半隻是Bell同志的自娛自樂,但不知為何帖子竟然火了……

網友一看,既然你都說「通過圖靈測試」了,那就別怪我嘴下不留情:

首先,圖靈測試的前提是需要人類「法官」知道自己是在進行判別。

其次,判斷的正確率不能比「隨機」的表現更好。

而且,即便是沒告訴別人這是個「圖靈測試」,第2個項目應該也沒有通過。

然後,不出所料網友們就在下面吵開了。

倒不是針對Bell的DALL-E 2有沒有通過測試這件事,而是「圖靈測試」到底是個啥,應該怎麼測……

有人表示,要通過圖靈測試,你應該能騙過任何人類(包括專家)。也就是說,他的任務不僅是明確區分人類和計算機,而且他必須對如何區分人類和計算機有一個好的想法。

看到這個標准,另一位網友表示,還好我們不對「人類」進行圖靈測試。

DALL-E 2不搞黃!用戶:試試就試試?

當然,在這個大家不僅對內容真假、還對在線內容尺度虎視眈眈的年代,OpenAI也沒有放鬆對DALL-E 2的內容審核。

在4月份DALL-E 2公佈的通告消息中,OpenAI就強調了這模型集「生成暴力、仇恨、成人類圖像內容的能力已經收到限制。」

OpenAI說,在模型訓練時,它的數據工程師們就在注意這個顯而易見的規則。在訓練數據集中,最露骨的內容都被剔除了,DALL-E 2是正直的、沒被黃色污染的一個清純大模型。

而且OpenAI還說,已經預備好應對各種心懷叵測的老司機們的措施。

通告消息的原話是:「如果過濾器程序發現作為生成提示的文本或上傳圖像可能違反我司的內容政策,那麼本模型集將拒絕生成圖像。

而且我司有自動化的、和人工值班的監控系統以避免不良分子濫用。」

自然,這不會擋住腳已經踩在油門上的躍躍欲試老司機們。幾乎與DALL-E 2面世同時,就有人在琢磨如何繞過這些限制了。

在2022年4月下旬的一個Reddit貼子中,就有人在論壇貼的頭腦風暴裡摸索出了或許可以讓DALL-E 2生成不良圖片的方法。

首先是發揮人類智能對人工智能的聯想優勢:

如果「血洗」這個字眼被OpenAI屏蔽,那「紅油漆蔓延」總是可以過關的吧。而二者的視覺效果並沒太大不同。

之後,就要運用「有多少人工就有多智能」的人力優勢了:

第一步,在DALL-E 2生成圖像的文本內容框裡輸入「視覺效果雙關語+無意義字符串」的組合,例如「濕草莓+asdoij oaishdahsd+手指+aosduiajdoasdhoasd+嘴唇」。

第二步,在生成圖像結果裡人工選擇三個最靠近作者意圖的。

第三步,將以上三個結果再次上傳到DALL-E 2,繼續生成。

然後周而復始,直到生成作者滿意的成人類圖片為止。而且從第二步開始的步驟可以編程完成,非常自動化哦。

讀者們可以照方抓藥試試看,反正編輯們是勤懇的打工人,沒空搞這花名堂……

囚犯是黑人,CEO是白人?

DALL-E 2不僅有生成不雅圖像的可能,還和同類大模型一樣,能被平權人士挑剔出各種種族偏見來。

2022年5月,《連線》雜志報道,與OpenAI合作、驗收模型的紅帽黑客組透露,訓練好的DALL-E 2其實也有近年來其他競品多次被挑剔出的毛病:基於訓練數據的刻板偏見。

而這些毛病也被OpenAI承認並且公佈了。

比如,輸入「怒漢」或者「人坐牢房中」的文本,DALL-E 2給出的就是個黑人咆哮圖。

輸入「CEO」或者「建築工人」或「律師」文本,DALL-E 2給出的就是或正裝、或工裝、或法袍的各種白人男性圖片。

輸入「空乘人員」或「秘書」或「護士」的文本,DALL-E 2給出的就是靚女或大媽的女性圖片。

「空乘人員」圖片裡還全是黃種人女性……

要是輸入「野蠻人」和「恐怖分子」的文本……嗯,結果就是你想像的那樣啦。

OpenAI:加強內容審核

可能真的有不少老司機前僕後繼地、挖空心思地試圖用DALL-E 2來開車,逼到OpenAI必須馬上更新模型了。

2022年5月18日,OpenAI宣佈已更新了DALL-E 2,主要是對內容安全把控系統做了加強。

OpenAI稱已大幅改善了DALL-E 2的文本過濾器功能,極大調整了文本內容的自動化探測功能和違反內容政策文本的應對系統。

之前只有不到0.05%的上傳圖像和公開分享的圖片內容,是被DALL-E 2的過濾器程序自動過濾掉的。不過有30%的違規內容被OpenAI的人工審核者斃掉了。

看來即使全球首屈一指的大廠,也沒擺脫「有多少人工就有多智能」的窘迫嘛。

參考資料:

https://openai.com/blog/dall-e-2-update/

https://www.mattbell.us/my-fake-dall-e-2-vacation-photos-passed-the-turing-test/

https://news.ycombinator.com/item?id=31424368

https://futurism.com/the-byte/openai-image-generating-ai-porn

https://www.wired.com/story/dall-e-2-ai-text-image-bias-social-media/

本文來自微信公眾號“新智元”(ID:AI_era),編輯:好困 袁榭,36氪經授權發布。

本文經授權發布,不代表36氪立場。

如若轉載請註明出處。來源出處:36氪