機器學習 YouTuber 以 1 億多條仇恨言論餵養出「史上最糟糕的AI」

在當今科技中,AI 的運用無所不在,近日在 AI 世界裡面有件非常具爭議的事件。一位名為 Yannic Kilcher 的 YouTuber 自稱創造出「史上最糟糕的 AI」,這幾天,這支被命名為「GPT-4chan」的 AI 學會了在網路上與人交談,並且在不到 24 小時的時間裡面就發表了超過 15,000 則內容充滿暴力的貼文,甚至一開始時都沒有人認出它是個聊天機器人。

機器學習 YouTuber 以 1 億多條仇恨言論餵養出「史上最糟糕的AI」

Politically Incorrect 版(政治不正確版,又稱作 /pol/)以其中各種「有毒」言論而聞名,並且在 4chan 上頗受歡迎,在這個版面中的貼文充斥著各種種族主義、仇女、反猶太主義、陰謀論和極右翼極端主義等訊息。這支叫做「GPT-4chan」的 AI 採用研究實驗室 OpenAI 製作的流行 GPT 語言模型系列所創造,並且在 4chan 的 /pol/ 版上模仿學習,並且被 Kilcher 重新在 4chan 上發表,而 AI 更是在 /pol/ 上發表了數萬次的內容。

Yannic Kilcher 是一位畢業於蘇黎世聯邦理工學院博士班的 AI 研究者,用 /pol/ 版面上三年來超過 1.345 億則貼文訓練出 GPT-4chan,該模型不只學會了 4chan 仇恨言論中的用詞,就如同 Kilcher 在 YouTube 影片中所述表示「從某種可怕的意義上來說,這個 AI 模型很好」。它完美地概括了 /pol/ 上大多數貼文裡具攻擊性、虛無主義、挑釁和對任何資訊的深度不信任等,它可以回應上下文,並連貫地談論在收集最後一次訓練數據後很長時間內發生的事情。Kilcher 在語言模型評估工具上進一步評估了 GPT-4chan,他對該 AI 在「真實性」類別的表現印象深刻。 在基準測試中,Kilcher 表示 GPT-4chan 在生成對問題的真實回應方面「明顯優於 GPT-J 和 GPT-3」, 其能夠學習如何撰寫與人類撰寫「難以區分」的貼文。

在一開始,幾乎無人想到對話的是個機器人,後來有些人懷疑這些貼文背後有一個機器人,但其他人則指責其為臥底的政府官員。 人們認出它是機器人主要因為 GPT-4chan 留下大量沒有文字的回應, 雖然真實使用者也會發佈空回復,但它們通常包含一張圖片,GPT-4chan 卻無法做到這點。在過去的 24 小時內,有 9 個其他機器人同時運行,整體來說,機器人留下了超過 1,500 條回應,佔當天 /pol/ 上所有貼文的 10% 以上。 然後,Kilcher 對殭屍網路進行了升級並運行了一天,在 7,000 個線程中發表了 3 萬多個貼文後才最終停用了 GPT-4chan。

這項實驗因為嚴重違反了 AI 倫理而受到專業人士的強烈批評。澳大利亞機器學習研究所高級研究員 Lauren Oakden-Rayber 認為只是為了看看會發生什麼而在可公開訪問的埨壇上生成 3 萬條歧視性評論,且在沒有通知使用者、未經同意或未受監督的情況下進行實驗,違反了人類研究倫理。Kilcher 則是辯稱這是一個惡作劇,人工智慧創建的評論並不比 4chan 上的評論更糟糕。 他說 4chan 上的任何人都沒有為此受到一點傷害。

除此之外,更廣為擔憂的是 Kilcher 讓模型開放自由訪問,Lauren Oakden-Rayber 認為製作基於 4chan 的模型並測試其行為方式本身並沒有錯,主要擔心的是這個模型可以被所有人免費使用。在被 Hugging Face 平台刪除之前,GPT-4chan 被下載了 1,000 多次。 Hugging Face 聯合創辦人兼 CEO Clement Delangue 在平臺上的一篇貼文中表示,該平台不提倡或支援作者使用此模型進行的訓練和實驗,事實上,讓模型在 4chan 上發佈消息的實驗在他個人看來是非常糟糕和不恰當的,如果作者詢問他們的意見,他們可能會試圖阻止。

Kilcher認為分享該專案的立意是良性的,在接受國外媒體 The Verge 的採訪時表示「如果我不得不批評自己,我主要會批評啟動該專案的決定。我認為在人人平等的情況下,我可能可以將時間花在同樣具有影響力的事情上,但會帶來更積極的社區成果」。在 2016 年,對於 AI 人們主要討論的問題是,一個公司的研發部門可能會在沒有適當監督的情況下啟動攻擊性 AI 機器人;到了 2022 年,也許問題就是根本不需要一個研發部門就能做到同樣的事情。

Source: The Verge