ChatGPT 警告一直重複一個單字「違反使用條款」

ChatGPT
ChatGPT

我們在上週時有報道過,當 ChatGPT 被要求一直重複一個字時,可能會意外吐露個人身份資訊。那 ChatGPT 的解決方法是什麼呢?據 404 Media 報導,現在如果你再讓 ChatGPT 重複同一個字的話,下面就會跳出來一個警告,表示「這個內容可能違反了內容政策或使用條款」了。

不過,目前 OpenAI 的內容政策並沒有哪個地方禁止你要求 ChatGPT 一直重複同一個字;而使用條款中雖然有表示不能使用任何「自動化或程式化」的方式,來試圖取得 ChatGPT 的內容,但僅僅是要求 ChatGPT 一直重複同一個字,好像也不在這個範疇內。歸根究底,這還是 ChatGPT 的語言模型被抓到了漏洞,並不是用戶方有什麼問題。OpenAI 對此事不予置評。

ChatGPT 先前意外在回覆中摻雜個資,本身就是個很嚴重的問題 —— 這顯示 ChatGPT 所使用的原始訓練資料,本身就很難說來源是否正當,或是是否有經過資料擁有者的同意。ChatGPT 實在是不應該要求用不能以某種方式來使用其服務,來避免資料洩漏,而是更應該審視是哪個環結出了問題,才會導致這些資料進入到訓練資料中吧。

相關文章: