ChatGPT被爆雇用肯亞勞工,時薪僅40元

被不少人認為是AI大躍進的聊天機器人ChatGPT,背後竟是靠血汗工人的智慧完成?《時代雜誌》最近爆料,這個人工智慧的標記工作,開發團隊OpenAI竟然是請肯亞的勞工處理,時薪僅約台幣40至61元不等,工作內容還相當有爭議。難道這就是新時代的人類主流工作?

時代雜誌》(Time Magazine)調查發現,為了避免ChatGPT生成的內容帶有偏見或者出現歧視問題,開發出這項顛覆人們認知模型的企業OpenAI,將標記資料工作外包,承包公司再聘請肯亞勞工代理。除了薪水驚人地低之外,因為有些文字內容太過不堪,對這些人員的身心靈帶來沉重衝擊。

OpenAI將資料標記工作外包,標記員盯著螢幕快速的標記資料。示意圖,取自pexels @Erik Mclean。
OpenAI將資料標記工作外包,標記員盯著螢幕快速的標記資料。示意圖,取自pexels @Erik Mclean。

AI模型內的偏見與歧視

因為運算愈來愈便宜、蒐集資料成本和難度愈來愈低,再加上演算法的進步,這些因素都讓人工智慧的威力大幅上升,產出的模型連帶增強許多,無論是以文生圖的Midjourney、DALL·E 2,還是能夠跟人類對話的ChatGPT,都受益於上述趨勢,有著令世人驚艷的表現。

不過,因為人工智慧模型需要經過反覆訓練,迭代測試後不斷改善,這個過程大幅仰賴訓練集的資料,而這些資料又是出自於人類的日常生活當中,因此產出的服務,無可避免會複製人類社會中常見的偏見。

例如,Google搜尋有過在自動完成建議(autocomplete suggestions)中特定族群與負面形容詞綁定的紀錄,又或者是搜尋特定職業如醫生的圖片時,白人男性出現的照片不成比例地高,隱含醫生都是白人男性的刻板印象,忽略早就有許多女性與多元種族擔任醫生的事實。

另外,2020年韓國企業Scatter Lab曾推出聊天機器人Iruda,2016年微軟也介紹了聊天機器人Tay,兩款人工智慧服務都會從與使用者的對話中學習,改善自己的表現。然而,正因為這個特點,聊天機器人上線沒有多久,很快學會了種族歧視與性別歧視,甚至會講仇恨言論,Scatter Lab和微軟都在問題爆發後無奈將機器人下架。

將聊天機器人Tay下架後,微軟在官網中發表文章討論Tay遇上的問題。截圖自微軟官網。
將聊天機器人Tay下架後,微軟在官網中發表文章討論Tay遇上的問題。截圖自微軟官網。

為了避免出現上述情形,企業們也用各自的方式改善問題,例如請研究人員開發在模型中減少偏見,甚至全面消除歧視的方法,又或者從源頭解決—也就是從訓練資料下手,根本性的排除問題。

時薪最低40元的外包工作:小狗、男人、小孩,以及性關係

開發出ChatGPT的OpenAI,就是走這個模式。根據《時代雜誌》的調查,OpenAI希望能夠訓練模型,讓它們能夠辨識暴力、仇恨言論、性虐待等會讓人極度不適的內容,這樣一來,當ChatGPT在產出言論時,就可以提前將上述言論過濾,不會將其傳達給使用者,提升產出品質。

為了做到這點,OpenAI自2021年開始,和舊金山的一間企業Sama簽約,OpenAI給了Sama成千上萬的文字片段,內容極度黑暗,包含兒童性虐待、人獸交、謀殺、自殺、自我傷害、虐待、亂倫等,而Sama再聘請肯亞勞工標記資料。

Sama雇用的資料標記員來自肯亞、烏干達、印度等國,這間企業平時就以接矽谷科技公司的案子維生,根據該公司內部資料,OpenAI發給Sama的資料標記任務,轉到了這些肯亞標記員手上,實拿的時薪介於1.32美元至2美元之間(約40至61元新台幣),薪水高低取決於他們的資歷和表現。Sama宣稱透過其發包的工作,已經幫助了超過5萬人走出貧窮,它也自我標榜為有倫理的人工智慧企業(ethical AI company)。

Sama在官網中以建立起「有倫理的人工智慧供應鏈」自豪。截圖自Sama官網。
Sama在官網中以建立起「有倫理的人工智慧供應鏈」自豪。截圖自Sama官網。

雖然待遇不高,但至少有薪水可以領,對這群肯亞人來說可接受;對OpenAI來說,也能提升模型品質,幫助ChatGPT。為何仍引發關注?

關鍵就出在標記內容太駭人,向公司尋求協助時又遭到拒絕。一位受訪的員工表示,在讀到一段「有一名男人在幼童前面和狗發生性關係」的圖像描述以後,他深受其苦,「一整週下來,我會讀到許多類似的東西,這對我來說是種折磨,因為你會不斷想到那樣的圖片。」

Sama承諾其員工,因為標記資料產生心理問題時,可以利用公司的諮商資源,但受訪者指出,在要求一對一諮商時,反覆地遭到管理層拒絕。雖然有集體諮商,但因為公司對於標記產量的高要求,還有資料本身太過驚世駭俗,他們的精神嚴重受損。

AI時代的血汗工廠:內容標記與內容審核員

除了標記資料以外,OpenAI也曾請Sama蒐集包含死亡和性虐待等類型的圖片,用途和改善ChatGPT的品質類似,可以協助OpenAI建立資料庫,讓模型能夠分辨圖像。不過,因為此項工作太具有爭議性,還有部分類型的圖像違反美國法律,最後OpenAI和Sama解除合作關係。

這並非Sama第一次遭揭露營運瑕疵。去年(2022)2月,《時代雜誌》便以「臉書的非洲血汗工廠」(https://time.com/6147458/facebook-africa-content-moderation-employee-treatment/)為題,討論臉書外包出去給Sama的內容審核員,平常審查的影片,包含謀殺、性侵、自殺、兒童性虐待等主題,對審核員的身心都有嚴重負面傷害。

人們有ChatGPT、Midjourney等走在科技最前沿的服務可以使用,在感嘆新技術厲害的時候,其實背後都有無名的開發中國家工作者領著低薪,在沒有太多保障的條件下進行單調乏味的標記工作,甚至因此身心受創。我們的歲月靜好,有肯亞勞工在負重前行。


加入遠見雜誌LINE好友,接收更多好文章!

看更多遠見雜誌文章:
代寫論文ChatGPT,背後OpenAI揭祕
24小時內陽光女變納粹歧視狂!微軟急撤AI機器人
ChatGPT帶來工作革命:文組不會被淘汰、別硬學程式?