AI有如我們想像般的智慧嗎?別忘了背後那群無名英雄

臉書(Facebook)、推特(Twitter)、抖音(TikTok)、IG(Instagram)等社交媒體都面臨一個同樣的問題,那就是不當內容的監控,尤其是對於影片的內容。

一堆人時常會放上去如謀殺、自殺、戀童癖、色情內容、野蠻行為的影片,如何在它們到達使用者的眼球之前將其阻擋,這是一項非常艱鉅的工作。 

抖音的推薦演算法被廣泛認為是世界上最有效的人工智慧AI的應用之一,它以幾乎驚人的準確性了解每個用戶覺得有趣或吸引人的地方,並為用戶提供更多他們可能喜歡的內容。 

AI有如我們想像中一般的人工智慧嗎?僅為情境配圖。圖片來自pexels
AI有如我們想像中一般的人工智慧嗎?僅為情境配圖。圖片來自pexels

AI的訓練階段需要大量人工介入

但抖音的AI專長僅止於此,要應用於內容辨識還有一段距離。該公司使用大量人工來幫助其平台清除有害內容,當抖音(其他平台亦同)的內容版主標記要刪除的內容時,除了將其刪除,他們還收集有關其違反的特定政策的原因,這些資料可用於訓練平台的機器學習系統,以便在未來更好地識別此類內容。 

這就是AI的一個大問題,需要大量的標記過的訓練資料。一開始要讓AI知道那些影片是不適當的,一定是人要去告訴AI。所以AI的訓練階段需要大量人工介入。AI的確創造了新的工作,但卻是這種重複和乏味且有時噁心(想想看要看那麼多令人厭惡的影片)的工作。 

當然這種低薪沒成就的工作很難找到工人,有些AI公司就到監獄找廉價人力,有些就到低薪國家,例如哥倫比亞。

因為抖音在拉丁美洲的快速增長,據估計在該地區擁有一億用戶,所以抖音透過人力仲介在哥倫比亞僱了數百名版主,來跟無止境的且令人不安的內容進行一場永無休止的戰鬥,他們每週工作六天,晝夜輪班,其中一些人的月薪不到1萬台幣 

觀看諸如色情或暴力或恐怖的影片是內容版主每天的日常工作,但對於因此而導致的職業創傷公司並沒有足夠的心理輔導,每天被監視,還要求不可能達到的績效目標,否則遭受懲罰性減薪和苛責。  

AI需要大量標記過的訓練資料,所以在訓練階段需要大量人工介入,僅為情境配圖。圖片來自pexels
AI需要大量標記過的訓練資料,所以在訓練階段需要大量人工介入,僅為情境配圖。圖片來自pexels


AI有時難以完成相對簡單的任務,例如發現已被刪除的恐怖影片的副本,所以要求AI認識以前從未見過的內容簡直是不可能的任務。人腦是識別有害內容的最有效工具,當有害內容以AI可能無法識別的新格式和新情境上傳時,人類變得特別有用。 

分析比照片和文字更複雜的影片需要更多的計算能力。這意味著創建用於審核影片的AI系統特別昂貴。如果從金錢的角度來看待這個問題,那麼內容審核AI系統,先不考慮它的不完美,無法與每小時2美元工資的工人競爭。 

當影片監視員只是AI系統需要的一個例子未來很多AI自動系統(例如自駕車)是否要配有一位安全監控人員,他們單調地看著AI系統運作,無所事事,或許必要時關掉電源,但出事時可能要負責任。這些新工作可並不怎麼高科技或高薪,責任和報酬不成比例 

所有這類工作都屬於一本書《幽靈工作:如何阻止矽谷建立一個新的全球下層階級》中所說的幽靈工作(Ghost Work)所以當看到一個偉大的AI系統時,大家千萬不要忘記當初訓練AI的那批人呀 

本文章反映作者意見,不代表《遠見》立場

加入遠見雜誌LINE好友,接收更多好文章!

看更多遠見華人精英論壇文章:
元宇宙不靈?Meta竟用AI演算法「隨機」解僱60名員工!
聲音也能Deepfake!AI是改善生活,還是招來新噩夢?
資安專家:駭客讓受害者自願變共犯,在網路犯罪成唯一