社交媒體、極端主義和激進化

文 / 柳子厚
在美國,2018 年匹茲堡生命之樹猶太教堂槍手的判決以及前總統涉嫌陰謀和騷亂中的角色而被傳訊,主導了新聞。由於這兩起事件部分是在社交媒體上的極端主義網路中受到啟發、策劃和記錄的,公眾對此類事件的反思應該重新引發人們對社交媒體在美國公共生活中極端主義激進化中的作用的質疑。ANNIE Y. CHEN發表在最新一期《科學》(Science) 的<社交媒體、極端主義和激進化>(Social media, extremism, and radicalization)說,許多人會指責社交媒體平台——特別是他們分類和推薦內容的演算法——是極端主義思想的傳播。然而,經驗證據,包括Annie Y. Chen在本期《科學進展》中領導的一項對YouTube的研究,揭示了一個更複雜的現實。這些平台及其演算法很少推薦極端主義內容,但對於那些持有極端主義信仰的人來說,它們仍然是強大的工具。激進的使用者仍然可以使用社交媒體來獲取和傳播思想,建立團結,或計劃和宣傳令人震驚的行為。
用戶接觸到極端主義內容,將他們推入「兔子洞」
事實上,儘管努力刪除或降低極端主義內容的可見性,但像YouTube這樣的社交媒體平台繼續為支援暴力,仇恨和各種陰謀主義思想的內容提供熱情好客的環境。對社交媒體造成的弊病的批評性報導已經司空見慣,但細節仍然很重要。YouTube於2005年推出,2006年被谷歌(現為Alphabet)收購,是美國最受歡迎的社交媒體平台之一。YouTube的推薦演演算法推動了網站上的大量內容消費,因出現仇恨言論,毫無根據的謠言,錯誤資訊,惡作劇和陰謀而臭名昭著。該平台的建議,所以故事是這樣的,讓普通用戶接觸到極端主義內容,將他們推入(通常是右翼)激進化的「兔子洞」。
YouTube是「偉大的激進分子」?
兔子洞的故事在2016年美國總統大選之後獲得了關注。以Zeynep Tufekci在2018年《紐約時報》上的一篇專欄文章為例,令人窒息的觀察者宣稱YouTube是「偉大的激進分子」,並認為其推薦工具「可能是21世紀最強大的激進化工具之一」。《愛麗絲夢遊仙境》中無辜者通過演算法經歷極端主義傳染的景象反映了對技術道德恐慌的典型幻想和恐懼的混合。這種談話還涉及一種粗糙的、過時的直接媒體效應理論。僅僅讓某人接觸那些支持遙遠想法的媒體不太可能改變他們的觀點。根深柢固的觀點不像空氣傳播的疾病在幾個呼吸中傳播。相反,行為和信仰的傳染是複雜的,需要強化才能流行起來。
許多干預措施減少了仇恨和危險內容
儘管如此,兔子洞的願景,僅由軼事支援,在2019年之前可能更準確,當時YouTube引入了一些變化,使極端主義內容不那麼明顯。直到幾年後,很少有經驗證據被公佈(YouTube持有但沒有發佈可能支援獨立測試的數據)。其他平台,包括Facebook,Reddit和X(前身為Twitter),同樣擴大了審核策略,以回應越來越多的批評,因為它們在託管仇恨言論,不文明行為和更糟糕的事情方面的作用。許多干預措施減少了仇恨和危險內容。換句話說,面對仇恨和不文明內容的激增,社交媒體平台和社會遠非無能為力,相反,他們越來越有能力識別它並盡量減少其影響。
暴力極端主義在美國社會早於社交媒體
由Chen與Brendan Nyhan,Jason Reifler,Ronald E. Robertson和Christo Wilson合作領導的新研究發現,接觸另類和極端主義YouTube視頻的用戶已經對種族和性別持不滿態度,並通過頻道訂閱和其他網站的推薦來尋找這些內容。這些網站包括Parler和Gab等邊緣社交媒體平台,這兩個平台都接受激進寬鬆的內容政策和極端主義政治運動。相比之下,YouTube中的演算法推薦只能為另類和極端主義內容帶來非常小的流量。在最後一個方面,研究結果呼應了最近發表在《美國國家科學院院刊》上的一篇文章,該文章首次記錄了YouTube使用者中兔子洞事件的稀缺性。Chen及其同事的一個關鍵貢獻包括匹配的調查和網路瀏覽數據,這使他們能夠解開在線行為與先前信念之間的關係。這樣做表明,另類和極端主義內容的消費者以前支援極端主義信仰。該研究不能排除這些人在2019年之前通過YouTube推薦獲得極端主義觀點的可能性,但是,在某些時候,我們應該記得暴力極端主義在美國社會中有著根深柢固的歷史,早於社交媒體。
社交媒體的使用和治理領域仍然令人擔憂
YouTube上極端主義內容的很大一部分消費者來自其他極端主義網站,這一事實也說明了社交媒體在美國當代極端主義暴力流行病中的獨特,有害和經驗記錄的作用參與極端主義在線空間與隨後極端主義內亂事件的參與增加相關。值得慶幸的是,大多數此類事件既不是大規模槍擊事件,也不是選舉瀆職行為,但兩者都有助於說明這種模式。生命之樹射手似乎在網上與暴力反猶太團體接觸。6月事件暴風雨的肇事者在各個平台和社區之間進行協調。與志同道合的極端分子社區接觸並做出貢獻可能首先不會導致這些人接受這種激進的信仰,但他們在網上找到的社會支援可能促使他們採取更極端的觀點並採取他們曾經可能認為是禁忌的行動。未來的研究應該繼續拉動這些線索。
與此同時,社交媒體的使用和治理領域仍然令人擔憂。隨著年輕使用者和其他人聚集在TikTok等新平台或Mastodon等去中心化環境中,在線生態系統已經支離破碎。在 2020 年大選前後,兩極分化和錯誤資訊更充斥的右翼媒體來源在 Facebook 上的知名度和參與度更高(10)。在2020年大選前後為防止錯誤資訊在網上傳播而實施的平台保障措施在2024年之前已被削弱。埃隆·馬斯克(Elon Musk)已經拆除了X的大部分信任和安全基礎設施,並且似乎對極端主義言論的承諾比文明更深。俄亥俄州共和黨眾議員、眾議院司法委員會主席吉姆·喬丹(Jim Jordan)對2020年試圖保護選舉誠信的社交媒體公司和學術研究人員的行為發起了一項繁瑣的、可選擇證據的調查。喬丹瞄準了華盛頓大學的凱特·斯塔伯德(Kate Starbird),她的主要錯誤似乎已經工作了十多年,以識別社交媒體中的危險謠言並與感興趣的各方分享調查結果。大型語言模型和生成式人工智慧工具的採用將帶來新的挑戰和顛覆。
減少仇恨言論,騷擾和有害陰謀論的傳播
動蕩的環境是Chen和同事們的工作之所以重要的一部分。演演算法推薦系統、內容審核和數位媒體的科學必須繼續快速發展。我們必須繼續調查威脅公共安全和機構完整性的思想傳播、紮根和危及生命的手段。
這些平台提出了一個移動的目標。僅僅因為他們今天沒有偶然地讓訪問者接觸到激進的極端主義內容,並不意味著他們從未這樣做過或不會再這樣做。此外,Chen及其同事的研究證實,像YouTube這樣的平台可以而且應該做更多的事情來限制極端主義內容的覆蓋面,以吸引尋求它的忠實受眾。至少,YouTube及其母公司Alphabet應該從與其公開承諾相矛盾的內容相關的創收活動中剝離,以減少仇恨言論,騷擾和有害陰謀論的傳播。