研究:臉書演算法不會改變用戶信念

(中央社華盛頓27日綜合外電報導)究竟臉書(Facebook)演算法是否會改變選民的態度,常成為選戰中的爭議性話題。一份今天公布的研究結果顯示,臉書演算法不會改變用戶的信念。

法新社報導,針對社群媒體的「回音室」(echo chamber)效應,會不會讓政治上的兩極化更為加深,或只是反應現有的社會分歧?一份具里程碑意義的研究,今天公布第一份結果。

一個針對臉書在2020年美國總統大選期間的演算法及用戶態度所進行的調查,發現與先前的假設正好相反的情況,該平台經常受到批評的內容演算法,並沒有塑造用戶的信念。

這個研究是臉書和Instagram的母公司Meta,與一群來自美國大學的學者攜手合作進行,這些學者可以接觸該公司內部的數據資料,並與數萬名用戶簽約以進行實驗。

這個學術團隊撰寫4份研究報告,探討社群媒體巨擘臉書在美國的民主中扮演的角色,這些研究報告發表在科學期刊「科學」(Science)和「自然」(Nature)上。

研究主持人德州大學奧斯汀分校(The University of Texas at Austin)的史特勞德(Talia Stroud)和紐約大學(New York University)的塔克(Joshua Tucker)表示,整體來說,演算法對人們的平台使用體驗影響極大。

換句話說,演算法大大影響使用者會看到什麼、他們會看多久。

他們說:「但我們也知道,即使改變演算法幾個月,也不太可能改變人們的政治態度。」這是根據用戶參加為期3個月的實驗後,針對調查所做的回答而衡量得出。

研究作者坦承,這樣的結論可能是因為這些變化出現的時間不夠長,不足以產生影響,畢竟美國這幾十年本來就不斷在變得更兩極化。

發表在「自然」上一篇研究報告的作者寫道:「當今普遍將當代美國民主問題歸咎於社群媒體的回音室效應,這些發現挑戰了這樣的說法。」(譯者:李晉緯/核稿:嚴思祺)1120728