本周末,數家主流媒體都有根據Facebook前員工Frances Haugen泄露的公司內部文件發表了新的報導,這使得對Facebook的批評之聲變得更加強烈。上周六,《紐約時報》和《華爾街日報》都發表了關於Facebook在印度服務中的錯誤信息和仇恨言論的報導,印度是該公司的最大市場。
其中,《華盛頓郵報》報導了Facebook員工對該網站在錯誤信息的傳播中所扮演的角色的擔憂,這些錯誤信息對1月6日美國國會大廈的致命襲擊起了推波助瀾的作用。
《華盛頓郵報》的報導緊隨彭博社和NBC News周五的報導,這些報導也關注了美國Facebook上錯誤信息的傳播,而這些報導是在《華爾街日報》和《紐約時報》周五的類似報導之上。
《紐約時報》在關於有關這家社交網絡和印度的報導中稱,2019年2月,一名Facebook研究人員在印度喀拉拉邦開設了一個新的用戶帳號以了解那裡的網站用戶會看到什麼。該研究人員按照社交網絡算法產生的建議,在Facebook上觀看視頻、查看新頁面和加入群組。據《紐約時報》報導,當月晚些時候,Facebook的一份內部報告稱--「測試用戶的News Feed已經成為一個幾乎持續不斷的極化民族主義內容、錯誤信息、暴力和血腥的炮台。」
這跟2019年美國Facebook研究人員進行的一個類似項目的結果相呼應,該研究人員為北卡羅來納州的一個虛構的「保守派母親」設立了一個測試帳號。據NBC News報導,兩天後,該社交網絡就推薦她加入專門討論虛假的QAnon陰謀論的團體。據NBC報導,Facebook的一份內部報告中概述了這一實驗,這份報告的名字叫《Carol's Journey to QAnon》,《紐約時報》、《華爾街日報》和《華爾街郵報》也引用了這份文件。
NBC News報導稱:「研究機構一直發現Facebook將一些用戶推入『兔子洞』,即越來越狹窄的回音室,暴力陰謀論在這裡興起。雖然通過這些兔子洞被激進化的人只占總用戶的一小部分,但以Facebook的規模,這可能意味著數百萬人。」
基於Haugen曝光的文件的大量新報導是在《華爾街日報》早些時候的調查之後進行的,該調查依靠的是同樣的信息庫。這些新報導也是在Haugen本月在美國國會作證之後發生的,因為美國和其他地方的立法者正在糾結是否對Facebook和其他大型科技公司進行監管以及如果監管該如何監管。Haugen定於周一在美議會面前作證。
從廣義上講,這個問題涉及到是否可以依靠Facebook負責任地平衡商業動機和社會關切,以及消除在其各種社交網絡平台上傳播的大量危險內容。該公司的算法推動了用戶參與,但當涉及到錯誤信息、仇恨言論等時它們也會造成問題。既要尊重言論自由又要打擊有問題的帖子,這讓問題變得複雜。
批評者稱,當涉及到監督其平台時,Facebook已經丟了太多次球,並且該公司把利潤放在了人的前面。Haugen在美國國會的證詞中稱,Facebook的產品傷害了兒童、煽動了分裂、削弱了民主。
另一方面,Facebook表示,內部文件遭到了外界的歪曲,有人對這個社交網絡巨頭描繪了一幅「錯誤的畫面」。CEO馬克·扎克伯格本月早些時候在給員工的電子郵件中寫道:「我相信你們中的許多人都發現最近的報導很難閱讀,因為它沒有反映出我們所了解的公司。我們非常關心安全、福祉和心理健康等問題。」
周六,Facebook沒有立即回應關於基於Haugen曝光的文件的新一批報告的評論請求。在周五的一篇博文中,Facebook誠信工作負責人為該公司保護2020年美國總統選舉的行動進行了辯護,另外還概述了該社交網絡採取的措施。
關於《紐約時報》有關印度的報導,Facbook發言人告訴該新聞機構,該社交網絡已將大量資源投入到旨在根除包括印地語和孟加拉語在內的各種語言的仇恨言論的技術中,今年,Facebook已將全球用戶看到的仇恨言論數量減半。
關於其《Carol's Journey to QAnon》報告,Facebook發言人告訴NBC News,該文件指出該公司努力解決圍繞危險內容的問題。「雖然這是對一個假設用戶的研究,但它是公司為改善我們的系統所做的研究的一個完美例子並幫助我們做出了從平台上刪除QAnon的決定。」