美國臉書公司遭遇的嚴峻信任危機持續發酵。當地時間25號,在英國議會一個審查網絡安全立法的特別委員會舉行的聽證會上,臉書前產品經理、後來成爲“吹哨人”的弗朗西絲·豪根表示,臉書的算法設計旨在放大分裂和極端內容,會加劇社會仇恨。

豪根在作證時指出,“臉書”濫用人工智能和算法,優先向用戶推送分裂和極端內容,並將這些內容集中在一起形成放大效果,這無疑會加劇仇恨、煽動暴力。而在遭受質疑時,臉書總能找到開脫的說辭。

豪根表示,臉書擅長操控數據,工作人員即便發現了仇恨言論氾濫,也沒有及時撤下內容。在臉書內部、仇恨言論被刪除的比例大約只有3%到5%。豪根同時指出,臉書的安全系統很少,在非英語語言方面的投資不足,這是極其不負責任的。

此次英國議會特別委員會正在審查英國政府打擊有害網絡內容的立法草案,豪根的證詞可能有助完善相關規定。據瞭解,豪根還將繼續前往歐洲其他國家會見相關監管部門。

本月初,豪根曾出席美國國會參議院的聽證會,指認“臉書”及其旗下多款社交媒體產品正在傷害青少年羣體,並進一步加劇美國社會的分裂。臉書方面則表示,無法認同豪根在聽證會上對諸多問題的定性。不過,該公司同意應對互聯網制定標準規則。

來源:環球國際視頻通訊社

編輯:馬超然

責編:劉婧

相關文章