美国脸书公司遭遇的严峻信任危机持续发酵。当地时间25号,在英国议会一个审查网络安全立法的特别委员会举行的听证会上,脸书前产品经理、后来成为“吹哨人”的弗朗西丝·豪根表示,脸书的算法设计旨在放大分裂和极端内容,会加剧社会仇恨。

豪根在作证时指出,“脸书”滥用人工智能和算法,优先向用户推送分裂和极端内容,并将这些内容集中在一起形成放大效果,这无疑会加剧仇恨、煽动暴力。而在遭受质疑时,脸书总能找到开脱的说辞。

豪根表示,脸书擅长操控数据,工作人员即便发现了仇恨言论泛滥,也没有及时撤下内容。在脸书内部、仇恨言论被删除的比例大约只有3%到5%。豪根同时指出,脸书的安全系统很少,在非英语语言方面的投资不足,这是极其不负责任的。

此次英国议会特别委员会正在审查英国政府打击有害网络内容的立法草案,豪根的证词可能有助完善相关规定。据了解,豪根还将继续前往欧洲其他国家会见相关监管部门。

本月初,豪根曾出席美国国会参议院的听证会,指认“脸书”及其旗下多款社交媒体产品正在伤害青少年群体,并进一步加剧美国社会的分裂。脸书方面则表示,无法认同豪根在听证会上对诸多问题的定性。不过,该公司同意应对互联网制定标准规则。

来源:环球国际视频通讯社

编辑:马超然

责编:刘婧

相关文章