Facebook计划在欧洲招聘1万人,建立名为“元宇宙”的虚拟世界

北京时间10月26日早间消息,据报道,Facebook前员工弗朗西丝・豪根(Frances Haugen)对英国议会表示,如果Facebook平台不停止他们热推极端和撕裂性内容的算法,则该平台将会在全世界煽动更多的暴力骚乱活动。

继续抨击

本月初,豪根参加了美国国会参议院的一个听证会,继续曝光Facebook黑幕,她指控Facebook这个社交网络巨头把利润放在用户安全之上。周一,她表示很赞赏英国政府有关强制大型科技公司整顿对社会有害内容的计划。

豪根对英国议会表示,Facebook把在线平台安全视为一个成本负担,该公司有一种初创公司的企业文化,即千方百计削减成本是好事。豪根说道:“毫无疑问,这种文化导致仇恨内容更加泛滥。”

豪根揭露说,Facebook的业务重点在美国,因此在全球许多国家地区,该公司缺乏掌握本地语言的工作人员,因此无法了解平台上一些言论的恶毒性和危险性,该公司对这些内容带来的社会负面影响采取了“故意睁眼瞎”的态度。

Facebook驳斥

不过,对于豪根的爆料,Facebook进行了驳斥。本月初,Facebook首席执行官扎克伯格表示,所谓Facebook故意推送让用户愤怒的内容,这种说法完全不符合逻辑。

在周一的一份声明中,Facebook表示,和听证会上讨论的说法正好相反,Facebook一直以来有这个商业动机,那就是从各个社交平台上删除有害信息,“用户使用我们的应用时,不想看到这些内容,广告主也不希望自己的广告出现在有害信息旁边。”

Facebook公司之前表示,已经投入了130亿美元经费保证用户的安全,另外公司也同意社交媒体行业需要新的监管制度。该公司还称,对于英国议会积极推动有关在线平台用户安全的法律感到欣慰。

除了同名社交平台之外,Facebook还拥有Instagram和WhatsApp这两大移动聊天工具。之前,美国议员们抨击Facebook只顾追求更高的利润,毫不在乎用户安全。

根据英国议会正在推动的新法律,如果社交平台未能够删除或者限制非法内容的传播,则将面临政府高达年营业收入一成的巨额罚款。

堪比鸦片

周一,豪根表示,今天在全世界各地发生的事件,比如缅甸或者埃塞俄比亚,这仅仅是开始。Facebook基于用户交互的算法只做两件事情,第一,平台更加重视、并且放大社会撕裂性的极端内容,第二,平台会聚焦这种有害内容。

本月初,豪根在美国国会参议院一个委员会的听证会上表示,Facebook已经想出各种办法诱使用户持续刷内容,哪怕这些信息会对用户造成损害。

豪根也承认,她本人对外提供了有关Facebook的一些内部文件,这些文件被用于美国一家权威财经媒体的调查新闻,以及美国国会参议院有关Instgram平台对于少女用户有害性的听证会。豪根把Facebook平台比喻为令人上瘾的物品,比如烟草或是鸦片。

目前,Facebook在全世界190多个国家地区运营,自称拥有28亿月度活跃用户。

欧洲之行

在出席周一英国议会听证会之前,豪根会见了英国内政大臣普丽蒂·帕特尔(Priti Patel)。需要指出的是,帕特尔正在积极推动英国制定更严格立法,惩罚那些不能保障用户安全的科技平台。

接下来,豪根下个星期将在另外一个重要科技大会“网络峰会”(Web Summit)上发言,随后还将前往布鲁塞尔,会见欧盟总部的政策制定者。

豪根周一表示,Facebook根本不愿意为了提升用户安全牺牲一小点利润,这是不可接受的。她尤其强调了Instgram平台对于青少年用户心理健康的影响。

之前,豪根向美国证券交易委员会和美国国会举报的一些Facebook内部文件,已经被许多媒体获得,一系列黑幕报道也见诸报端。

这些内部文件证明,Facebook很清楚自身的一些问题,比如在许多发展中国家,没有招聘到足够多知晓当地语言和风俗活动的员工,来快速锁定有害言论和内容。

相关文章