摘要:文中的核心论据是近几年越来越受人关注的AI语音,建议书认为,目前几乎所有的语音助手,都有着女性的名字和声音,并被设置成统一的、温顺的女性形象,这种设置的结果,长期看很可能会导致性别歧视。非也,专门研究人机互动的研究者早已认识到,造成这种情况的原因很可能是,将女性当作养育者的传统社会规范和其他社会建构的性别偏见,影响了人们对声音的认知。

不久前,联合国教科文组织与德国政府、EQUALS技能联盟共同出版了一份长达145页的建议书-《如果我能,我会脸红》。

这份建议书,主要目的是指出人工智能在性别上的偏见,并希望科技公司注意这个问题。文中的核心论据是近几年越来越受人关注的AI语音,建议书认为,目前几乎所有的语音助手,都有着女性的名字和声音,并被设置成统一的、温顺的女性形象,这种设置的结果,长期看很可能会导致性别歧视。

首先,人们为什么会有这种担心?

根据联合国教科文组织性别平等部门负责人珂拉特的观点,各类机器正以顺从、谦卑的女性形象出现在人们的家庭、汽车和办公室里。这种强行设定的服从形象,会影响人们与女性声音交流的方式,以及女性面对他人要求时的回应模式,这会潜移默化地影响人们对女性性格、职能和交流方式的判断,从而形成从属关系。

同时,珂拉特还强调,难道人们真的天生就喜欢女声吗?非也,专门研究人机互动的研究者早已认识到,造成这种情况的原因很可能是,将女性当作养育者的传统社会规范和其他社会建构的性别偏见,影响了人们对声音的认知。

其次,为何语音助手几乎都是女性?

联合国教科文组织的观点不无道理,这种担心也确实需要存在。

从事实看,当下几乎所有的语音助手确实都是女性的声音,起码默认的是女性的声音。目前,业内领先的AI语音助手有亚马逊Alexa、微软Cortana(小娜,还有后来的小冰)、苹果Siri和谷歌的语音助手,它们或只有女声,或默认声音为女声。其中,Siri花了差不多两年的时间才有男性配音,谷歌助手花了一年时间,Cortana和Alexa问世四年多,至今仍然只有女声。

再联想到我们中国的互联网巨头,阿里、小米、百度等大公司纷纷推出智能音箱产品,天猫精灵、小爱同学、小度等AI语音助手搭载着音箱走入千家万户,它们的默认声音也全都是女声。

所谓百花齐放才是春,如果某一种事物只有一种形式,则必然是有问题的,语音助手显然存在这个问题。

那么人们为什么会不约而同地选择了这种形式呢?

大部分的观点无外乎以下三点。

1、女性的声音更好听,更具有关怀性,性别是优势,而不是歧视。

确实,从声音属性上来说,女性的声音的确更容易让人接受,特别是与生俱来的关怀感,成为人们首选的主要因素。这一点也很容易理解,毕竟人都是妈妈生的,不像孙悟空是从石头缝里面蹦出来的,所以女性天然有着亲和力,这种情况下,无论是男性科研者还是女性科研者,在赋予机器人声音的时候,首选肯定是女性。

2,可能跟当下科研人员男女比例有关。当前,前沿科技的主导者以男性为主,女性虽然所占的比重在逐年增加,可是比例上依然是失调的。数据显示,在人工智能开发人员中,仅12%是女性;软件开发人员中的女性比例低至6%;信息通信技术专利申请人中的男女性别比例为13:1。按照同性相斥原理,男性做语音选择的时候,自然也会不自觉地选择女性的声音。

3,社会认识惯性。人工智能的目的是通过机器人来更好地为人类服务,本质上看,人类是主导者,机器人是执行者,在相互关系上是从属关系。对于人类来说,选择执行者的时候,自然会下意识地认为女性在性格上更温和、更听话。这种下意识正是问题所在,也是联合国科教文组织担心的主要原因。

从以上可以看出,第一个观点是合理的,并无不妥。第二个观点也是客观事实,要解决这个问题非短期内就能够快速见效的。第三个观点则需要我们真正关心,人们的偏往往存在潜意识里面,很多时候我们自己都没有意识到,而这也是性别平等的最关键问题所在。

作为人工智能的开发者,是引导者,是规则的制定者,应该提供更多样性的选择,可以是女性声音,也可以是男性声音,也可以是中性声音,默认设置甚至可以随机,这一点非常重要。

相关文章