记者 | 吴洋洋

编辑 | 陈   锐

上周,IBM亚马逊微软相继发表声明,宣布不再向警方提供人脸识别技术。其中,亚马逊表示将对向警察出售人脸识别工具的业务暂停一年;微软把禁售期设置在了“监管人脸识别技术的联邦法律出台之前”;IBM最先表态也最彻底,声称将永久停止提供其人脸识别软件作“大规模监控或种族归纳”之用。

对包括人脸识别在内的AI侵犯隐私的声讨由来已久,但它并不是这些技术公司此次表态的直接原因。

5月25日,非裔美国人乔治·弗洛伊德(George Floyd)在明尼苏达州涉嫌使用假钞被捕,并被警察以压颈执法致死。事件引发美国社会以“BLM(Black Lives Matter,黑人的命也是命)”为口号的反种族歧视运动。

在美国,IBM、亚马逊、微软等公司都曾不同程度地向美国执法机构交付过人脸识别工具。通过这类工具,警察可以在街头巡逻时快速比对他们手机摄像头中的图片,还能将其与警察数据库中的数十万张照片做匹配。这种人脸识别工具强化了警察的能力,也自带偏见。

在科技公司站出来之前,以价值观著称的Nike星巴克等消费品公司都已发声,Nike在一支广告片中将其品牌口号“Just do it”临时性地改成了“Don’t do it”;星巴克也从6月12日起允许员工穿戴BLM相关的服饰,并发放了25万件相关配饰给员工。

为什么是IBM开了这个头?

在写给国会议员的那封信中,CEO克里什纳的具体表述为,IBM将不再提供基于通用目的的人脸识别技术和分析软件。

一表述被认为模棱两可,比如位于伦敦的名为国际隐私(Privacy International)的NGO在接受BBC采访时,对其的一种解读就是:那么是否还可以继续提供基于定制的人脸识别技术和分析软件?

IBM在该领域的行业地位是外界质疑其出发点的主要原因——在人脸识别领域,IBM的市场份额其实很小。

准确说,包括人脸识别在内的人工智能技术本身并不是独立的产品,只是一种底层技术——其前端需要诸如智能摄像头、智能手机、智慧门铃等终端设备,后端需要云计算设施存储和处理数据。

在美国,拥有这项技术的技术公司比如亚马逊、微软等之所以出售这项技术,主要是为了销售它们的终端产品和辅助的云计算服务,而IBM在这两个场景中的市场份额都很小。IBM 的人脸识别主打产品Watson visual detection的主要使用场景为安防领域,主要客户则是政府安保部门或其他安防机构。

根据市场研究机构Gartner的数据,2019年,全球云计算市场中份额最高的公司是亚马逊(45%),其次是微软(17.9%)和阿里云(9.1%),Google拥有5.3%的份额,剩余23.7%的份额由“其他”数家公司共享——IBM属于“其他”这部分。

IBM在这一领域其实失意已久,尽管它原本算得上人工智能时代的领头羊。早在2008年,时任CEO彭明盛就提出了“智慧地球”这一概念,并建议当时的奥巴马政府投资新一代的智慧型基础设施。这个概念成为后来“智慧城市”的雏形,其标配就是智能摄像头、传感器、图像识别以及人脸识别。

而在更早的1997 年,IBM的人工智能程序“深蓝”就战胜了国际象棋冠军卡斯帕洛夫。

但IBM一直缺乏为这些技术寻找落地场景、将它们进一步商业化的能力。

与其对照,亚马逊通过不断在新拓展的场景中应用新技术,拿到了从云计算到人工智能的实际市场份额。就人工智能而言,这个零售商除了可以直接向警察销售的人脸识别软件Rekognition,还有面向普通消费者的智慧门铃Ring、智能音箱Echo等。

被回避的问题:

AI滥用及其对隐私的侵犯

IBM在信中呼吁对用于执法的人工智能系统做“偏见测试(bias test)”。不过,尚没有证据表明5月25日当天警察之所以执法过当,跟George Floyd曾有的犯罪记录或者警察是否使用了相应的AI工具有什么关联。

IBM下了一步险棋。它表现了一家老牌技术公司在消除歧视方面的社会责任,将反思之火烧到比人脸识别、比偏见更深远的领域,直到到达问题的核心——人们对AI滥用及其侵犯隐私的担忧。

当今美国最严厉的隐私法是《加利福尼亚消费者隐私法》(California Consumer Privacy Act),这项法律刚刚于2020年1月1日生效。根据法律,加利福尼亚的消费者不仅有权知道自己的数据是出售还是转让给第三方,而且他们还有权阻止交易。

但是交易只是数据价值的一部分,即使这项“最严厉”的法律也没有对技术公司可以如何获取数据、使用用户数据做出规定。更遑论执法上的难度,技术作者Charlie Warzel在《纽约时报》今年1月的一份评论中称:有关公司只是虚假地声称他们遵守隐私法,因为他们知道监管机构根本不会对其审查。

并不中立的AI

在BLM运动爆发前,有关AI偏见、AI歧视的研究和讨论已持续数年。

AI并不像外界料想的那般中立,“它能增强现有偏见和歧视。”普华永道咨询公司的AI道德专家(AI ethics expert)Maria Axente说。

这种被强化的偏见危害深远。 使用AI推荐Spotify上的歌曲或Netflix上的电影,即使推荐不合口味也不会有多糟糕的后果,但如果一个AI可以决定贷款给谁、或者对患者究竟患了何种疾病做出诊断,那它是否有偏见就事关生存和生命。

2017年,算法正义联盟(Algorithmic Justice League)创始人Joy Buolamwini 对IBM、微软、旷视3家公司的人脸识别算法做了偏见测试。他收集了来自3个非洲国家和3个欧洲国家的1270张人脸照片,交给三家公司的产品识别,结果显示,三个产品对女性的识别率低于男性、对深色人种的识别准确率远低于白种人。其中,IBM的算法准确率误差最大,其对浅肤色男性和深肤色女性的错误率相差达到了34.4%。

造成算法“偏见”的原因很简单——主要是由数据量不足造成的。美国国家标准技术研究所和德克萨斯大学达拉斯分校的研究人员在2010年发表的一项研究就指出,东亚设计和测试的算法在识别东亚人方面更好,而西方国家设计的算法在发现高加索人方面更准确。造成这种结果的直接原因是它们能收集到的数据种类及其规模。

但算法偏见也不纯粹是个技术问题。2017年,微软旗下的人工智能聊天机器人Tay在Twitter上线,这款机器人推出的目标是与18-24岁的年轻人互动,并通过这种互动学习、训练。然而24个小时后,Tay就因辱骂用户、发表种族主义评论等表现被迅速撤下。事故之后,微软换上了经过内容审查的版本Zo,但它并没有找到根本性地解决问题的办法。

机器人Tay的账号已经被撤销 。

不会停止的博弈:

激进分子、道德主义与技术中立者的博弈

对于究竟哪些数据算隐私、哪些可以被冒犯而哪些又可以妥协,社会并没有一致意见。

如果将对隐私的态度画出一条光谱,技术极客和激进的人权组织、保守的立法者会分立这条光谱的两端,技术公司则居于中间——他们大部分都是技术中立者。

欧盟市场竞争事务与反垄断委员维斯塔格(Margrethe Vestager) 认为,在人脸识别技术变得“无处不在”之前,政府需要对这项技术做出限制。

2018年5月,欧盟《通用数据保护条例》(GDPR)开始实施。根据条例,凡在欧盟运营或处理欧盟数据的公司,都必须在收集数据之前获得用户同意。同时,公司还必须向用户提供“被遗忘的权利”——根据要求删除其信息。

亚马逊网络服务部的一位负责人曾对BBC称,应该由政治家决定是否应该对AI实施限制措施。这种说法代表了绝大多数技术公司及其股东的立场。

亚马逊的部分股东曾试图反对亚马逊向警方出售人脸识别技术,但在2019年5月举行的一次股东大会上,股东们就该议题投票,希望禁止政府使用Rekognition软件的提案获得了将近830万张选票,但支持既有业务维持下去的票数达到3.27亿张,另有大约550万弃权——反对向警方出售Rekognition软件的股东仅有2.4%。

无论接受与否,隐私在消逝。商业就是这样。

相关文章