随着人工智能和机器人技术取得巨大进步,问题来了,同理心和情绪是可以被设计和复制的,还是它们是不可替代的、对人类来说独一无二的宝贵品质?

今年6月的一个下午,在IBM位于旧金山的总部,听众们就座见证了自苏格拉底时代以来一直是文明社会标志的一项传统——现场辩论。讨论的第一个话题是:“我们应该资助太空探索。”反对这一声明的是Dan Zafrir和2016年以色列全国辩论冠军Noa Ovadia。他们的对手是一个182厘米高的盒子,里面放着一个名为Project Debater的人工智能(AI)软件。双方的任务是就这个问题发表一份四分钟的开场白——双方都不知道这个问题的答案——然后进行四分钟的反驳和两分钟的总结。

为了形成有力的反驳,人工智能必须“倾听”对手的论点。它的回答必须遵循无脚本的推理,提出人们会同意的论点,不是根据客观得分的逻辑,而是根据主观投票来判断获胜者;人工智能需要劝诱。辩论结束后,组织者向观众进行了仔细的游说。Project Debater 通过引用消息来源,甚至讲笑话,被判定稳操胜局。在关于远程医疗的第二场辩论中,它也表现得很好,足以证明计算机有朝一日可能具有类似人类决策的能力。然而,当我们惊叹于尖端技术的进步时,不那么浮夸的人工智能形式正悄悄进入我们的日常生活。国际机器人联合会(International Federation of Robotics)预测,到2020年,全球工厂将安装170万台新机器人。今年4月,美国食品和药物管理局(FDA)批准IDx向眼科医生销售一种人工智能驱动的诊断设备。但是,病人会满足于像医疗保健这样的私人机器吗?

一种思路是,随着机器人和人工智能在工作场所变得越来越普遍,独特的人类技能和素质将得到重新评价。专门从事无人机和数据的测绘和测量公司Firmatek的总裁Lauren Elmore持这种观点。“我确实认为……“‘人的因素’将成为一个差异化因素,”她表示。“我很少想到聊天机器人能满足我的需求。”

近年来,Firmatek扩大了它的人际交往——Elmore称之为公司的“人的因素”——作为其商业战略的一个独特部分。次要的行政问题通过电子邮件处理。否则,如果客户有Elmore所说的“为什么”问题,Firmatek的专家会安排一个网络研讨会。她还鼓励通过电话交流。她表示:“我们发现,通常更有效的做法是,拿起电话给客户打电话,以减轻客户的恐惧或回答他们的问题。当我们与他们交谈时,他们也会感到被重视,而不是仅仅通过我们的系统接收电子邮件。”

的确,自动反应往往感觉肤浅,但如果机器人能够忠实地模仿人类,哪怕只是在特定的环境下,效果又会是怎样呢?越来越多的技术开发人员和公司相信,只有变得更像人类,人工智能系统才能充分发挥其潜力。他们致力于给机器注入“人工情感智能”。情感人工智能领域的领军人物是Affectiva,由麻省理工学院(MIT)媒体实验室的Rosalind Picard和Rana el Kaliouby创立。这对搭档的第一个项目是针对自闭症患者的,这是一种扫描人脸并为佩戴者解读社交线索的设备。Affectiva的首批客户中,有广告客户希望利用这项技术来衡量竞选活动的影响。el Kaliouby在《麻省理工技术评论》(MIT Technology Review)中写道:“我们现在被超连接的智能设备所包围,这些设备具有自动性、可对话性和关系性,但它们完全无法分辨我们有多烦恼、多快乐或多沮丧。这是个问题。”

Ava是首批进入市场的“情绪智能”AI之一。Ava是一款聊天机器人,它利用面部和语音识别软件检测喜悦、悲伤和沮丧等情绪,并在屏幕上做出相应的“反应”。Ava (Autodesk Virtual Assistant)由奥克兰的Soul Machines公司为Autodesk开发,旨在处理客户服务查询,每月进行约10万次对话。Ava看起来很像人类,她的面部表情是通过一个演员的面部扫描创造出来的。但她紫色的虹膜清楚地表明她与众不同——这一细节是为了避免被学者们称为“恐怖谷”的情况,即机器人看起来太像人类,但还不够像人类的那种令人毛骨悚然的感觉。为了在互动前设定场景,Ava宣称:“我是一个虚拟助理”。根据“灵魂机器”的说法,机器人需要与人交流,但不能太像人。但这种方法对吗?

在人类与人工智能的交互中,有一个阈值,在这个阈值上,一个人将停止与计算机对话,并开始像与人类互动那样做出反应。硅谷Futurewei Technologies的高级机器人软件架构师Dylan Glas在研究地球上最先进的机器人之一——Erica时发现了这一点。Erato智能会话机器人(Erica)由日本研究人员于2014年发明,是世界上第一个自主机器人——也就是说,她可以进行没有脚本的对话,就像人类一样。Glas说,让人们与Erica互动时,就好像埃里卡是有意识的一样。他说:“有时候,如果他们问了一些模糊的问题,Erica做出了恰当的回应,或者如果他们在她说话时打断了她,她立即停止说话并做出回应。”

让机器人尽可能地像人一样工作,让Glas能够考虑什么是人类独有的。虽然像Affectiva这样的公司已经在情感识别方面取得了进步,但人类却能够拥有一系列复杂的情感状态。例如,愤怒和嫉妒之间存在着巨大的情感鸿沟,但也有一些重叠,而AI要想区分这些细微的状态还有很长的路要走。

也许创造一个真正的类人机器人的最大障碍是移情问题。“检测情绪只是第一步,”Glas说。“为了真正实现‘同理心’,机器人需要理解为什么会有这种感觉,这可能会根据文化规范而有所不同。”他补充说,真正的同理心需要机器人设身处地为人类着想,理解社会背景,并具备“常识”背景知识。“在这个层面上,它不再是一个计算机视觉问题,而是一个对话理解和心智理论的问题。”

即使机器人有一天能够无缝地复制人类情感并捕捉细微差别,这并不意味着我们会把它们误认为人类。我们发现诡计的能力很强。对我们来说,有可能的是搁置怀疑。Glas认为这就像和来自不同文化的人交谈:如果一个人说不同的语言,有不同的风俗习惯,就很难交流。他说:“但最终,当你理解并接受彼此的文化时,有时你可能会忘记你们有着不同的背景。我相信未来机器人也会发生同样的事情。也许你不会忘记这是一个机器人,但它将成为一个无关紧要的问题。”

查看原文 >>
相关文章