摘要:事实上,人工智能经常提出人类无法想象的有效策略,并且在许多情况下,没有人能够执行。即使一个人拥有批准或不批准AI提出的计划的最终权力,如果他没有能力理解这些计划,该军官是否真的有责任。

今年4月,美国陆军战争学院举办了2019年度AI兵棋推演会议,与会专家探讨人工智能在兵棋推演上的应用,这个有着117年历史致力于教育未来的将军、军官和文职人员的院校在人工智能如何改变指挥的性质上进行了交流。

当人工智能产生一个过于复杂的战争策略让人脑无法理解时会发生什么?您是否相信计算机可以指导您的行动,就像旅行者盲目跟踪GPS一样?或者你是否会拒绝这个计划,这个计划真的很聪明?它真的是超人吗?

wargame

“我不是在谈论杀手机器人”,战争学院首席战略领导主席,会议主要组织者之一安德鲁·希尔教授在开幕式上说:“五角大楼希望AI协助人类战斗人员,而不是取代他们。问题是一旦人类开始从机器上接受军事建议,甚至命令,就会发生这种情况。”

事实上,这在某种程度上已经发生了。例如每当有人看到雷达或声纳显示器时,他们都会依靠复杂的软件来正确解释人类无法看到的大量信号。数十艘海军战舰上的宙斯盾空中和导弹防御系统建议使用哪种武器击落哪些目标,如果操作人员不堪重负,他们可以自动使用宙斯盾并让其自身发射拦截器。这种模式旨在阻止大规模的来袭导弹,但它也可以击落有人驾驶的飞机。但是,宙斯盾不是人工智能,它严格执行预先编写的算法,没有机器学习自我提升的能力。这是一种长期存在的复杂自动化的例子,随着技术的进步,它将变得越来越普遍。

图中显示士兵可以通过无线链接的ENVG-III护目镜和FWS-I瞄准器看到的内容。

虽然美国军方不会让计算机触发,但它正在开发目标识别AI,以便从侦察无人机到坦克瞄准镜到步兵护目镜中应用AI。武装部队正在探索预测性维护算法,警告机械师在人类感官能够发现某些错误之前修复失效部件,认识电子战系统找出堵塞敌方雷达的最佳方法,空间管理系统汇聚战斗机、直升机和炮弹在同一目标上不会出现误伤。未来的“决策辅助工具”可能使参谋人员的工作自动化,将指挥官的总体攻击计划转变为战斗单位和战斗部队的详细时间表,以精细计算供应车队必须移动到哪里?什么时候?而且由于这些系统与宙斯盾不同,它们使用机器学习,他们可以从经验中学习,这意味着他们不断改写自己的程序,而人类的思维无法遵循。

一位专家在战争学院的研讨会上说,当然编程良好的人工智能可以打印一个数学证明,以无可挑剔的逻辑显示其提出的解决方案是最好的,假设你给出的信息是正确的。但是,没有人甚至是AI自己的程序员,都没有数学技能,精神焦点或纯粹的耐力来仔细检查数百页的复杂方程式。专家说:“没有什么更好的证据就是一个巨大的搜索树,它是如此之大,以至于没有人可以解释。”开发可解释的人工智能,以人类用户可以理解的方式阐述其推理的人工智能,是一个高度优先的DARPA项目。情报界已经在开发人类分析师可以理解的分析软件方面取得了一些成功。但这确实排除了许多尖端的机器学习技术。

这就是问题:人工智能的全部意义在于想到人类无法做到的事情。要求AI将其推理限制在我们能够理解的范围内,这有点像要求爱因斯坦仅使用加法、减法和一盒蜡笔来证明相对论。即使人工智能不一定比我们聪明 - 无论我们使用什么样的“智能”测量 - 它与我们完全不同,无论是硅片上的磁荷还是量子效应,我们认为神经细胞之间的神经化学流动。(例如)人类,鱿鱼和蜘蛛的大脑彼此之间的相似性都比人工智能更为相似。

异形思维产生外星人的解决方案。例如,亚马逊根据“ 随机存放 ” 的原则智能组织其仓库。虽然人类将纸巾放在一个过道上,番茄酱放在另一个过道上,而笔记本电脑放在第三个过道,亚马逊的算法指示人类工作人员将收到的货物放在上面,并告诉你附近有空的货架,在笔记本电脑旁边的番茄酱旁边的毛巾,那里有更多番茄酱和儿童玩具。当每个客户的订单进入时,计算机会计算通过仓库的最有效路线,以获取特定的项目组合。没有人的头脑可以跟踪货架上随机散落的不同物品,但计算机可以,它告诉人类去哪里。与人们可以理解的仓储方案相比,随机存放实际上节省了亚马逊的时间和金钱。

冠军扑克玩家一手牵手失去了Libratus AI

事实上,人工智能经常提出人类无法想象的有效策略,并且在许多情况下,没有人能够执行。国际象棋中的深蓝击败加里卡斯帕罗夫的动作如此出乎意料,他最初指责其作弊是通过获得另一位大师的建议。(没有作弊 - 这是所有的算法)。AlphaGo击败李·塞多尔,不仅让他感到惊讶,而且令每个围棋大师感到震惊。Libratus不仅通过欺骗他们而击败了扑克冠军,而是通过使用扑克职业选手长期谴责的策略 - 例如在游戏之间投注大量不同的数量或者“ 跛行 ”以及最低限度的赌注,人类后来试图模仿但是经常无法脱身。

如果你拒绝AI的计划是因为你无法理解它们,那么你就会排除一系列潜在的策略,这些策略虽然非常奇怪,但可能会起作用。这意味着你很可能会被对手谁被挫败不相信他的AI和它的“疯狂到工作”的想法。正如一位参与者所说:你是在什么时候放弃试图理解人工智能的外星人思想,还是只“点击我相信的按钮”?

在夏威夷的PACMAN-I实验期间,一名士兵持有PD-100迷你无人机

首先,如果你让AI让计划过于复杂而无法理解,那么简单性原则就会逐渐消失。只要在战场上有人类士兵,人工智能给他们的具体命令必须足够简单易懂—去这里,挖地堡,射击—即使整体计划没有。但机器人士兵,包括空中无人机和无人战舰,可以毫无错误地记住并执行复杂的命令,因此战斗的机器越多,越简单就越陈旧。由于同样的原因,目标的原则也发生了变异。让一群人一起工作需要一个明确的胜利愿景,他们都能理解。然而,算法优化了复杂的效用函数。例如,我们可以杀死多少敌人,同时最大限度地减少友军伤亡和平民伤亡以及基础设施的附带损害?如果您不够信任AI,那么人类的作用就是输入量化标准,如有究竟多少美国士兵的死亡?你会接受挽救100次平民的生命?然后按照计算机的计划获得最佳结果。

最后,也许对军事专业人员来说最痛苦的是,命令统一的神圣原则是什么?即使一个人拥有批准或不批准AI提出的计划的最终权力,如果他没有能力理解这些计划,该军官是否真的有责任?AI是否负责?或者在其效用函数中设置变量的人?或者首先编程的人应该负责吗?陆军战争学院的会议没有提出任何最终答案。但是,在我们开启AI之前,我们最好至少开始提出正确的问题。

C2

相关文章