斯坦福大学计算机科学助理教授Percy Liang解释说,人类在日常的互动中依赖于一定程度的可预测性——包括与其他人类和自动化系统(包括但不限于他们的汽车)。创造这种可预测性的一种方法是利用机器学习。

机器学习处理算法,允许人工智能根据从先前经验收集的数据“学习”。开发人员不需要编写代码来指示人工智能的每一个动作或意图。相反,系统从它的经验中识别模式,并根据这些数据采取适当的行动。它类似于试验和错误的过程。

在研究和测试环境中,机器学习系统经常被问到的一个关键问题是:“为什么系统会做出这样的预测?”关于这一意 图的探索,梁教授解释道:“如果你正在过马路,一辆车向你驶来,你就有了另一个人类司机将要做的模型。”但如果汽车是由人工智能控制的,人类该如何知道如何行动呢?

智能机器人是如何自主学习的

重要的是要看到一个系统运行良好,但也许更重要的是它能够用容易理解的术语解释它为什么会这么做。即使系统不准确,它也必须是可解释的和可预测的。为了安全部署人工智能,系统必须依赖于充分理解、现实和可测试的假设。

目前的理论探索了可靠的人工智能的思想,集中于在训练数据中拟合可观察的输出。然而,正如梁教授所解释的,这可能会导致“自动驾驶系统在验证测试中表现良好,但不理解所期望输出的人为值。”

当然,运行多个测试是很重要的。梁教授解释说,这些类型的模拟“有利于调试技术——它们允许我们更容易地执行受控的实验,而且它们允许更快的迭代。”然而,要真正了解一种技术是否有效,“没有什么可以替代将它应用到现实生活中,”教授说,“这适用于语言、视觉和机器人。”“自动驾驶汽车在所有测试条件下都可能表现良好,但无法准确预测它在不可预知的自然灾害中的表现。”

在机器学习中,图像检测器给他们提供训练数据,例如照片,电脑生成的图像。并给它们贴上标签来学习识别物体。

研究的另一个方面是确保人工智能理解,并能够交流,它对人类的限制。他解释说,传统的成功标准是平均精确度,“这不是人工智能安全的良好接口。”他提出,“一个80%可靠的系统该怎么做?”

他不希望系统有一个准确的答案。相反,他希望系统能够在不知道答案的情况下承认。如果一个用户问一个系统“我应该服用多少止痛药?”这个系统更适合说“我不知道”,而不是做一个代价高昂或危险的错误预测。

他们的团队正在研究这个挑战,通过学习算法跟踪模型的预测——所有的方法都回到了模型参数产生的训练数据。团队希望这种方法——通过训练数据的透镜来观察模型——将成为开发、理解和诊断机器学习的工具箱的标准组成部分。研究人员可以将其与许多应用程序联系起来:医学、计算机、自然语言理解系统和各种商业分析应用程序。

微信搜索“灵声机器人”,关注我们了解更多。

智能机器人是如何自主学习的

相关文章