摘要:利用这个体"细胞词典",查普希尔大学和马里兰大学的研究人员最近调查了一种机器学习方法,这种方法可以从一个人的步态中识别出他感知到的情绪、状态(消极或积极)。"我们的方法也是第一种通过利用最先进的3D人体姿势估计,为行走视频中的情绪识别提供实时管道的方法。

对人类来说,走路的方式说明了在特定时刻的感受。例如,当你感到压力或沮丧时,你会比满足或心烦时更容易肩膀下垂。利用这个体"细胞词典",查普希尔大学和马里兰大学的研究人员最近调查了一种机器学习方法,这种方法可以从一个人的步态中识别出他感知到的情绪、状态(消极或积极)。研究人员声称这是同类别中的第一种方法,该方法在初步实验中达到了80.07%的准确率。

最新研究!AI可根据走姿判断人类情绪

"情绪在我们的生活中发挥着重要作用,定义了我们的经历,塑造了我们如何看待世界并与其他人互动,"共同作者写道。"由于感知情绪在日常生活中的重要性,情感自动识别在游戏娱乐、安全执法、购物、人机交互、人机交互等许多领域都是一个关键问题。

研究人员选择了四种情绪:快乐、悲伤、愤怒和中性,来表现他们"持续一段时间"的倾向以及他们在行走活动中的"丰富性"。然后,他们从多个步行视频语料库中提取步态,以使用3D姿势估计技术识别情感特征和提取的姿势。最后,他们利用能够学习长期依赖性的长期短期记忆(LSTM)模型,从姿势序列中获取特征,并结合随机森林分类器(输出多个单独决策树的平均预测值),相结合将例子分类为上述四种情绪类别。

最新研究!AI可根据走姿判断人类情绪

这些特征包括肩膀姿势、连续步骤之间的距离以及手和脖子之间的区域。头部倾斜角度被用来区分快乐和悲伤的情绪,而更紧凑的姿势和"身体扩张"分别识别积极和消极的情绪。至于唤醒,科学家们注意到这往往与增加的运动相对应,该模型考虑了速度、加速度和手、脚和头关节的"运动冲击"的大小。

AI系统处理了来自Emotion Walk和Ewalk的样本,这是一个新的数据集,包含1384个步态,这些步态是从24名受试者在大学校园内(室内和室外)行走的视频中提取的。大约700名来自亚马逊机械土耳其人的参与者标记了情绪,研究人员使用这些标签来确定情绪的价态和唤醒水平。

最新研究!AI可根据走姿判断人类情绪

在测试中,研究人员报告他们的情感检测方法比最先进的算法提高了13.85%,比不考虑情感特征的"vanilla"LSTM提高了24.60%。这并不是说它是万无一失的,它的精度很大程度上取决于3D人体姿势估计和步态提取的精度。但是,尽管有这些局限性,研究人员仍然相信他们的方法将为涉及额外活动和其他情绪识别算法的研究提供强有力的基础。

"我们的方法也是第一种通过利用最先进的3D人体姿势估计,为行走视频中的情绪识别提供实时管道的方法。"共同作者写道。"作为未来工作的一部分,我们希望收集更多数据集并解决限制。"

相关文章