摘要:但是,Dynamixyz还有一个苹果所不具备的优势——系统能够与主流三维动画软件(诸如3dsMax、Maya、MotionBuilder、Softimage)进行实时协作,将其所获取的表情信息实时映射到三维虚拟角色上,与肢体捕捉系统配合,组成完整的动画表演捕捉解决方案。最后我们从适用领域来看,苹果只适用于二维和三维的一些小动画,而Dynamixyz表情捕捉系统能应用于游戏、电视广告、电影制作等领域。

原标题:Iphone和Dynamixyz实时驱动一样吗?

有一个很奇怪的事情,在跟客户聊到Dynamixyz的时候,他们经常会问“Dynamixyz和Iphone实时驱动有什么区别”?

下面,迪生就为大家专业地分析一下。二者都在面部捕捉方面有一定用途,但是应用的原理、配置、精准程度和适用领域还是大不相同的。

苹果的面部捕捉原理是前置TrueDepth相机中点阵投影器闪射3万个光点来采集人脸模型,然后有52个不同的面部跟踪运动组ARKit API,最后在Unreal Engine中形成数字角色。如果手机前角色的blendshape与ARKit的名称完全相同,则自动连接。

Dynamixyz的面部捕捉原理是:Grabber录制角色的面部视频,导入Performer找出极限表情,对特征点进行标定从而生成实时文件,最后通过Grabber实时带动模型。中间动画师会手动用maya拾取面部轮廓和调节面部表情,从而进行准确追踪和表情映射。映射后的角色可以是自定义的任何模型与人物,应用举例有将白人的演讲映射到一位韩国女性的身上,简直能以假乱真。

在硬件上,Dynamixyz需要外部Camera和头盔的支持,而苹果只需要Iphone10及以上系列的手机;在软件上,Dynamixyz需要一个插件,另外还需要Grabber这款软件,而苹果只需要ARKit插件以及手机上的一款App——Livelink。但是,Dynamixyz还有一个苹果所不具备的优势——系统能够与主流三维动画软件(诸如3dsMax、Maya、MotionBuilder、Softimage)进行实时协作,将其所获取的表情信息实时映射到三维虚拟角色上,与肢体捕捉系统配合,组成完整的动画表演捕捉解决方案。

再回过来看Dynamixyz,它头盔上配备的高清摄像机可以精确捕获表情变化时的细微差别;专门设计的半封闭式的表情捕获头盔符合人体工学,在保证舒适的同时兼顾了捕获设备的稳定性,使演员能够在不受任何影响的情况下进行自由地表演;有专门的摄像机校准模块,可以提高跟踪结果的精确性;在表情分析模块中,系统提供快速且精确的表情跟踪与数据分析功能,能够得到产品级别的嘴唇、眉毛、眼睛和眼珠等肌肉运动并生成表情动画。

最后我们从适用领域来看,苹果只适用于二维和三维的一些小动画,而Dynamixyz表情捕捉系统能应用于游戏、电视广告、电影制作等领域。

总的来看,二者区别还是挺大的。其实从运用便捷度来说,苹果更具有娱乐性,毕竟手机在手,说走就走。但是,Dynamixyz制作出来的效果更多更精准,也更细腻,应用范围更广。所以,在制作电影动画这种画质要求较高的特效时,还是Dynamixyz更胜一筹。

相关文章