本文为微信小程序新上线的AR/VR/3D框架xr-frame介绍的系列文章,可以点我头像看全部文章,我会持续更新xr-frame官方demo的源码讲解。
本文是ar能力使用介绍的下篇,对应官方小程序(名字:小程序示例)的交互动画/xrframe/ar案例,详细介绍在图中:
上篇我们主要介绍了如何通过xrframe方便的搭建一个带有ar能力的小程序,以及如何使用自带的平面、marker识别能力,本篇我们继续介绍如何使用人脸、手势、躯体识别。
人脸、手势、躯体的识别方式都是根据特征点来识别的,下面以人脸为例说明:
xr-frame会识别出人脸的上百个特征点,通过这些特征点,可以判断人脸的位置、五官的位置甚至是表情等微观细节。
通过在xr-ar-tracker内添加子节点,并将其与特征点id绑定的方式,来将元素绑定到对应的位置,比如绑定到105特征点(大致在左眼),元素将会始终出现在左眼的位置。
xrframe还提供了接口来方便开发更多交互功能:
1.tracker.getPosition 获取特征点位置;
2.tracker.gesture 手势id(如点赞、比心等);
3.tracker.score 识别的置信度。
xrframe还提供了tracker的状态(已识别/识别中/失败)变化的事件,来帮助我们开发实时性准确性更好的交互体验。
声明:本文内容由脉脉用户自发贡献,部分内容可能整编自互联网,版权归原作者所有,脉脉不拥有其著作权,亦不承担相应法律责任。如果您发现有涉嫌抄袭的内容,请发邮件至maimai@taou.com,一经查实,将立刻删除涉嫌侵权内容。