ZEGO Avatar 表情随动性能简介
ZEGO Avatar SDK 提供了 表情随动
性能,基于当先的人脸关键点精准辨认,联合面部、舌头、眼球在内的 52 种根底面部表情维度,实时捕捉用户脸部的表情动作,在虚构形象上进行实时的还原渲染。
可广泛应用于社交互动、语聊直播等场景中。
虚拟人实用业务场景
实用语聊直播、社交互动、在线培训等场景,实现真人与虚拟人像的实时互动,减少产品可玩性和趣味性。
虚拟人表情驱动的前提条件
在实现“表情随动”性能之前,请确保:
- 已在我的项目中集成了 Avatar SDK,详情请参考 集成 SDK。
- 已参考 创立虚构形象,实现根本的虚构人物形象搭建。
虚构形象表情随动 Android 实现流程
开发者请参考以下步骤,实现“表情随动”性能。
1 开始虚拟人表情检测
- 开启表情检测前,请确认已开启摄像头权限。
- 开发者如果应用了 ZegoCharacterHelper,则无需再调用
ZegoCharacter
的任何相干接口。
搭建出根本的虚构人物形象后,调用 startDetectExpression
接口,设置驱动模式为 Camera
,通过前置摄像头,开始检测表情;而后能够间接通过 ZegoCharacterHelper 的 setExpression
接口设置表情,驱动以后虚构人物的面部表情变动。
// 开始表情检测
ZegoAvatarService.getInteractEngine().startDetectExpression(ZegoExpressionDetectMode.Camera, expression -> {
// 前提是 mCharacterHelper 曾经创立好,并且设置了 AvatarView 和设置了默认形象(应用 setDefaultAvatar 或 setAvatarJson 设置过。)。// 驱动虚构人物的脸部变动
mCharacterHelper.setExpression(expression);
});
2 进行虚拟人表情检测
将利用切换到后盾运行、或退出以后页面时,须要调用 stopDetectExpression
接口,进行表情检测。
// 进行表情检测