关于虚拟:虚拟人实时互动之基于Android驱动表情随动

39次阅读

共计 864 个字符,预计需要花费 3 分钟才能阅读完成。

ZEGO Avatar 表情随动性能简介

ZEGO Avatar SDK 提供了 表情随动 性能,基于当先的人脸关键点精准辨认,联合面部、舌头、眼球在内的 52 种根底面部表情维度,实时捕捉用户脸部的表情动作,在虚构形象上进行实时的还原渲染。

可广泛应用于社交互动、语聊直播等场景中。

虚拟人实用业务场景

实用语聊直播、社交互动、在线培训等场景,实现真人与虚拟人像的实时互动,减少产品可玩性和趣味性。

虚拟人表情驱动的前提条件

在实现“表情随动”性能之前,请确保:

  • 已在我的项目中集成了 Avatar SDK,详情请参考 集成 SDK。
  • 已参考 创立虚构形象,实现根本的虚构人物形象搭建。

虚构形象表情随动 Android 实现流程

开发者请参考以下步骤,实现“表情随动”性能。

1 开始虚拟人表情检测

  • 开启表情检测前,请确认已开启摄像头权限。
  • 开发者如果应用了 ZegoCharacterHelper,则无需再调用 ZegoCharacter 的任何相干接口。

搭建出根本的虚构人物形象后,调用 startDetectExpression 接口,设置驱动模式为 Camera,通过前置摄像头,开始检测表情;而后能够间接通过 ZegoCharacterHelper 的 setExpression 接口设置表情,驱动以后虚构人物的面部表情变动。

// 开始表情检测
ZegoAvatarService.getInteractEngine().startDetectExpression(ZegoExpressionDetectMode.Camera, expression -> {
     // 前提是 mCharacterHelper 曾经创立好,并且设置了 AvatarView 和设置了默认形象(应用 setDefaultAvatar 或 setAvatarJson 设置过。)。// 驱动虚构人物的脸部变动
     mCharacterHelper.setExpression(expression);
});

2 进行虚拟人表情检测

将利用切换到后盾运行、或退出以后页面时,须要调用 stopDetectExpression 接口,进行表情检测。

// 进行表情检测

正文完
 0