从“扫月亮”到“扫福字”,扒一扒背后的支付宝AR框架体系

36次阅读

共计 7702 个字符,预计需要花费 20 分钟才能阅读完成。

承智关于支付宝 AR 框架体系和实践的分享主要分为以下三个部分:

支付宝 AR 框架体系
AR 实践案例分享
总结和展望

在本次分享中,来自蚂蚁金服支付宝多媒体技术部猎鹰团队的技术专家承智为大家解密了支付宝 AR 红包背后的技术。在他的演讲中首先分享了支付宝对于 AR 技术需求的一些特点,之后分享了在对支付宝 AR 框架体系进行设计时遇到的一些问题和挑战,以及支付宝多媒体猎鹰团队是如何满足产品运营需求的,并结合四个具体的案例分享了在支付宝 AR 实践中遇到的一些问题和收获的经验,最后对于支付宝 AR 技术的发展进行了总结和展望。
一、支付宝 AR 框架体系
支付宝 AR 需求特点现在 AR 技术已经成为了一个比较热门的话题,很多公司都在 AR 方面投入了大量的人力和物力进行产品研发。而支付宝对于 AR 技术的需求存在着自身的特点,正如下图中所展示的,支付宝 AR 的运营活动其实特别多,这些活动有基于人脸的、人手的还有基于图片和 logo 的,活动形式比较多样而且所需识别的对象也非常丰富。而一般对于活动运营而言,时效性的要求也比较强,往往只能留给开发一到两周的时间,所以支付宝对于 AR 框架体系设计的要求是比较高的。总结一下,支付宝 AR 框架的设计大致有以下几点需求:
运营方面对于时效性的需求,因为需要让活动可以随时上线,所以实时性要求比较高,一般需要在几天或者几周的时间内完成开发,并且需要不依赖客户端的发布。
针对不同的场景识别需要具有动态的能力,识别 logo、物体或者图像采用的技术是不一样的,所以必须通过动态配置的方式选择配置的参数实现对于对象的高效识别,进而达到运营的要求。
SDK 轻巧,目前支付宝的体量已经非常大了,所以在实现 SDK 时需要尽量做到轻巧。目前的经验是识别引擎 200+K;渲染引擎 400K,总体而言对于支付宝的增量不会很大。
AR 框架体系结构针对于支付宝 AR 框架的总体设计要求,支付宝多媒体猎鹰团队设计出了如下图所示的 AR 框架客户端体系结构。AR 框架结构主要分为三层,从下向上依次为:核心层、接口层和应用层。在 AR 框架客户端体系结构的最下面是核心层,这一层大致包括 5 个模块:

ARConfig,也就是配置文件,配置文件的目的就是当运营活动出现的时候,通过对于配置文件的解析就可以对应地选择不同的识别引擎以及渲染方式。
ARBrain,就是整体的识别工厂,这里面包括了目前比较主流的一些识别方法。
ARRender,这是主要的渲染模块,包括了对于 2D 图像序列、3D 图像模块素材的渲染以及对视频、纯图像和语音进行播放的功能。
ARDevice,这部分包括两个主要的功能:因为在渲染的过程中往往会遇到机型适配的问题,所以这里将会使用黑白名单机制对于机型进行管控;而对于一些特定的场景可能还需要管理手机的硬件设备,比如像陀螺仪和手机的传感器等,这些也都是在 ARDevice 中进行管理的。
ARResource,这部分就是资源管理模块,它主要用于管理识别的素材、动画渲染的素材以及在整个 AR 活动中会用到的资源素材。

支付宝 AR 框架客户端体系结构的中间是接口层,接口层桥接了各种业务和底层的算法,会根据不同的业务形态总结抽象出几种对外呈现的接口方式供外面调用。AR 框架的最上层就是对接的各个业务方的应用层,比如“扫月亮”、“扫 logo”等应用以及对外开放数据之后的一些 ISV 的应用。
AR 引擎动态配置具体而言,怎样才能够获得动态化的能力呢?其实在下图中可以看到,想要获得动态化的能力最主要的就是在识别引擎中涵盖了一些识别的方法,包括了针对于颜色的、形状的、目前比较主流的海报的互动、基于特征点的以及对于形状比较单一或者比较特殊的对象等等识别的方法。而对于一些客户端做不了的事情,比如春节期间的一些福字识别或者圣诞节期间圣诞树的识别这些也会由客户端将图片上传到服务端,在云端进行识别。结合客户端和服务端两种模式的识别达到一种比较通用的识别手段,然后在进行具体配置的时候,可以通过配置文件选择某一种具体的识别方法,比如上图中最左边的配置文件,可以选定使用 feature point 的方式来达成识别的目的。在识别完成之后,可以跳转到一个动画,或者进行动画跟踪、具体渲染等,最后再跳转到 H5 页面。与此同时,配置文件也会指定识别过程中用到的一些素材包和识别包的路径,然后引擎就会在相应的目录加载相应的资源。每一种识别的方法都会有单独的配置文件,该文件会表明识别对象的名称、大小,以及在多大的尺度和旋转角度下进行识别,所以这是和识别方法紧密相关的,可以将一些识别方法的参数单独列出来,尽量做到不用修改代码而只需要修改配置文件实现动态推送的能力。
AR 研发流程这部分介绍的主要是 AR 底层的设计相关的内容。从整体来看,一个 AR 的项目从开发到上线可以抽象成为以下的四步:

线下素材制作过程,如果一个 AR 活动需要上线,那么就需要准备两部分的素材,一部分是动画呈现的素材,比如像图像序列以及 3D 模型;同时还需要有互动的素材,比如需要识别的对象是什么,如果需要用到识别模型,那么就会需要有一个离线的训练模型。
当所有素材准备好之后会将它们推送到云端的素材中心和配置中心,素材中心存储了识别的素材包和呈现的素材包,而配置中心则配置了相应活动的信息以及 AR 引擎里面所需要用到的配置文件信息。
在活动开启的时候,支付宝 APP 的客户端会主动地从服务端拉取相关的资源,在将资源拉取到本地之后进行实时的渲染。
最终将 AR 效果呈现给支付宝客户端的用户。

整体来看,AR 研发最主要的工作就集中在第一部分,也就是怎样制作素材以及如何将识别和跟踪这部分功能在线下验证完成之后实时地推送上线。如果整个流程进行的比较顺利的话,可能只需要几天的时间就能将一个 AR 运营活动做上线,达到快速上线的目的。
二、AR 实践案例分享
接下来承智分享了 2016 年支付宝所做的与 AR 相关的四个案例,并且重点分享了春节期间支付宝推出的扫福字集福卡活动案例。
AR 实践 1:扫月亮
支付宝 AR 运营活动的首次的尝试就是在 2016 年中秋节的时候做的扫月亮的活动,当时需要识别月亮以及一些圆形的物体。而扫月亮这个识别流程大致分为以下三部分内容:

因为在进行实景拍摄时,月亮的成像一般都比较小,所以用到了亮点检测模块,然后简单地做了场景分析,把明显拍摄的不是月亮的图片进行过滤。
第二部分就是支付宝官方也会推出一些海报,而海报的呈现一般都比较大,所以这里用到了白圆检测的算法。
因为中秋节那段时间的天气不是很好,所以有可能出现看不到月亮的情况,而为了增加互动的话题,市场和运营提出要求,希望允许识别除了月亮以外的圆形的物体,于是还需要使用到圆形物体检测算法。

总之,将上述三个部分整合到了一起,从而实现了对于图片快速地进行识别。当时大概处理一帧的时间也就在 100 毫秒以内,往往在用户抬手机的过程中对象已经被识别出来了,但是人的视觉可能都还没有识别出来,因为识别太灵敏可能给用户造成一种假象的感觉,所以做了延迟 3 秒的处理,并且设定了不会在抬手机的过程中进行图像识别。除此之外,对于圆形检测而言也有很多方法,比如随机选择多个点拟合成一个圆形来进行匹配。而其实在客户端的开发过程中,速度和计算量要求会非常高,所以这里使用了简化后的方法:首先使用颜色分割将物体区分出来,提取边缘后使用近似圆检测。
扫月亮活动整体的效果还是不错的,在微博上引起了比较大的热议,同时一些图像的网站也借此进行了宣传。
AR 实践 2:扫 1212 集四宝
扫月亮活动之后,也有很多的业务方开始积极主动地去开拓相关的应用场景。所以在双 12 的时候,支付宝也进行了线下引流,通过在线下商圈张贴海报引出“扫 1212 集四宝”的活动。因为是主要针对线下商圈的场景,所以这次活动的宣传量并不是特别大,但是活动现场的热度还是不错的。当时的需求是识别“1212”这四个字,但是在实际线上测试的时候发现,海报样式是非常丰富的,总共大约有 20 多种样式,因为角度、远近和光线等因素,导致摄像头采集的像素可能比较低,所以实拍图片的识别难度比较大。所以最后采取的策略是近景识别“1212”四个字,远景则对于整个海报进行识别。整个客户端大概支持了对于 20 多种图片的识别,在杭州银泰百货进行实测的时候也进行了动态改进,不断调整线上配置的模型包,实时地提升整体用户的体验和算法功能。如果不具备这样动态调整的能力,而是将代码静态地放在客户端,那么这样一旦上线以后,就很难做到修改和更正,所以引擎的动态化在一些运营的场景里面是十分重要的。对于这次活动总体效果而言,客户端对于 20 张海报图的整体识别率接近 90%。没有能够达到特别高的识别率是因为在线下的场景里面可能存在距离比较远等因素的影响,一些情况下,可能人眼能够识别到,但是机器却因为像素比较低而无法准确地识别。识别的速度大约在每帧 130 毫秒左右,所以整体用户体验还是比较流畅的,当时还有很多地方电视台对这次活动进行了采访报道。
AR 实践 3:AR 实景红包
接下来重点分享一下支付宝去年做的与 AR 实景红包相关的一些实践。支付宝去年推出的 AR 实景红包也算是一次比较大胆的尝试,其实在业务讨论的阶段,初期的方案与一些像 Pokemon GO 一样的已有产品比较类似,想通过 LBS 和手机传感器来实现互动。但是在开发过程中却遇到了一个问题,就是如果想在某一个楼层发放红包或者只针对拍摄这个楼的时候才能发放和领取红包的话,通过现有的技术是无法解决的,因为 LBS 的定位不能满足这样的需求,在一栋楼里面,LSB 无法区分出某一层。面对这样的问题,支付宝多媒体猎鹰团队提出了这样的一个方式就是基于拍摄图片的比对来实现目的,比如用户在藏红包的时候对着这个物体拍摄的,领取的人也必须来到这个地方,找到这个物体才能拍摄并领取红包。基于这样的逻辑,支付宝技术团队一起将 AR 实景红包实现并完成上线。AR 实景红包的一个优点就是可以帮助商家进行品牌宣传,因为需要藏和找红包都需要拍摄图片,商家可以将自己的 logo 或者产品作为线索图进行推广。
AR 红包框架
AR 红包框架背后的逻辑主要是两个部分:一部分就是藏红包的过程,另一部分就是找红包的过程。在藏红包的过程中为了避免很多存在歧义的场景,比如随处可见的白墙以及比较暗的区域等,支付宝多媒体技术团队在这里面加上了一个评估过程。如果用户想要发 AR 红包,首先就需要判断这个场景适不适合发红包,是不是需要让光线更加明亮一点,因为特别暗的场景不适合藏红包;另外一方面就是评估纹理是不是足够丰富,因为如果纹理特征比较少的话,无论是后续的识别还是做区分度,都是不利的,所以在藏红包的时候对这一部分特征进行了限定。如果满足以上条件的限定的话,就会将图片上传到服务端,在服务端进行特征提取,然后合成一张线索图。而在找红包的时候,当用户选完一个红包之后,线索图以及红包的特征码会被客户端拉取到本地,后续的图片比对都是在本地完成的。这样做的好处就是用户在找红包的过程中,可以进行实时的计算,如果将这个图片传到服务端可能数据传输来回的时间达不到产品的需求,另外也达不到对于用户体验以及准确性上的需求了,所以在客户端对于图像进行实时匹配的优势还是很大的。在本地匹配成功之后会将对应的图片传到服务端进行二次校验,进行二次校验的主要目的是为了保证安全性,因为可能出现恶意用户绕开支付宝入口,直接调用后台服务的情况,所以这里面的二次校验主要是针对一些作弊行为进行了特殊处理。
AR 红包的挑战
其实在 AR 实景红包的背后也遇到了很多的挑战:

图片比对准确性,在实景红包推出来之后,很多研究人员也在研究图片的比对是基于什么样的算法。其实在最开始支付宝多媒体技术团队也考虑了很多种算法,比如基于颜色、形状的算法,但是测试后发现旋转、远近、角度等因素对于这些算法的影响都比较大,并且造成误检非常多。所有后来就采用了比较传统的基于特征点匹配的方式进行实现。
算法性能和 CPU 占用率问题,图像识别对于客户端的算法性能要求是比较高的,如果对于图像的每一帧都进行计算的话,手机 CPU 占用率会很高,导致产生发热问题。可能出现在找红包的过程中,持续地找了几分钟,由于计算量会很大,导致手机发热的问题非常严重。针对于这个问题,支付宝采用了抽帧的方式,大概一秒钟处理 3 到 4 帧的计算量,虽然对于整体计算流程的影响不会非常大,但是将整体的计算量降下来了,使得 CPU 维持在占用率 30% 左右的水平。
图片流量的问题,在藏红包和找红包的过程中都需要传输图片,而在传图的时候就涉及流量大小问题。为了帮助用户节约流量,并将传输速度提升上去,支付宝在传图过程中用到了智能压缩的方式,将传图过程消耗的整体流量降低下来。
渲染兼容性问题,因为目前安卓机型特别多,从统计数据来看,支付宝用户大概会使用到 2000 多种机型,因为不同的手机能够支持的渲染的版本和能力是不一样的,所以在做 3D 渲染的时候就会遇到兼容性的问题。因此 AR 红包对渲染兼容性的处理使用了手机黑白名单的机制,将一些性能比较好的、比较主流的机型列在白名单里面,这样的机型会使用正常的 3D 渲染方式;而对于一些性能比较差的、支持能力也不是特别好的机型,则可能采用降级的方式,可能会采用 2D 渲染方式跑动整体的流程,只不过在呈现的效果上面则会差一点。
PS 冒领问题,在 AR 实景红包上线之后,遇到了一个比较大的问题就是 PS 冒领问题。最开始推出 AR 实景红包的时候,支付宝做的提示图会比较简单一些,就是使用简单的横条纹做了提示图,但是也有一些 PS 爱好者通过 PS 软件把横条纹 P 掉,然后恢复出原图大概的模样,并拍摄这个图冒领其他人发的红包。针对于 PS 冒领问题,解决方式就是使用自动化生成网格提示图的方式,使得每个红包的提示图都是不一样的,提示图的难度增加了,所以很难从提示图恢复出原有图片的模样,但是目前而言在网上寻找相似图片的作弊手段还是比较难避免的。

AR 红包效果
最终 AR 实景红包上线的时候,影响还是比较大的。可以从最初的界面上看出,图上定位点周围的区域都布满了红包,当然这是个人的玩法,而影响比较大的就是随着商家对活动的关注,很多商家也愿意尝试加入进来,所以后来就有二三十家主流商家加入进来,也创造了新的营销方式,就是通过拍摄自己的 logo 进行宣传。
AR 实践 4:扫福集福
2017 年春节,支付宝推出的红包活动是扫福集福,关于这个活动大家了解比较多的就是扫描网页上或者门贴上的福字,但是其实在这背后还涉及到很多复杂的需求。
在支付宝技术团队实现 AR 扫福时面临着一些主要的挑战:

多识别任务并发,在扫一扫的入口不仅仅需要识别福字还要识别不同的海报,而且一些商家的红包也是通过扫一扫的入口传一张图到后台进行识别的,所以这是一个多任务并发的过程。
扫福字请求高并发,因为春节扫福集福活动的关注量比较大,所以扫福字的请求数也比较高,每秒需要处理的计算量也是非常大的。
福字识别的挑战,当时提出的需求是福字识别不仅仅需要能识别网页上的福字,而且对于一些手写的福字或者墙上贴的福字也都要进行识别,因为需要识别的福字样式非常丰富,所以从福字本身的识别难度上来看也存在一定的挑战。

春节期间的扫福活动还和可口可乐进行了深入的合作,所以也需要支持对于可口可乐 7 种福娃的扫描。上图中最上面的一行图片就是可口可乐福娃的海报样式,顾客通过扫描线下购买的可口可乐产品上的福娃,就能领取相应的红包或者福卡。与此同时,支付宝在海外以及港澳台等地区也进行了大规模的海报宣传攻势,所以也需要对于这些特殊定制的海报进行支持,当用户在海外机场或者在海外消费的时候,看到这些宣传海报使用支付宝扫一扫也能够获取福卡。所以对于识别而言,除了需要识别开放性的福字,也需要对于大约 14 种海报的样式进行识别。
AR 扫福框架设计
为了满足上述的需求,支付宝扫红包客户端的识别策略也采用了分帧处理的模式。首先在第一帧的时候进行对于海报的识别,大概就是对于之前提到的 14 种海报进行识别,而且每帧处理的时间大概控制在 100 毫秒以内,所以能够非常迅速地判断当前拍摄的是不是海报。
在下一帧的时候就需要判断手机是不是静止的,因为有时候在客户端识别不成功,需要将图片传到服务端去,就需要判断当前手机是否处于静止状态。而静止判断也有很多种方式,比如通过手机的陀螺仪以及传感器等进行判断,而支付宝技术团队则使用的是通过图像判断,使用图像前后帧的差异大小判断,如果在两到三秒连续的时间内图像的差异不是很大,那么就认为当前用户的意图是想要拍摄一张图片并发送到服务器端进行识别,所以在第二帧进行的是图像静止判断处理。如果静止判断成功,就会将图片传到服务器端进行识别。
第三个步骤,就是本地福字检测。为了应对可能出现的服务端压力扛不住的情况,需要做一个基于本地客户端的紧急预案,于是支付宝多媒体猎鹰团队在客户端做了基于 LBP 的福字检测的本地备案算法。本地福字检测的目的就是为服务端分流,而且这一功能会在需要的时候打开。其实在活动初期的时候这个开关是处于关闭状态的,所以扫红包的过程只有前面的海报识别和传图到服务端这两个步骤,当活动进行到第二天的时候因为服务端压力比较大,才将三个步骤全部开启。这种策略的好处就是为用户提供的整体体验不会存在卡顿情况,因为每个模块处理完成也就是在 100 毫秒以内,所以每秒也能进行大约 10 次的尝试,平均下来每个模块大约也有三次机会。支付宝 AR 扫福框架的反应速度和流畅性都得到了很好的保证,而客户端福字识别的模块的加入也能够进行分流,帮助服务端减轻了负担。
活动效果
最终达到的效果就是在同时开启客户端和服务端的福字识别之后,识别的峰值达到了 14WTPS。活动开启的第一天预估的峰值大概在 1 万左右,但是由于用户参与的热情很高,所以在活动开启一天之后就达到了服务端识别能力的上限,于是就立刻开启了客户端的本地识别。但是这也同时带来了一些问题,因为客户端的识别能力有限,所以一些不是福字的图像会被误识别成福字,而这些都是在后续开发的时候在技术包装和储备上面需要进一步完善的地方。
但是总体活动效果上看还是不错的,能够把大多数用户拍的福字识别出来,少量的误识在产品上是可以被接受的。整体上 70% 的识别任务都是在客户端完成的,而且识别过程还是比较流畅的,只有少量本地无法识别的情况才会上传到服务端,这样的做法节省了服务器的资源。通过这样的活动也引起了很大的关注,网上也很多出现了很多趣闻,所以整体上效果还是不错的。
三、总结和展望
以上就是目前支付宝 AR 技术的一些分享,那么未来支付宝的 AR 技术将会朝着什么样的方向发展呢?承智谈到支付宝多媒体猎鹰团队首先会在现有的基础之上完善已有的 AR 技术,并和其他技术团队一起努力打造一个 AR 的开放平台,希望能通过这样的平台使更多的开发者和 AR 技术爱好者能够参与进来,创造出更多的创新性场景,并通过这样的平台为用户和商家建立相互连接的关系,使大家都能够从 AR 开放平台上受益,创造出更多的价值。
原文来自:云栖社区;原文链接:https://yq.aliyun.com/article… 点击阅读更多,查看更多详情

正文完
 0