关于架构设计:vivo推送平台架构演进

48次阅读

共计 5718 个字符,预计需要花费 15 分钟才能阅读完成。

本文依据 Li Qingxin 老师在“2021 vivo 开发者大会 “ 现场演讲内容整顿而成。公众号回复【2021VDC】 获取互联网技术分会场议题相干材料。

一、vivo 推送平台介绍

1.1 从产品和技术角度理解推送平台

推送平台是做什么的?

有的小伙伴可能理解过,有的可能是第一次接触到。无论您是哪一种状况都心愿通过明天的分享,可能让您对咱们有新的理解。接下来我将从产品和技术两个不同视角,给大家介绍 vivo 推送平台。

首先,从产品角度来看,vivo 推送平台通过和零碎的深度联合,建设稳固牢靠、平安可控、反对每秒 100w 推送速度、亿级用户同时在线的音讯推送服务,帮忙不同行业的开发者开掘更多的经营价值。推送平台的外围能力是利用长连贯技术,以智能设施、手机为载体为用户提供具备实时、双向的内容和服务传输的能力。

所以如果你是经营人员,能够思考应用咱们推送平台来经营你们在 vivo 手机零碎上的 APP 来晋升你们 APP 的沉闷和留存。对于推送平台的实质是什么?

从技术角上来看,咱们是一个通过 TCP 长连贯,将音讯发送给用户的平台。所以推送平台的实质其实就是借助网络通道,将音讯发送到用户设施上。

大家日常都收到过快递告诉吧!当快递员将快递放到快递柜中,快递后盾就会主动推送一条音讯,告诉你有快递。我置信,如果你是一位经营人员,你也会喜爱这种主动下发音讯高效的形式。大家感兴趣的,能够在分享完结之后,通过 vivo 开放平台入口,抉择音讯推送来更进一步理解咱们。

1.2 内容、服务、设施互联

在这个万物互联的时代,咱们平台也具备连贯多的能力,咱们通过长连贯将内容、服务、用户连在一起,将内容分发给用户,为终端设备提供实时、双向通信能力。

这里有个概念长连贯,那么什么是长连贯?所谓的长连贯就是,客户端与服务端维持的一条,在绝对较长的工夫里,都可能进行网络通信的网络连接(比方:基于 TCP 的长连贯)。

为什么咱们要采纳长连贯而不是短连贯作为平台底层的网络通信。

咱们先来看看短连贯下音讯下发的场景:应用短连贯的形式就是轮询,即客户端定时的去询问后盾有没有设施 A 的音讯,当有设施 A 的音讯时后盾返回对应的音讯,可能很多状况下都是无功而返,节约流量;当后盾有音讯须要发送给设施 A 时,因为设施 A 没有过去取导致音讯无奈下发。而应用长连贯,当有设施 A 的音讯时后盾间接发送给设施 A 而不必等设施 A 本人过拉取,所以长连贯让数据交互更加天然、高效;除此之外,咱们平台技术上还具备以下劣势:

  1. 超过亿级设施同时在线;
  2. 反对百万每秒的推送速度;
  3. 反对每天超百亿级的音讯吞吐量;
  4. 实时推送成果剖析;
  5. 全量推送音讯实时审计。

咱们推送平台具备的这些能力可能为音讯的时效性提供保障,咱们平台具备的这些能力是通过一直的演进而来的,接下来跟大家分享 vivo 推送平台的架构这几年的变动。

二、vivo 推送平台架构演进

2.1 拥抱业务

IT 畛域的架构它是动静的,不同阶段都可能会发生变化,而推动架构进行演进的推力,次要来自于业务需要,接下来咱们一起来回顾,咱们平台的业务倒退历程。

自 2015 年立项以来,随着业务量增长,咱们一直为零碎添砖加瓦,丰盛整个零碎的能力使其满足不同的业务场景需要。比方反对内容齐全审核、反对 IM、反对 IoT、反对 WebSocket 通信等。

从图上能够看到,咱们业务量简直每年都有几十亿的增长,一直攀高,给零碎带来了挑战,原有的零碎架构存在的问题,也逐步浮出水面,比方提早、性能瓶颈。架构服务于业务,2018 年之前咱们平台所有服务都放在云上,然而咱们依赖的其余外部业务部署在自建机房。

2.2 敢于扭转

随着业务量增长与自建机房的数据传输,曾经呈现了提早的问题,并且在逐步好转,不利于咱们平台性能的拓展。所以在 2018 年下半年,咱们对部署架构进行调整:将所有外围逻辑模块都迁徙到自建机房,架构优化之后,数据提早问题失去彻底解决。同时也为架构进一步演进奠定了根底。从下面的图中能够看到咱们接入网关也进行优化三地部署。

为什么要进行三地部署而不是更多区域部署呢?次要基于以下三点思考:

  • 第一是基于用户散布及老本的思考;
  • 第二是能为用户提供就近接入;
  • 第三是可能让接入网关具备肯定容灾能力。

大家能够构想下,如果没有三地部署,接入网关机房故障时,那么咱们平台就瘫痪了。

随着咱们平台业务规模的进一步扩充,日吞吐量达到 10 亿的量级,用户对于时效性、并发要求越来越高,而咱们 2018 年的逻辑服务的零碎架构曾经无奈业务高并发的需要或者须要更高的服务器老本能力满足高并发需要。所以从平台性能、老本优化登程,咱们在 2019 年对系统进行了重构,为用户提供更加丰盛的产品性能及更稳固、更高性能的平台。

2.3 利用长连贯能力给业务赋能

作为公司较大规模的长连贯服务平台,咱们积攒了十分丰盛的长连贯教训。咱们也始终在思考,如何让长连贯能力为更多业务赋能。咱们平台服务端各个模块之间通过 RPC 调用,这是一种十分高效的开发模式,不必每个开发人员都去关怀底层网络层数据包的。

咱们构想下,如果客户端也能通过 RPC 调用后盾,这肯定是十分棒的开发体验。将来咱们将会提供 VRPC 通信框架,用于解决客户端与后盾通信及开发效率问题,为客户端与后盾提供统一的开发体验,让更多的开发人员不再关怀网络通信问题,分心开发业务逻辑。

三、零碎稳定性、高性能、平安

作为一个吞吐量超过百亿的推送平台其稳定性、高性能、平安都十分重要,那么接下来和大家分享,咱们在零碎稳定性、高性能、平安方面的实践经验。

从上图的畛域模型能够看出,咱们推送平台以通信服务作为外围能力,在外围能力的根底上咱们又提供了,大数据服务以及经营零碎,通过不同接口对外提供不同的性能、服务。以通信服务为外围的推送平台,其稳定性和性能都会影响音讯的时效性。音讯的时效性是指,音讯从业务方发动用设施收到的耗时,那么如何掂量音讯的时效性呢?

3.1 监控与品质度量

传统的音讯时效性测量方法如左图所示,发送端和接收端在两个设施上,在发送的时候取工夫 t1、在接管到音讯的时候取工夫 t2,这两个工夫相减失去音讯的耗时。然而这种办法并不谨严,为什么呢?因为这两个设施的工夫基准,很有可能是不统一的。咱们采纳的解决方案如右图所示,将发送端和接收端放在同一个设施上,这样就能够解决工夫基准的问题。咱们基于该计划,搭建了一套拨测系统,来被动监控音讯送达耗时散布。

3.2 高性能、稳固的长连贯网关

过来 10 年探讨单机长连贯性能时面对的是单机一万连贯的问题,作为一个上亿级设施同时在线的平台,咱们要面对的是单机 100 万连贯的问题。

作为长连贯网关,主要职责是保护与设施端的 TCP 连贯及数据包转发。对于长连贯网关,咱们应该尽可能使其轻量化,所以咱们从架构设计、编码、操作系统配置、以及硬件个性,自上而下穿透整个档次来进行重构优化。

  • 调整零碎最大文件句柄数、单个过程最大的文件句柄数;
  • 调整零碎网卡软中断负载平衡或者开启网卡多队列、RPS/RFS;
  • 调整 TCP 相干参数比方 keepalive(须要依据宿主机的 session 工夫进行调整)、敞开 timewait recycles;
  • 硬件上应用 AES-NI 指令减速数据的加解密。

通过咱们优化之后,线上 8C32GB 的服务器能够稳固反对 170 万的长连贯。

另外一大难点在于,连贯保活,一条端到端的 TCP 连贯,两头通过层层路由器、网关,而每个硬件的资源都是无限的,不可能将所有 TCP 连贯状态都长期保留。所以为了防止 TCP 资源,被两头路由器回收导致连贯断开,咱们须要定时发送心跳申请,来放弃连贯的沉闷状态。

心跳的发送频率多高才适合?发送太快了会引起功耗、流量问题,太慢了又起不到成果,所以为了缩小不必要的心跳及晋升连贯稳定性,咱们采纳智能心跳,为不同网络环境采纳差异性的频率。

3.3 亿级设施负载平衡

咱们平台超过亿级设施同时在线,各个设施连贯长连贯网关时是通过流量调度零碎进行负载平衡的。当客户端申请获取 IP 时,流量调度零碎会下发多个就近接入网关 IP。

那么调度零碎是如何确保下发的 ip 是可用的呢?大家能够简略思考下,而咱们采纳四种策略:就近接入、公网探测、机器负载以及接口成功率。采纳这几种策略呢?大家能够想下,这两个问题:

  • 内网失常,公网就肯定能联通吗?
  • 连接数少服务器,就肯定是可用的吗?

答案是否定的,因为长连贯网关与流量调度零碎是通过内网进行心跳保活的,所以在流量调度零碎上看到的长连贯网关是失常的,然而很有可能长连贯网关公网连贯是异样的比方没有开明公网权限等,所以咱们须要联合多种策略,来评估节点的可用性,保障系统的负载平衡、为零碎稳定性提供保障。

3.4 如何满足高并发需要

有这么一个场景:以每秒一千的推送速度,将一条新闻发送给几亿用户,那么有的用户可能是几天后才收到这条音讯,这就十分影响用户体验,所以高并发对音讯的时效性来说是十分重要的。

大家从图上的推送流程来看,会不会感觉 TiDB 会成为推送的性能瓶颈?其实不会,初步看可能会感觉它们作为核心存储,因为咱们采纳分布式缓存,将核心存储的数据,依据肯定的策略缓存到各个业务节点,充分利用服务器资源,晋升零碎性能、吞吐量。咱们线上的分布式缓存命中率 99.9% 为核心存储挡住了绝大部分申请,即便 TiDB 短时间故障,对咱们影响也比拟小。

3.5 如何保障系统稳定性

作为推送平台,咱们平台的流量次要分为内部调用及外部上下游之间的调用。它们大幅稳定都会影响零碎的稳定性,所以咱们要进行限流、控速,保障系统稳固运行。

3.5.1 推送网关限流

推送网关作为流量入口其稳定性十分重要,要让推送网关稳固运行,咱们首先要解决流量平衡的问题即防止流量歪斜的问题。因为流量歪斜之后,很有可能会引起雪崩的状况。

咱们是采纳轮询的机制,进行流量的负载平衡,来防止流量歪斜问题。然而这里有个前提条件,那就是所有推送网关节点,服务器配置要保持一致,否则很有可能会因为某个解决能力有余导致过载问题。其次是咱们要管制流入咱们零碎的并发量,防止流量洪峰穿透推送网关导致后端服务过载。咱们采纳的是令牌桶算法,管制每个推送网关投放速度,进而可能对上游节点起到爱护作用。

那么令牌数量设置多少才适合呢?设置低了,上游节点资源不能充分利用;设置太高了,上游节点有可能扛不住,咱们能够采纳被动 + 被动的动静调整的策略:

1)当流量超过上游集群解决能力时,告诉上游进行限速;

2)当调用上游接口超时,达到肯定比例是进行限流。

3.5.2 零碎外部限速:标签推送平滑下发

既然推送网关曾经限流了,为什么外部节点之间还要限速?这个是因为咱们平台的业务特点决定的,咱们平台反对全量、标签推送,咱们要防止性能较好的模块,把上游节点资源耗尽的状况。咱们标签推送模块(提供全量、标签推送)就是一个性能较高的服务,为了防止它对上游造成影响。咱们基于 Redis 和令牌桶算法实现了平滑推送的性能,管制每个标签工作的推送速度,来爱护上游节点。

另外咱们平台反对利用创立多个标签推送,它们的推送速度会叠加,所以仅管制单个标签工作的平滑推送是不够的。须要在推送下发模块对利用粒度进行限速,防止推送过快对业务后盾造成压力。

3.5.3 零碎外部限速:音讯下发时限速发送

所以为了实现利用级别的限速,咱们采纳 Redis 实现分布式漏桶限流的计划,具体计划如上图所示,这里咱们为什么采纳的是 clientId(设施惟一标识)而不是应用利用 ID 来做一致性 hash?次要是为了负载平衡因为 clientId 相比利用 ID,自从实现了这个性能之后,业务方再也不必放心推送太快,造成本人服务器压力大的问题。

那么被限速的音讯会被丢掉吗?当然不会,咱们会将这些音讯存储到本地缓存、并且打散存储到 Redis,之所以须要打散存储次要是为了防止后续呈现存储热点问题。

3.5.4 熔断降级

推送平台,一些突发事件、热点新闻会给零碎带来较大的突发流量。咱们应该如何应答突发流量呢?

如左图所示,传统的架构上为了防止突发流量对系统的冲击,冗余部署大量机器,老本高、资源节约重大。在面临突发流量时,无奈及时扩容,导致推送成功率升高。咱们是怎么做的呢?咱们采纳减少缓冲通道,应用音讯队列和容器的解决方案,这种计划零碎改变小。当无突发流量时以较小量机器部署,当遇到突发流量时咱们也不须要人工染指,它会依据零碎负载主动扩缩容。

3.6 基于 Karate 的自动化测试零碎

在日常开发中大家为了疾速开发需要,大家往往漠视了接口的边界测试,这将会给线上服务造成很大的品质危险。另外不晓得大家有没有留神到,团队中不同角色沟通时应用的不同媒介比方应用 word、excel、xmind 等,会导致沟通的信息呈现不同水平折损。所以为了改善以上问题,咱们开发了一个自动化测试平台,用于晋升测试效率与接口用例覆盖率,咱们采纳畛域对立的语言缩小团队中不同角色沟通信息折损。另外还能够对测试用例对立集中管理,不便迭代保护。

3.7 内容平安

作为推送平台,咱们要为内容平安把好关,咱们提供了内容审计的能力。咱们采纳主动审核为主、人工审核为辅机制来晋升审核效率,同时联合基于影响面及利用分级的策略进行内容审计,为内容平安保驾护航。从图中能够看到业务申请通过接入网关转发给内容审零碎进行第一层本地规定的内容审计,如果没有命中本地规定则调用咱们谛听零碎进行内容反垃圾审计。

四、平台将来布局

到后面次要介绍了咱们推送平台这几年的架构演进及演进过程中的零碎稳定性、高性能、平安等方面的实际,接下来将给大家介绍咱们将来的重点工作。

为了给用户提供更易用、更稳固、更平安的推送平台,将来咱们将会在以下四个方面继续投入建设:

  • 第一在单模块数据一致性的根底上,实现全零碎数据一致性;
  • 第二尽管目前咱们平台具备了肯定的容灾降级的能力,然而还不够,咱们将持续欠缺各零碎的熔断降级能力;
  • 第三在平台的易用性方面咱们仍然会继续优化,为宽广用户提供更加便捷的平台服务;
  • 第四作为推送平台,异样流量辨认的能力也比拟重要,它能够防止异样流量影响零碎的稳定性,所以将来咱们也会建设异样流量辨认的能力。

也心愿随着咱们在平台能力上继续欠缺,将来咱们能够为大家提供更好的服务。

作者:vivo 互联网服务器团队 -Li Qingxin

正文完
 0