关于架构设计:带宽利用率提升50腾讯云联网架构方案解析

3次阅读

共计 3236 个字符,预计需要花费 9 分钟才能阅读完成。

导语 | 企业 A 是一家互联网公司,以后在云上计算资源曾经靠近 10W 核,华东地区专线流量 24G+,资源部署以华东为主、华北、华南、东北等可用区为辅。该企业属于典型的混合云架构,本文次要分享企业 A 如何通过云联网架构优化实现带宽利用率晋升 50%,心愿与大家一起交换。文章作者:李彬文,腾讯云售后架构师。

一、云联网背景介绍

1. 对等连贯概述

对等连贯(Peering Connection)是一种大带宽、高质量的云上资源互通服务,能够帮忙买通腾讯云上的资源通信链路。对等连贯具备多区域、多账户、多种网络异构互通等特点,反对 VPC 间互通、VPC 和黑石公有网络互通,满足不同业务的部署需要。

2. 传统专线概述

混合云架构后期都是应用传统的专用通道买通用户 IDC 与云上 VPC。如果一根物理专线须要买通多个 VPC,须要通过不同的 VLAN ID 别离创立专用通道来连贯多个 VPC。

3. 云联网概述

云联网(Cloud Connect Network,CCN)为用户提供云上不同 VPC 间、VPC 与本地数据中心间(IDC)内网互联的服务。具备全网多点互联、路由自学习、链路选优及故障疾速收敛等能力。

云联网笼罩寰球 20+ 地区,反对 100+Gbps 带宽以及最高可达 99.99% 的可用性,为用户轻松构建极速、稳固、平安、灵便的寰球互联网络,典型利用场景如下:

  • VPC 与 VPC 间高质量内网互联:在线教育多个地区的实时音视频零碎、游戏减速多地区内网互联、多地区容灾架构。
  • VPC 与 IDC 间内网全互联:一个专用通道买通多个 VPC,实现单次接入全网互联,如混合云场景。

云联网比照对等连贯和传统专线的劣势如下图所示:

下文将从企业 A 的理论登程,介绍企业 A 采纳腾讯云联网的架构优化实际。

二、企业 A 架构现状介绍

1. 企业 A 混合云背景介绍

企业 A 外围业务位于华东地区,在上海有两个 VPC,一个自建 IDC。在北京、成都、广州、HK 各有一个 VPC,其中 HK 的 VPC 用于接入海内业务。

最终通过对等连贯以及传统专线通道实现所有云上 VPC 与自建 IDC 的互联互通(因为传统架构互联线路较多暂不提供具体拓扑,下文提供了合成拓扑)。

2. 私有云 VPC 通过对等连贯互联架构

  • 企业 A 上海地区以后是两个 VPC,一个是业务 VPC,另外一个是用于测试的 VPC,同地区两个 VPC 之间实践上不限度带宽,除非底层数据中心的 DCI 互联带宽(DCI 互联带宽都是上 T 级别)被打满才会导致同地区对等连贯丢包;
  • 企业 A 的大量海内业务通过香港 2 区的 VPC 做接入,再通过 100Mbps 的对等连贯实现买通上海 5 区的外围业务 VPC;
  • 企业 A 散布在华东、华北、华南、东北的业务 VPC 通过对等连贯全互连实现业务互访。

3. 私有云 VPC 与自建 IDC 通过传统专线互联架构

名词解释:NGW(底层专线网关集群)、QCAR(网络设备)、QCPL(网络设备)IDC(数据中心)。

  • 企业 A 私有云 VPC 到自建 IDC 每天峰值总流量 24Gbps,失常四条 10G 专线均分流量为:24Gbps*25%=6Gbps;
  • 以后企业 A 的传统专线架构是专线 1 与 2、专线 3 与 4 互相备份,当专线 1 故障,那么专线 1 的流量会转发到专线 2,所以每条专线的带宽使用率不倡议超过 50%;
  • 因为企业 A 业务快速增长,以后每条专线的带宽使用率曾经达到 60%。如果上图 2 的专线 1 故障,就会有 12Gbps 的流量转发到专线 2,最终导致专线 2 带宽拥塞而丢包影响业务。

4. 以后互联架构的挑战

  • 私有云 VPC 之间互通要建设全互连的对等连贯,并且每次减少 VPC 都有减少大量对等连贯和路由,最终导致保护老本越来越高;
  • 跨地区对等连贯的底层网关集群故障无奈主动切换路由复原,止损耗时久;
  • 企业 A 自建 IDC 到腾讯云的四条专线,如何实现中断任何一条,另外三条专线可用均分故障链路的流量,最终通过最低的老本解决丢包问题;
  • 企业 A 有四个私有云 VPC 须要和自建 IDC 互通,那么须要四个专线网关,以及 16 个 BGP 街坊和专线通道。后续每减少一个 VPC 就会减少四个专线通道,最终导致专线的运维成本增加。

三、云联网革新计划介绍

1. 私有云 VPC 通过云联网互联架构设计

  • 企业 A 所有 VPC 只须要退出新建云联网实例,即可实现互相路由主动学习,无需保护大量对等连贯和大量手工增加的路由;
  • 所有存量 VPC 以及后续增量 VPC 互通的流量都须要通过云联网实现,能够将该云联网实例看作企业 A 的虚构骨干网;
  • 多 AZ(可用区)网关集群容灾,可用性比对等连贯更高;
  • 跨地区云联网网关之间会有拨测,最终抉择最优门路来升高提早,晋升业务稳定性。

2. 私有云 VPC 与自建 IDC 通过云联网互联架构设计

名词解释:CCNGW(云联网类型专线网关)、QCAR(网络设备)、QCPL(网络设备)IDC(数据中心)。

  • 企业 A 所有 VPC 以及四个专线网关都退出同一个云联网实例最终实现互相拜访,并且无论几个 VPC 和自建 IDC 互通只须要 4 个专线通道即可(简化配置复杂度,简略牢靠);
  • 云上 VPC 路由下一跳是云联网,而后通过 ECMP(负载平衡)四份流量到 4 个云联网专线网关,最终通道底层路由将流量通过四条物理专线转发到自建 IDC(逻辑转发门路:VPC—CCN— 专线网关 — 专线 —IDC);
  • 假如企业 A 的物理专线 1 再次中断,那么 QCPL1 无奈收到自建 IDC 的 BGP 路由。最终通过路由收敛使得云联网将流量转发给云联网专线网关 2-4,从而实现任意一条物理专线故障都会将流量均分给其余三条专线;
  • 在老本不减少的状况下,通过云联网的革新将专线带宽利用率从理论值 50% 晋升到 75% 实现降本增效。

四、云联网革新总结

1. 云联网革新带来的理论收益

  • 企业 A 所有云上 VPC 不用两两之间创立对等连贯,只须要退出云联网即可实现全副的互联互通,升高了云上 VPC 的运维老本;
  • 企业 A 跨地区 VPC 互通的网关集群实现多 AZ 容灾,晋升跨地区互通的可用性;
  • 企业 A 的四条专线峰值总流量 24Gbps 状况下中断任意一条都会通过路由收敛主动复原业务,不用依赖于被动期待专线修复或者降级其余业务来复原,最终晋升专线的高可用性;
  • 企业 A 云上 VPC 与 IDC 互通只须要创立 4 个 BGP 街坊即可,也不用为每个云上 VPC 创立专线网关,最终极大升高专线的运维老本。

2. 云联网革新注意事项

线上业务革新须要很审慎,倡议 后期做好深度调研,比方相干业务特色,带宽容量评估,以后架构的梳理,以后架构的毛病,新架构是否解决老架构毛病,各个地区的革新难度,是否能够安稳切换到新架构等。

单方一起确认新架构灰度根本步骤,根本准则是:先灰度测试 VPC,而后按 VPC 业务量从小到大的程序进行灰度。

未应用过云联网的用户倡议先创立测试 VPC 相熟云联网配置办法,具体可参考文末提供的相干文档。

真正灰度前拉通腾讯云网络专家评估新老架构的底层网关门路差别,网关集群的带宽容量,底层门路 MTU 差别,云联网限速算法(截止 2020 年 11 月仍然存在均分算法和分布式算法两种,出于带宽利用率最大化思考倡议分布式算法)等。

每次灰度迁徙都须要有明确的变更步骤、验证步骤、回退步骤,最终来确保灰度顺利完成。

每个账号云联网数量限度 5 个,每个云联网能够绑定的网络实例(例如 VPC 就是一个网络实例)数量限度 25 个。

云联网跨地区带宽限速形式有两种,一种是地区进口限速(单地区云联网总的进口限速),另外一种是地区间限速(地区 A 到地区 B 之间的带宽限速)。

参考文档:

[1] 测试 VPC 配置文档:

https://cloud.tencent.com/document/product/877/18752

[2] 对等连贯迁徙云联网配置文档:

https://cloud.tencent.com/document/product/877/18854

[3] 传统专线网关迁徙云联网专线网关配置文档:

https://cloud.tencent.com/document/product/877/31037

[4]:作者专栏文章:

https://cloud.tencent.com/developer/article/1754757

正文完
 0