乐趣区

分布式load-balance-01负载均衡基础知识

负载均衡系列专题

01- 负载均衡基础知识

02- 一致性 hash 原理

03- 一致性哈希算法 java 实现

04- 负载均衡算法 java 实现

负载均衡

负载均衡是高可用网络基础架构的关键组件,通常用于将工作负载分布到多个服务器来提高网站、应用、数据库或其他服务的性能和可靠性。

传统架构

在这里用户是直连到 web 服务器,如果这个服务器宕机了,那么用户自然也就没办法访问了。

另外,如果同时有很多用户试图访问服务器,超过了其能处理的极限,就会出现加载速度缓慢或根本无法连接的情况。

引入负载均衡

而通过在后端引入一个负载均衡器和至少一个额外的 web 服务器,可以缓解这个故障。

通常情况下,所有的后端服务器会保证提供相同的内容,以便用户无论哪个服务器响应,都能收到一致的内容。

从图里可以看到,用户访问负载均衡器,再由负载均衡器将请求转发给后端服务器。

在这种情况下,单点故障现在转移到负载均衡器上了。

这里又可以通过引入第二个负载均衡器来缓解,但在讨论之前,我们先探讨下负载均衡器的工作方式。

负载均衡的优势

(1)高性能:负载均衡技术将业务较均衡的分担到多台设备或链路上,从而提高了整个系统的性能;

(2)可扩展性:负载均衡技术可以方便的增加集群中设备或链路的数量,在不降低业务质量的前提下满足不断增长的业务需求;

(3)高可靠性:单个甚至多个设备或链路法神故障也不会导致业务中断,提高了整个系统的可靠性;

(4)可管理性:大量的管理共组都集中在使用负载均衡技术的设备上,设备集群或链路集群只需要维护通过的配置即可;

(5)透明性:对用户而言,集群等于一个或多个高可靠性、高性能的设备或链路,用户感知不到,也不关心具体的网络结构,增加或减少设备或链路数量都不会影响正常的业务。

反向代理与负载均衡

反向代理是实现负载均衡的一种方法。

反向代理

先谈反向代理。用户在请求时,先把请求发送给代理的服务器,然后由代理服务器根据算法去请求真实的服务器,最后返回给用户。

这种做法,其一是提高了安全性;其二是通过多台的 real server 分担了用户的请求,实现了负载均衡。

负载均衡

再谈负载均衡。

负载均衡的出现,是通过横向的扩展,尽可能地降低单台服务器的压力。

常见 WEB 层面的负载均衡的方案有硬件 F5、Nginx 代理、LVS、各个云商的负载均衡服务 (如 AWS 的 ELB 服务) 等。

负载均衡后面连的一般是实际提供服务的服务器,如通过 ELB 服务,可以做到流量的均匀分担,从而减少单机服务器的压力。

由于增加了负载均衡这层,所以单纯地使用某个方案还是要考虑单点的问题。

负责由于负载均衡这个服务器未能承受住压力,宕机了,服务也是不可用的。

所以 Nginx、LVS 尽量配置多台代理,可以故障转移和故障报警,从而及时去处理代理层服务器的问题。

ELB 是亚马逊提供的服务,它本身的实现底层就有数百甚至上千的机器,所以把它想象成一个代理集群就好。

以上是大致的说了下区别,具体的实现还需要结合实际的业务情况。

四层和七层负载均衡的区别?

负载均衡又分为四层负载均衡和七层负载均衡。

四层负载均衡工作在 OSI 模型的传输层,主要工作是转发,它在接收到客户端的流量以后通过修改数据包的地址信息将流量转发到应用服务器。

七层负载均衡工作在 OSI 模型的应用层,因为它需要解析应用层流量,所以七层负载均衡在接到客户端的流量以后,还需要一个完整的 TCP/IP 协议栈。

七层负载均衡会与客户端建立一条完整的连接并将应用层的请求流量解析出来,再按照调度算法选择一个应用服务器,并与应用服务器建立另外一条连接将请求发送过去,因此七层负载均衡的主要工作就是代理。

技术原理上的区别

四层

所谓四层负载均衡,也就是主要通过报文中的目标地址和端口,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。

以常见的 TCP 为例,负载均衡设备在接收到第一个来自客户端的 SYN 请求时,即通过上述方式选择一个最佳的服务器,并对报文中目标 IP 地址进行修改(改为后端服务器 IP),直接转发给该服务器。

TCP 的连接建立,即三次握手是客户端和服务器直接建立的,负载均衡设备只是起到一个类似路由器的转发动作。

在某些部署情况下,为保证服务器回包可以正确返回给负载均衡设备,在转发报文的同时可能还会对报文原来的源地址进行修改。

七层

所谓七层负载均衡,也称为“内容交换”,也就是主要通过报文中的真正有意义的应用层内容,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。

以常见的 TCP 为例,负载均衡设备如果要根据真正的应用层内容再选择服务器,只能先代理最终的服务器和客户端建立连接 (三次握手) 后,才可能接受到客户端发送的真正应用层内容的报文,然后再根据该报文中的特定字段,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。

负载均衡设备在这种情况下,更类似于一个代理服务器。负载均衡和前端的客户端以及后端的服务器会分别建立 TCP 连接。

所以从这个技术原理上来看,七层负载均衡明显的对负载均衡设备的要求更高,处理七层的能力也必然会低于四层模式的部署方式。

那么,为什么还需要七层负载均衡呢?

应用场景的需求

七层应用负载的好处,是使得整个网络更 智能化

参考我们之前的另外一篇专门针对 HTTP 应用的优化的介绍,就可以基本上了解这种方式的优势所在。

例如访问一个网站的用户流量,可以通过七层的方式,将对图片类的请求转发到特定的图片服务器并可以使用缓存技术;将对文字类的请求可以转发到特定的文字服务器并可以使用压缩技术。

当然这只是七层应用的一个小案例,从技术原理上,这种方式可以对客户端的请求和服务器的响应进行任意意义上的修改,极大的提升了应用系统在网络层的 灵活性

很多在后台,(例如 Nginx 或者 Apache)上部署的功能可以前移到负载均衡设备上,例如客户请求中的 Header 重写,服务器响应中的关键字过滤或者内容插入等功能。

另外一个常常被提到功能就是 安全性

网络中最常见的 SYN Flood 攻击,即黑客控制众多源客户端,使用虚假 IP 地址对同一目标发送 SYN 攻击,通常这种攻击会大量发送 SYN 报文,耗尽服务器上的相关资源,以达到 Denial of Service(DoS)的目的。

从技术原理上也可以看出,四层模式下这些 SYN 攻击都会被转发到后端的服务器上;而七层模式下这些 SYN 攻击自然在负载均衡设备上就截止,不会影响后台服务器的正常运营。另外负载均衡设备可以在七层层面设定多种策略,过滤特定报文,例如 SQL Injection 等应用层面的特定攻击手段,从应用层面进一步提高系统整体安全。

现在的 7 层负载均衡,主要还是着重于应用广泛的 HTTP 协议,所以其应用范围主要是众多的网站或者内部信息平台等基于 B / S 开发的系统。

4 层负载均衡则对应其他 TCP 应用,例如基于 C / S 开发的 ERP 等系统。

七层应用需要考虑的问题。

是否真的必要,七层应用的确可以提高流量智能化,同时必不可免的带来设备配置复杂,负载均衡压力增高以及故障排查上的复杂性等问题。在设计系统时需要考虑四层七层同时应用的混杂情况。

是否真的可以提高安全性。例如 SYN Flood 攻击,七层模式的确将这些流量从服务器屏蔽,但负载均衡设备本身要有强大的抗 DDoS 能力,否则即使服务器正常而作为中枢调度的负载均衡设备故障也会导致整个应用的崩溃。

是否有足够的灵活度。七层应用的优势是可以让整个应用的流量智能化,但是负载均衡设备需要提供完善的七层功能,满足客户根据不同情况的基于应用的调度。最简单的一个考核就是能否取代后台 Nginx 或者 Apache 等服务器上的调度功能。能够提供一个七层应用开发接口的负载均衡设备,可以让客户根据需求任意设定功能,才真正有可能提供强大的灵活性和智能性。

如何选择

负载均衡器如何选择要转发的后端服务器?

决定因素

负载均衡器一般根据两个因素来决定要将请求转发到哪个服务器。

首先,确保所选择的服务器能够对请求做出响应,然后根据预先配置的规则从健康服务器池(healthy pool)中进行选择。

因为,负载均衡器应当只选择能正常做出响应的后端服务器,因此就需要有一种判断后端服务器是否「健康」的方法。

为了监视后台服务器的运行状况,运行状态检查服务会定期尝试使用转发规则定义的协议和端口去连接后端服务器。

如果,服务器无法通过健康检查,就会从池中剔除,保证流量不会被转发到该服务器,直到其再次通过健康检查为止。

负载均衡算法

负载均衡算法决定了后端的哪些健康服务器会被选中。

1. 随机算法

Random 随机,按权重设置随机概率。

在一个截面上碰撞的概率高,但调用量越大分布越均匀,而且按概率使用权重后也比较均匀,有利于动态调整提供者权重。

2. 轮询及加权轮询

轮询 (Round Robbin) 当服务器群中各服务器的处理能力相同时,且每笔业务处理量差异不大时,最适合使用这种算法。

轮循,按公约后的权重设置轮循比率。存在慢的提供者累积请求问题,比如:第二台机器很慢,但没挂,当请求调到第二台时就卡在那,久而久之,所有请求都卡在调到第二台上。

加权轮询 (Weighted Round Robbin) 为轮询中的每台服务器附加一定权重的算法。

比如服务器 1 权重 1,服务器 2 权重 2,服务器 3 权重 3,则顺序为 1 -2-2-3-3-3-1-2-2-3-3-3- ……

3. 最小连接及加权最小连接

(1)最少连接 (Least Connections) 在多个服务器中,与处理连接数 (会话数) 最少的服务器进行通信的算法。即使在每台服务器处理能力各不相同,每笔业务处理量也不相同的情况下,也能够在一定程度上降低服务器的负载。

(2)加权最少连接 (Weighted Least Connection) 为最少连接算法中的每台服务器附加权重的算法,该算法事先为每台服务器分配处理连接的数量,并将客户端请求转至连接数最少的服务器上。

根据系统的负载去处理。

4. 哈希算法

  • 普通哈希
  • 一致性哈希一致性 Hash,相同参数的请求总是发到同一提供者。

当某一台提供者挂时,原本发往该提供者的请求,基于虚拟节点,平摊到其它提供者,不会引起剧烈变动。

5. IP 地址散列

通过管理发送方 IP 和目的地 IP 地址的散列,将来自同一发送方的分组 (或发送至同一目的地的分组) 统一转发到相同服务器的算法。

当客户端有一系列业务需要处理而必须和一个服务器反复通信时,该算法能够以流 (会话) 为单位,保证来自相同客户端的通信能够一直在同一服务器中进行处理。

6. URL 散列

通过管理客户端请求 URL 信息的散列,将发送至相同 URL 的请求转发至同一服务器的算法。

解决单点故障问题

最后,想要解决负载均衡器的单点故障问题,可以将第二个负载均衡器连接到第一个上,从而形成一个集群。

ps: 负载均衡本身不要成为单点瓶颈。

当主负载均衡器发生了故障,就需要将用户请求转到第二个负载均衡器。

浮动 IP

因为 DNS 更改通常会较长的时间才能生效,因此需要能灵活解决 IP 地址重新映射的方法,比如浮动 IP(floating IP)。

这样域名可以保持和相同的 IP 相关联,而 IP 本身则能在服务器之间移动。

负载均衡的实现(DNS > 数据链路层 > IP 层 > Http 层)?

DNS 域名解析负载均衡(延迟)

利用 DNS 处理域名解析请求的同时进行负载均衡是另一种常用的方案。

在 DNS 服务器中配置多个 A 记录,如:www.mysite.com IN A 114.100.80.1、www.mysite.com IN A 114.100.80.2、www.mysite.com IN A 114.100.80.3.

每次域名解析请求都会根据负载均衡算法计算一个不同的 IP 地址返回,这样 A 记录中配置的多个服务器就构成一个集群,并可以实现负载均衡。

DNS 域名解析负载均衡的优点是将负载均衡工作交给 DNS,省略掉了网络管理的麻烦,缺点就是 DNS 可能缓存 A 记录,不受网站控制。

事实上,大型网站总是部分使用 DNS 域名解析,作为第一级负载均衡手段,然后再在内部做第二级负载均衡。

数据链路层负载均衡(LVS)

数据链路层负载均衡是指在通信协议的数据链路层修改 mac 地址进行负载均衡。

这种数据传输方式又称作三角传输模式,负载均衡数据分发过程中不修改 IP 地址,只修改目的的 mac 地址,通过配置真实物理服务器集群所有机器虚拟 IP 和负载均衡服务器 IP 地址一样,从而达到负载均衡,这种负载均衡方式又称为直接路由方式(DR).

在上图中,用户请求到达负载均衡服务器后,负载均衡服务器将请求数据的目的 mac 地址修改为真是 WEB 服务器的 mac 地址,并不修改数据包目标 IP 地址,因此数据可以正常到达目标 WEB 服务器,该服务器在处理完数据后可以经过网管服务器而不是负载均衡服务器直接到达用户浏览器。

使用三角传输模式的链路层负载均衡是目前大型网站所使用的最广的一种负载均衡手段。

在 linux 平台上最好的链路层负载均衡开源产品是 LVS(linux virtual server)。

IP 负载均衡(SNAT)

IP 负载均衡:即在 网络层通过修改请求目标地址进行负载均衡

用户请求数据包到达负载均衡服务器后,负载均衡服务器在操作系统内核进行获取网络数据包,根据负载均衡算法计算得到一台真实的 WEB 服务器地址,然后将数据包的 IP 地址修改为真实的 WEB 服务器地址,不需要通过用户进程处理。

真实的 WEB 服务器处理完毕后,相应数据包回到负载均衡服务器,负载均衡服务器再将数据包源地址修改为自身的 IP 地址发送给用户浏览器。

这里的关键在于真实 WEB 服务器相应数据包如何返回给负载均衡服务器,一种是负载均衡服务器在修改目的 IP 地址的同时修改源地址,将数据包源地址改为自身的 IP,即源地址转换(SNAT),另一种方案是将负载均衡服务器同时作为真实物理服务器的网关服务器,这样所有的数据都会到达负载均衡服务器。

IP 负载均衡在内核进程完成数据分发,较反向代理均衡有更好的处理性能。

但由于所有请求响应的数据包都需要经过负载均衡服务器,因此负载均衡的 网卡带宽成为系统的瓶颈

HTTP 重定向负载均衡(少见)

HTTP 重定向服务器是一台普通的应用服务器,其唯一的功能就是根据用户的 HTTP 请求计算一台真实的服务器地址,并将真实的服务器地址写入 HTTP 重定向响应中(响应状态吗 302)返回给浏览器,然后浏览器再自动请求真实的服务器。

这种负载均衡方案的优点是比较简单,缺点是浏览器需要每次请求两次服务器才能拿完成一次访问,性能较差;

使用 HTTP302 响应码重定向,可能是搜索引擎判断为 SEO 作弊,降低搜索排名。

重定向服务器自身的处理能力有可能成为瓶颈。因此这种方案在实际使用中并不见多。

反向代理负载均衡(nginx)

传统代理服务器位于浏览器一端,代理浏览器将 HTTP 请求发送到互联网上。而反向代理服务器则位于网站机房一侧,代理网站 web 服务器接收 http 请求。

反向代理的作用是保护网站安全,所有互联网的请求都必须经过代理服务器,相当于在 web 服务器和可能的网络攻击之间建立了一个屏障。

除此之外,代理服务器也可以配置缓存加速 web 请求。当用户第一次访问静态内容的时候,静态内存就被缓存在反向代理服务器上,这样当其他用户访问该静态内容时,就可以直接从反向代理服务器返回,加速 web 请求响应速度,减轻 web 服务器负载压力。

另外,反向代理服务器也可以实现负载均衡的功能。

由于反向代理服务器转发请求在 HTTP 协议层面,因此也叫应用层负载均衡。

优点是部署简单,缺点是可能成为系统的瓶颈。

ps: 瓶颈应该不至于,可以做成集群。

拓展阅读

负载均衡的常见实现方式 -DNS Lvs Nginx

F5- 硬件负载均衡

Nginx- 软件反向代理负载均衡

HAProxy- 软件负载均衡器

高可用 + 高并发 + 负载均衡架构

小结

本节内容主要讲述了为什么需要负载均衡,以及负载均衡的常见策略。

后面我们来学习一下

参考资料

容量设计与负载均衡专题

反向代理和负载均衡有何区别?

什么是负载均衡?

负载均衡基础知识

负载均衡

退出移动版