关于java:Nginx-从安装到高可用一篇搞定99%-的人都收藏了

26次阅读

共计 12947 个字符,预计需要花费 33 分钟才能阅读完成。

起源:blog.csdn.net/qq_34886352/article/details/103581973


一、Nginx 装置

1、去官网 http://nginx.org/ 下载对应的 nginx 包,举荐应用稳固版本

2、上传 nginx 到 linux 零碎

3、装置依赖环境

(1)装置 gcc 环境

yum install gcc-c++

(2)装置 PCRE 库,用于解析正则表达式

yum install -y pcre pcre-devel

(3)zlib 压缩和解压缩依赖

yum install -y zlib zlib-devel

(4)SSL 平安的加密的套接字协定层,用于 HTTP 平安传输,也就是 https

yum install -y openssl openssl-devel

4、解压,须要留神,解压后失去的是源码,源码须要编译后能力装置

tar -zxvf nginx-1.16.1.tar.gz

5、编译之前,先创立 nginx 长期目录,如果不创立,在启动 nginx 的过程中会报错

mkdir /var/temp/nginx -p

6、在 nginx 目录,输出如下命令进行配置,目标是为了创立 makefile 文件

./configure \
--prefix=/usr/local/nginx \
--pid-path=/var/run/nginx/nginx.pid \
--lock-path=/var/lock/nginx.lock \
--error-log-path=/var/log/nginx/error.log \
--http-log-path=/var/log/nginx/access.log \
--with-http_gzip_static_module \
--http-client-body-temp-path=/var/temp/nginx/client \
--http-proxy-temp-path=/var/temp/nginx/proxy \
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
--http-scgi-temp-path=/var/temp/nginx/scgi

注:代表在命令行中换行,用于进步可读性配置命令:

图片

7、make 编译 & 装置

make
make install

8、进入 sbin 目录启动 nginx

启动:nginx 进行:./nginx -s stop 从新加载:./nginx -s reload

二、配置反向代理

1、配置 upstream

upstream [proxyName] {
    server 192.168.1.173:8080;
    server 192.168.1.174:8080;
    server 192.168.1.175:8080;
}

2、配置 server

server {
    listem  80;
    server_name www.tomcats.com;

    location / {proxy_pass http://tomcats;}
}

三、配置负载平衡

nginx 默认采纳轮训的形式进行负载平衡

1、应用加权轮询

upstream [proxyName] {
    server 192.168.1.173:8080 weight=1;
    server 192.168.1.174:8080 weight=5;
    server 192.168.1.175:8080 weight=2;
}

2、hash 负载平衡

upstream [proxyName] {
    ip_hash

    server 192.168.1.173:8080;
    server 192.168.1.174:8080;
    server 192.168.1.175:8080;
}

hash 算法实际上只会计算 192.168.1 这段做哈希

应用 ip_hash 的留神点:

  • 不能把后盾服务器间接移除,只能标记 down.

3、url hash 负载平衡

upstream [proxyName] {
    hash $request_url;

    server 192.168.1.173:8080;
    server 192.168.1.174:8080;
    server 192.168.1.175:8080;
}

4、最小连贯负载平衡

upstream [proxyName] {
    least_conn;

    server 192.168.1.173:8080;
    server 192.168.1.174:8080;
    server 192.168.1.175:8080;
}

四、upstream 指令参数

  • max_conns:限度最大同时连接数 1.11.5 之前只能用于商业版
  • slow_start:单位秒,权重在指定工夫内从 1 回升到指定值,不实用与 hash 负载平衡、随机负载平衡 如果在 upstream 中只有一台 server,则该参数生效(商业版才有)
  • down:禁止拜访
  • backup:备用机 只有在其余服务器无法访问的时候能力拜访到 不实用与 hash 负载平衡、随机负载平衡
  • max_fails:示意失败几次,则标记 server 已宕机,剔出上游服务 默认值 1
  • fail_timeout:示意失败的重试工夫 默认值 10

1、keepalived

upstream [proxyName] {
    server 192.168.1.173:8080 weight=1;
    server 192.168.1.174:8080 weight=5;
    server 192.168.1.175:8080 weight=2;

    keepalive 32; #放弃的连接数
}

server {
    listem  80;
    server_name www.tomcats.com;

    location / {
        proxy_pass http://tomcats;
        proxy_http_version 1.1; #连贯的协定版本
        proxy_set_header Connection ""; 清空连贯申请头
    }
}

2、管制浏览器缓存

server {
    listem  80;
    server_name www.tomcats.com;

    location / {
        proxy_pass http://tomcats;
               expires 10s;  #浏览器缓存 10 秒钟
               #expires @22h30m  #在早晨 10 点 30 的时候过期
               #expires -1h  #缓存在一小时前时效
               #expires epoch  #不设置缓存
               #expires off  #缓存敞开,浏览器本人管制缓存
               #expires max  #最大过期工夫
    }
}

3、反向代理缓存

upstream [proxyName] {
    server 192.168.1.173:8080 weight=1;
    server 192.168.1.174:8080 weight=5;
    server 192.168.1.175:8080 weight=2;
}

#proxy_cache_path 设置缓存保留的目录的地位
#keys_zone 设置共享内以及占用的空间大小
#mas_size 设置缓存最大空间
#inactive 缓存过期工夫,错过此工夫主动清理
#use_temp_path 敞开零时目录
proxy_cache_path /usr/local/nginx/upsteam_cache keys_zone=mycache:5m max_size=1g inactive=8h use_temp_path=off;

server {
    listem  80;
    server_name www.tomcats.com;
    #开启并应用缓存
    proxy_cache mycache;
    #针对 200 和 304 响应码的缓存过期工夫
    proxy_cache_valid 200 304 8h;

    location / {proxy_pass http://tomcats;}
}

五、配置 ssl 证书提供 https 拜访

1. 装置 SSL 模块

要在 nginx 中配置 https,就必须装置 ssl 模块,也就是: http_ssl_module

进入到 nginx 的解压目录:/home/software/nginx-1.16.1

新增 ssl 模块(原来的那些模块须要保留)

./configure \
--prefix=/usr/local/nginx \
--pid-path=/var/run/nginx/nginx.pid \
--lock-path=/var/lock/nginx.lock \
--error-log-path=/var/log/nginx/error.log \
--http-log-path=/var/log/nginx/access.log \
--with-http_gzip_static_module \
--http-client-body-temp-path=/var/temp/nginx/client \
--http-proxy-temp-path=/var/temp/nginx/proxy \
--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
--http-scgi-temp-path=/var/temp/nginx/scgi  \
--with-http_ssl_module

编译和装置

makemake install

2、配置 HTTPS

把 ssl 证书 *.crt 和 私钥 *.key 拷贝到 /usr/local/nginx/conf 目录中。

新增 server 监听 443 端口:

server {
    listen       443;
    server_name  www.imoocdsp.com;
    # 开启 ssl
    ssl     on;
    # 配置 ssl 证书
    ssl_certificate      1_www.imoocdsp.com_bundle.crt;
    # 配置证书秘钥
    ssl_certificate_key  2_www.imoocdsp.com.key;
    # ssl 会话 cache
    ssl_session_cache    shared:SSL:1m;
    # ssl 会话超时工夫
    ssl_session_timeout  5m;
    # 配置加密套件,写法遵循 openssl 规范
    ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
    ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;
    ssl_prefer_server_ciphers on;

    location / {
        proxy_pass http://tomcats/;
        index  index.html index.htm;
    }
}

六、配置 ha nginx

1、装置 keepalived

(1)下载

https://www.keepalived.org/download.html

(2)解压

tar -zxvf keepalived-2.0.18.tar.gz

(3)应用 configure 命令配置装置目录与外围配置文件所在位置:

./configure --prefix=/usr/local/keepalived --sysconf=/etc
  • prefix:keepalived 装置的地位 sysconf:keepalived 外围配置文件所在位置,固定地位,改成其余地位则 keepalived 启动不了,/var/log/messages中会报错
  • sysconf:keepalived 外围配置文件所在位置,固定地位,改成其余地位则 keepalived 启动不了,/var/log/messages中会报错

配置过程中可能会呈现正告信息,如下所示:

*** WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS.

# 装置 libnl/libnl- 3 依赖
yum -y install libnl libnl-devel

(4)装置 keepalived

make && make install

(5)配置文件 在/etc/keepalived/keepalived.conf

(6)遗记装置配置的目录,则通过如下命令找到:

whereis keepalived

(7)启动 keepalived

进入 sbin 目录

./keepalived

2、配置 keepalived 主机

(1)通过命令 vim keepalived.conf 关上配置文件

global_defs {
    # 路由 id:以后装置 keepalived 的节点主机标识符,保障全局惟一
    router_id keep_171
}

vrrp_instance VI_1 {
    # 示意状态是 MASTER 主机还是备用机 BACKUP
    state MASTER
    # 该实例绑定的网卡
    interface ens33
    # 保障主备节点统一即可
    virtual_router_id 51
    # 权重,master 权重个别高于 backup,如果有多个,那就是选举,谁的权重高,谁就入选
    priority 100
    # 主备之间同步查看工夫距离,单位秒
    advert_int 2
    # 认证权限明码,避免非法节点进入
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    # 虚构进去的 ip,能够有多个(vip)virtual_ipaddress {192.168.1.161}
}

附:查看网卡信息命令

ip addr

(2)启动 keepalived

(3)查看过程

ps -ef|grep keepalived

(4)查看 vip(虚构 ip)

在网卡 ens33 下,多了一个192.168.1.161,这个就是虚构 ip

3、把 keepalived 注册为零碎服务

(1)拷贝配置文件

  • 将 keepalived 目录下 etc/init.d/keepalived 拷贝到 /etc/init.d/
  • 将 keepalived 目录下 etc/sysconfig/keepalived 拷贝到 /etc/sysconfig/

(2)刷新 systemctl

systemctl daemon-reload

(3)启动、进行、重启 keepalived

# 启动
systemctl start keepalived.service
#进行
systemctl stop keepalived.service
#重启
systemctl restart keepalived.service

4、实现双机主备高可用

图片

(1)批改备机配置

global_defs {router_id keep_172}
vrrp_instance VI_1 {
    # 备用机设置为 BACKUP
    state BACKUP
    interface ens33
    virtual_router_id 51
    # 权重低于 MASTER
    priority 80
    advert_int 2
    authentication {auth_type PASS auth_pass 1111}
    virtual_ipaddress {
        # 留神:主备两台的 vip 都是一样的,绑定到同一个 vip
        192.168.1.161
    }
}

(2) 启动 Keepalived

(3) 拜访 vip 即可拜访主机,当主机生效时拜访 vip 就会拜访到备机

5、keepalived 配置 nginx 主动重启

(1)编写脚本

/etc/keepalived/ 下创立脚本check_nginx_alive_or_not

#!/bin/bash

A=`ps -C nginx --no-header |wc -l`
# 判断 nginx 是否宕机,如果宕机了,尝试重启
if [$A -eq 0];then
    /usr/local/nginx/sbin/nginx
    # 期待一小会再次查看 nginx,如果没有启动胜利,则进行 keepalived,使其启动备用机
    sleep 3
        if [`ps -C nginx --no-header |wc -l` -eq 0];then
            killall keepalived
        fi
fi

(2)增加运行权限

chmod +x /etc/keepalived/check_nginx_alive_or_not.sh

(3)配置 keepalived 监听 nginx 脚本

vrrp_script check_nginx_alive {
    script "/etc/keepalived/check_nginx_alive_or_not.sh"
    interval 2 # 每隔两秒运行上一行脚本
    weight 10 # 如果脚本运行失败,则降级权重 +10
}

(4)在 vrrp_instance 中新增监控的脚本

track_script {check_nginx_alive # 追踪 nginx 脚本}

(5)重启 Keepalived 使得配置文件失效

systemctl restart keepalived

6、keepalived 双主热备

(1)配置 DNS 轮询

在同一个域名下配置两个 ip,自行百度

(2)配置第一台主机

global_defs {router_id keep_171}
vrrp_instance VI_1 {
    state MASTER i
    nterface ens33
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.1.161}
}

vrrp_instance VI_2  {
    state BACKUP
    interface ens33
    virtual_router_id 52
    priority 80
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.1.162}
}

(3)配置第二台主机

global_defs {router_id keep_172}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 80
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.1.161}
}

vrrp_instance VI_2 {
    state MASTER
    interface ens33
    virtual_router_id 52
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.1.162}
}

(4)重启两台 Keepalived

systemctl restart keepalived

七、LVS(Linux Virtual Server)实现高可用负载平衡

1、为什么要应用 LVS+Nginx

  • lvs 基于四层负载平衡,工作效率较 Nginx 的七层负载更高,应用 LVS 搭建 Nginx 集群,能够进步性能
  • 四层负载平衡无奈对信息处理,只能通过 ip+ 端口的模式转发,所以须要七成负载进行数据的解决
  • Nginx 接管申请来回,LVS 能够只承受不响应

2、LVS 的三种模式

(1)NAT 模式

  • 客户端将申请发往 LVS,LVS 会抉择一台服务器响应申请,服务器将后果返回给 LVS,LVS 再返回给客户端。
  • 在 NAT 模式中,服务器的网关必须指向 LVS,否则报文无奈送达客户端
  • NAT 技术将申请的报文和响应的报文都须要通过 LVS 进行地址改写,因而网站访问量比拟大的时候负载平衡调度器有比拟大的瓶颈,个别要求最多之能 10-20 台节点
  • NAT 模式反对对 IP 地址和端口进行转换。即用户申请的端口和实在服务器的端口能够不统一

(2)TUN 模式

  • 客户端将申请发往 LVS,LVS 会抉择一台服务器响应申请,在客户端与服务器之间建设隧道,返回后果的时候间接由服务器返回响应,不在通过 LVS。
  • TUN 模式必须所有的服务器上都绑定 VIP 的 IP 地址,所有的服务器都必须有网卡。
  • TUN 模式走隧道运维难度大,并且会间接裸露服务器地址
  • 服务器将应答包间接发给用户。所以,缩小了负载均衡器的大量数据流动,负载均衡器不再是零碎的瓶颈,就能解决很微小的申请量,这种形式,一台负载均衡器可能为很多服务器进行散发。而且跑在公网上就能进行不同地区的散发

(3)DR 模式

  • 客户端将申请发往 LVS,LVS 会抉择一台服务器响应申请,返回后果的时候通过对立的路由进行返回,不在通过 LVS。
  • 和 TUN 模式一样,LVS 只是散发申请,应答包通过独自的路由返回给客户端,与 TUN 相比这种形式不须要隧道构造,能够兼容大多数的操作系统,同时对立路由能够暗藏实在的物理服务器。DR 模式效率更高,但配置更简单.
  • 所有服务器节点和 LVS 只能在一个局域网外面。

3、搭建 LVS-DR 模式

先敞开掉服务器上网络配置管理器,防止网络接口抵触

systemctl stop NetworkManagersystemctl disable NetworkManager

(1)创立子接口(创立 LVS 的虚构 ip)

进入网卡配置目录 /etc/sysconfig/network-scripts/, 找到网卡配置文件,这里以ifcfg-ens33 为例,拷贝并创立子接口

cp ifcfg-ens33 ifcfg-ens33:1

批改子接口配置如下

  • 配置中的 192.168.1.150 就是 vip,是提供给外网用户拜访的 ip 地址
DEVICE="ens33:1"ONBOOT="yes"IPADDR=192.168.1.150NETMASK=255.255.255.0BOOTPROTO=static
  • 重启网络服务
service network restart

重启胜利后,ip addr 查看一下,你会发现多了一个 ip,也就是虚构 ip(vip)

留神:阿里云不反对配置网卡,须要购买相应的负载平衡服务,腾讯云反对配置网卡,但须要购买网卡反对,一个网卡反对 10 个虚构 ip 配置

(2)装置 ipvsadm

现在的 centos 都集成了 LVS,所以 ipvs 是自带的,咱们只须要装置 ipvsadm 即可(ipvsadm 是治理集群的工具,通过 ipvs 能够治理集群,查看集群等操作)

yum install ipvsadm

(3)配置服务器(RS)的虚构 ip

进入网卡配置目录/etc/sysconfig/network-scripts/, 找到ifcfg-lo,拷贝并创立子接口

cp ifcfg-lo ifcfg-lo:1

批改子接口配置如下

DEVICE="lo:1"
IPADDR=192.168.1.150
NETMASK=255.255.255.255
NETWORK=127.0.0.0
BROADCAST=127.255.255.255
ONBOOT="yes"
NAME=loopback

重启网络服务胜利后,ip addr 查看一下,你会发现多了一个 ip,也就是虚构 ip(vip)

(4)为服务器(RS)配置 arp

ARP 响应级别与通告行为参数阐明

arp-ignore:ARP 响应级别(解决申请)0:只有本机配置了 ip,就能响应申请
    1:申请的指标地址达到对应的网络接口,才会响应申请
arp-announce:ARP 通告行为(返回响应)0:本机上任何网络接口都向外通告,所有的网卡都能承受到通告
    1:尽可能防止本网卡与不匹配的指标进行通告 2:只在本网卡通告

关上 sysctl.conf:

vim /etc/sysctl.conf

配置所有网卡、默认网卡以及虚构网卡的 arp 响应级别和通告行为,别离对应:all,default,lo

# configration for lvs net.ipv4.conf.all.arp_ignore = 1 net.ipv4.conf.default.arp_ignore = 1 net.ipv4.conf.lo.arp_ignore = 1 net.ipv4.conf.all.arp_announce = 2 net.ipv4.conf.default.arp_announce = 2 net.ipv4.conf.lo.arp_announce = 2

刷新配置文件

sysctl -p

减少一个网关,用于接收数据报文,当有申请到本机后,会交给 lo 去解决

route add -host 192.168.1.150 dev lo:1

将网关增加至开机启动

echo "route add -host 192.168.1.150 dev lo:1" >> /etc/rc.local

(4)应用 ipvsadm 配置集群规定

创立 LVS 节点,用户拜访的集群调度者

ipvsadm -A -t 192.168.1.150:80 -s rr -p 5
  • -A:增加集群
  • -t:tcp 协定 ip 地址:设定集群的拜访
  • ip:也就是 LVS 的虚构 ip
  • -s:设置负载平衡的算法,
  • rr:示意轮询
  • -p:设置连贯长久化的工夫, 在指定工夫内同一个用户的申请会拜访到同一个服务器中

创立多台 RS 实在服务器

ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.171:80 -g
ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.172:80 -g
  • -a:增加实在服务器
  • -t:tcp 协定
  • -r:实在服务器的 ip 地址
  • -g:设定 DR 模式

保留到规定库,否则重启生效

ipvsadm -S

查看集群

# 查看集群列表
ipvsadm -Ln
#查看集群状态
ipvsadm -Ln --stats

一些其余命令

 # 重启 ipvsadm,重启后须要重新配置
 service ipvsadm restart
 # 查看长久化连贯
 ipvsadm -Ln --persistent-conn
 # 查看连贯申请过期工夫以及申请源 ip 和指标 ip
 ipvsadm -Lnc
 # 设置 tcp tcpfin udp 的过期工夫(个别放弃默认)ipvsadm --set 1 1 1
 # 查看过期工夫
 ipvsadm -Ln --timeout

(5)拜访虚构 ip,实现 LVS 搭建

附:LVS 的负载平衡算法

(1)动态算法

动态:依据 LVS 自身自在的固定的算法散发用户申请。

  • 轮询(Round Robin 简写’rr’):轮询算法假如所有的服务器解决申请的能力都一样的,调度器会把所有的申请平均分配给每个实在服务器。(同 Nginx 的轮询)
  • 加权轮询(Weight Round Robin 简写’wrr’):装置权重比例调配用户申请。权重越高,被调配到解决的申请越多。(同 Nginx 的权重)
  • 源地址散列(Source Hash 简写’sh’):同一个用户 ip 的申请,会由同一个 RS 来解决。(同 Nginx 的 ip_hash)
  • 指标地址散列(Destination Hash 简写’dh’):依据 url 的不同,申请到不同的 RS。(同 Nginx 的 url_hash)

(2)动静算法

动静:会依据流量的不同,或者服务器的压力不同来调配用户申请,这是动静计算的。

  • 最小连接数(Least Connections 简写’lc’):把新的连贯申请调配到以后连接数最小的服务器。
  • 加权起码连接数(Weight Least Connections 简写’wlc’):服务器的解决性能用数值来代表,权重越大解决的申请越多。Real Server 有可能会存在性能上的差别,wlc 动静获取不同服务器的负载情况,把申请散发到性能好并且比拟闲暇的服务器。
  • 最短期望提早(Shortest Expected Delay 简写’sed’):非凡的 wlc 算法。举例论述,假如有 ABC 三台服务器,权重别离为 1、2、3。如果应用 wlc 算法的话,当一个新申请进来,它可能会分给 ABC 中的任意一个。应用 sed 算法后会进行如下运算:

    • A:(1+1)/1=2
  • B:(1+2)/2=3/2
  • C:(1+3)/3=4/3

最终后果,会把这个申请交给得出运算后果最小的服务器。起码队列调度(Never Queue 简写’nq’):永不应用队列。如果有 Real Server 的连接数等于 0,则间接把这个申请调配过来,不须要在排队期待运算了(sed 运算)。

八、搭建 Keepalived+Lvs+Nginx 高可用集群负载平衡

如果原先服务器上配置了 LVS+nginx 须要清空 ipvsadm 中的配置

ipvsadm -C

如果配置了 Keepalived+Nginx 双主集群也须要去除掉 Keepalived 中原先的配置,依照的后文进行配置

(1)应用 keepalived 配置 Master LVS

在 LVS 的机器上装置 keepalived,装置过程参考上文

(1)批改 keepalived 的配置

global_defs {router_id keep_151}
vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 41
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.1.150}
}

#配置集群拜访的 ip+ 端口,端口和 nginx 保持一致
virtual_server 192.168.1.150 80{
    #健康检查的工夫,单位:秒
    delay_loop 6
    #配置负载平衡的算法,默认的轮询
    lb_algo rr
    #设置 LVS 的模式 NAT|TUN|DR
    lb-kind DR
    #设置会话长久化的工夫
    persistence_timeout 5
    #协定
    protocol TCP

    #配置负载平衡的实在服务器,也就是 nginx 节点的具体的 ip 地址
    real_server 192.168.1.171 80{
        #轮询权重配比
        weight 1
        #设置健康检查
        TCP_CHECK {
            #查看 80 端口
            connect_port 80
            #超时工夫
            connect_timeout 2
            #重试次数
            nb_get_retry 2
            #重试间隔时间
            delay_before_retry 3
        }
    }
    real_server 192.168.1.171 80{
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 2
            nb_get_retry 2
            delay_before_retry 3
        }
    }
}

(2)启动 / 重启 keepalived

systemctl restart keepalived

(2)应用 keepalived 配置 Backup LVS

配置在备用机上

global_defs {router_id keep_152}
vrrp_instance VI_1 {
    state  BACKUP
    interface ens33
    virtual_router_id 41
    priority 50
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.1.150}
}

#配置集群拜访的 ip+ 端口,端口和 nginx 保持一致
virtual_server 192.168.1.150 80{
    #健康检查的工夫,单位:秒
    delay_loop 6
    #配置负载平衡的算法,默认的轮询
    lb_algo rr
    #设置 LVS 的模式 NAT|TUN|DR
    lb-kind DR
    #设置会话长久化的工夫
    persistence_timeout 5
    #协定
    protocol TCP

    #配置负载平衡的实在服务器,也就是 nginx 节点的具体的 ip 地址
    real_server 192.168.1.171 80{
        #轮询权重配比
        weight 1
        #设置健康检查
        TCP_CHECK {
            #查看 80 端口
            connect_port 80
            #超时工夫
            connect_timeout 2
            #重试次数
            nb_get_retry 2
            #重试间隔时间
            delay_before_retry 3
        }
    }
    real_server 192.168.1.171 80{
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 2
            nb_get_retry 2
            delay_before_retry 3
        }
    }
}

近期热文举荐:

1.1,000+ 道 Java 面试题及答案整顿(2022 最新版)

2. 劲爆!Java 协程要来了。。。

3.Spring Boot 2.x 教程,太全了!

4. 别再写满屏的爆爆爆炸类了,试试装璜器模式,这才是优雅的形式!!

5.《Java 开发手册(嵩山版)》最新公布,速速下载!

感觉不错,别忘了顺手点赞 + 转发哦!

正文完
 0