起源:blog.csdn.net/qq_34886352/article/details/103581973
一、Nginx装置
1、去官网http://nginx.org/下载对应的nginx包,举荐应用稳固版本
2、上传nginx到linux零碎
3、装置依赖环境
(1)装置gcc环境
yum install gcc-c++
(2)装置PCRE库,用于解析正则表达式
yum install -y pcre pcre-devel
(3)zlib压缩和解压缩依赖
yum install -y zlib zlib-devel
(4)SSL 平安的加密的套接字协定层,用于HTTP平安传输,也就是https
yum install -y openssl openssl-devel
4、解压,须要留神,解压后失去的是源码,源码须要编译后能力装置
tar -zxvf nginx-1.16.1.tar.gz
5、编译之前,先创立nginx长期目录,如果不创立,在启动nginx的过程中会报错
mkdir /var/temp/nginx -p
6、在nginx目录,输出如下命令进行配置,目标是为了创立makefile文件
./configure \--prefix=/usr/local/nginx \--pid-path=/var/run/nginx/nginx.pid \--lock-path=/var/lock/nginx.lock \--error-log-path=/var/log/nginx/error.log \--http-log-path=/var/log/nginx/access.log \--with-http_gzip_static_module \--http-client-body-temp-path=/var/temp/nginx/client \--http-proxy-temp-path=/var/temp/nginx/proxy \--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \--http-scgi-temp-path=/var/temp/nginx/scgi
注:代表在命令行中换行,用于进步可读性配置命令:
图片
7、make编译&装置
makemake install
8、进入sbin目录启动nginx
启动:nginx进行:./nginx -s stop从新加载:./nginx -s reload
二、配置反向代理
1、配置upstream
upstream [proxyName] { server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080;}
2、配置server
server { listem 80; server_name www.tomcats.com; location / { proxy_pass http://tomcats; }}
三、配置负载平衡
nginx默认采纳轮训的形式进行负载平衡
1、应用加权轮询
upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2;}
2、hash负载平衡
upstream [proxyName] { ip_hash server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080;}
hash算法实际上只会计算 192.168.1这段做哈希
应用ip_hash的留神点:
- 不能把后盾服务器间接移除,只能标记down.
3、url hash负载平衡
upstream [proxyName] { hash $request_url; server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080;}
4、最小连贯负载平衡
upstream [proxyName] { least_conn; server 192.168.1.173:8080; server 192.168.1.174:8080; server 192.168.1.175:8080;}
四、upstream指令参数
max_conns
:限度最大同时连接数 1.11.5之前只能用于商业版slow_start
:单位秒,权重在指定工夫内从1回升到指定值,不实用与hash负载平衡、随机负载平衡 如果在 upstream 中只有一台 server,则该参数生效(商业版才有)down
:禁止拜访backup
:备用机 只有在其余服务器无法访问的时候能力拜访到 不实用与hash负载平衡、随机负载平衡max_fails
:示意失败几次,则标记server已宕机,剔出上游服务 默认值1fail_timeout
:示意失败的重试工夫 默认值10
1、keepalived
upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2; keepalive 32; #放弃的连接数}server { listem 80; server_name www.tomcats.com; location / { proxy_pass http://tomcats; proxy_http_version 1.1; #连贯的协定版本 proxy_set_header Connection ""; 清空连贯申请头 }}
2、管制浏览器缓存
server { listem 80; server_name www.tomcats.com; location / { proxy_pass http://tomcats; expires 10s; #浏览器缓存10秒钟 #expires @22h30m #在早晨10点30的时候过期 #expires -1h #缓存在一小时前时效 #expires epoch #不设置缓存 #expires off #缓存敞开,浏览器本人管制缓存 #expires max #最大过期工夫 }}
3、反向代理缓存
upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2;}#proxy_cache_path 设置缓存保留的目录的地位#keys_zone设置共享内以及占用的空间大小#mas_size 设置缓存最大空间#inactive 缓存过期工夫,错过此工夫主动清理#use_temp_path 敞开零时目录proxy_cache_path /usr/local/nginx/upsteam_cache keys_zone=mycache:5m max_size=1g inactive=8h use_temp_path=off;server { listem 80; server_name www.tomcats.com; #开启并应用缓存 proxy_cache mycache; #针对200和304响应码的缓存过期工夫 proxy_cache_valid 200 304 8h; location / { proxy_pass http://tomcats; }}
五、配置ssl证书提供https拜访
1. 装置SSL模块
要在nginx中配置https,就必须装置ssl模块,也就是: http_ssl_module
。
进入到nginx的解压目录:/home/software/nginx-1.16.1
新增ssl模块(原来的那些模块须要保留)
./configure \--prefix=/usr/local/nginx \--pid-path=/var/run/nginx/nginx.pid \--lock-path=/var/lock/nginx.lock \--error-log-path=/var/log/nginx/error.log \--http-log-path=/var/log/nginx/access.log \--with-http_gzip_static_module \--http-client-body-temp-path=/var/temp/nginx/client \--http-proxy-temp-path=/var/temp/nginx/proxy \--http-fastcgi-temp-path=/var/temp/nginx/fastcgi \--http-uwsgi-temp-path=/var/temp/nginx/uwsgi \--http-scgi-temp-path=/var/temp/nginx/scgi \--with-http_ssl_module
编译和装置
makemake install
2、配置HTTPS
把ssl证书 *.crt
和 私钥 *.key
拷贝到/usr/local/nginx/conf
目录中。
新增 server 监听 443 端口:
server { listen 443; server_name www.imoocdsp.com; # 开启ssl ssl on; # 配置ssl证书 ssl_certificate 1_www.imoocdsp.com_bundle.crt; # 配置证书秘钥 ssl_certificate_key 2_www.imoocdsp.com.key; # ssl会话cache ssl_session_cache shared:SSL:1m; # ssl会话超时工夫 ssl_session_timeout 5m; # 配置加密套件,写法遵循 openssl 规范 ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE; ssl_prefer_server_ciphers on; location / { proxy_pass http://tomcats/; index index.html index.htm; }}
六、配置ha nginx
1、装置keepalived
(1)下载
https://www.keepalived.org/download.html
(2)解压
tar -zxvf keepalived-2.0.18.tar.gz
(3)应用configure命令配置装置目录与外围配置文件所在位置:
./configure --prefix=/usr/local/keepalived --sysconf=/etc
- prefix :keepalived装置的地位sysconf:keepalived外围配置文件所在位置,固定地位,改成其余地位则keepalived启动不了,
/var/log/messages
中会报错 - sysconf :keepalived外围配置文件所在位置,固定地位,改成其余地位则keepalived启动不了,
/var/log/messages
中会报错
配置过程中可能会呈现正告信息,如下所示:
*** WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS.# 装置libnl/libnl-3依赖yum -y install libnl libnl-devel
(4)装置keepalived
make && make install
(5)配置文件 在/etc/keepalived/keepalived.conf
(6)遗记装置配置的目录,则通过如下命令找到:
whereis keepalived
(7)启动keepalived
进入sbin目录
./keepalived
2、配置keepalived 主机
(1)通过命令 vim keepalived.conf
关上配置文件
global_defs { # 路由id:以后装置keepalived的节点主机标识符,保障全局惟一 router_id keep_171}vrrp_instance VI_1 { # 示意状态是MASTER主机还是备用机BACKUP state MASTER # 该实例绑定的网卡 interface ens33 # 保障主备节点统一即可 virtual_router_id 51 # 权重,master权重个别高于backup,如果有多个,那就是选举,谁的权重高,谁就入选 priority 100 # 主备之间同步查看工夫距离,单位秒 advert_int 2 # 认证权限明码,避免非法节点进入 authentication { auth_type PASS auth_pass 1111 } # 虚构进去的ip,能够有多个(vip) virtual_ipaddress { 192.168.1.161 }}
附:查看网卡信息命令
ip addr
(2)启动keepalived
(3)查看过程
ps -ef|grep keepalived
(4)查看vip(虚构ip)
在网卡ens33下,多了一个192.168.1.161
,这个就是虚构ip
3、把keepalived注册为零碎服务
(1)拷贝配置文件
- 将keepalived目录下
etc/init.d/keepalived
拷贝到/etc/init.d/
下 - 将keepalived目录下
etc/sysconfig/keepalived
拷贝到/etc/sysconfig/
下
(2)刷新systemctl
systemctl daemon-reload
(3)启动、进行、重启keepalived
#启动systemctl start keepalived.service#进行systemctl stop keepalived.service#重启systemctl restart keepalived.service
4、实现双机主备高可用
图片
(1)批改备机配置
global_defs { router_id keep_172}vrrp_instance VI_1 { # 备用机设置为BACKUP state BACKUP interface ens33 virtual_router_id 51 # 权重低于MASTER priority 80 advert_int 2 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { # 留神:主备两台的vip都是一样的,绑定到同一个vip 192.168.1.161 }}
(2) 启动 Keepalived
(3) 拜访vip即可拜访主机,当主机生效时拜访vip就会拜访到备机
5、keepalived配置nginx主动重启
(1)编写脚本
在/etc/keepalived/
下创立脚本check_nginx_alive_or_not
#!/bin/bashA=`ps -C nginx --no-header |wc -l`# 判断nginx是否宕机,如果宕机了,尝试重启if [ $A -eq 0 ];then /usr/local/nginx/sbin/nginx # 期待一小会再次查看nginx,如果没有启动胜利,则进行keepalived,使其启动备用机 sleep 3 if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then killall keepalived fifi
(2)增加运行权限
chmod +x /etc/keepalived/check_nginx_alive_or_not.sh
(3)配置keepalived监听nginx脚本
vrrp_script check_nginx_alive { script "/etc/keepalived/check_nginx_alive_or_not.sh" interval 2 # 每隔两秒运行上一行脚本 weight 10 # 如果脚本运行失败,则降级权重+10}
(4)在vrrp_instance中新增监控的脚本
track_script { check_nginx_alive # 追踪 nginx 脚本}
(5)重启Keepalived使得配置文件失效
systemctl restart keepalived
6、keepalived双主热备
(1)配置DNS轮询
在同一个域名下配置两个ip,自行百度
(2)配置第一台主机
global_defs { router_id keep_171}vrrp_instance VI_1 { state MASTER i nterface ens33 virtual_router_id 51 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.161 }}vrrp_instance VI_2 { state BACKUP interface ens33 virtual_router_id 52 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.162 }}
(3)配置第二台主机
global_defs { router_id keep_172}vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 priority 80 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.161 }}vrrp_instance VI_2 { state MASTER interface ens33 virtual_router_id 52 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.162 }}
(4)重启两台Keepalived
systemctl restart keepalived
七、LVS(Linux Virtual Server)实现高可用负载平衡
1、为什么要应用LVS+Nginx
- lvs基于四层负载平衡,工作效率较Nginx的七层负载更高,应用LVS搭建Nginx集群,能够进步性能
- 四层负载平衡无奈对信息处理,只能通过ip+端口的模式转发,所以须要七成负载进行数据的解决
- Nginx接管申请来回,LVS能够只承受不响应
2、LVS的三种模式
(1)NAT模式
- 客户端将申请发往LVS,LVS会抉择一台服务器响应申请,服务器将后果返回给LVS,LVS再返回给客户端。
- 在NAT模式中,服务器的网关必须指向LVS,否则报文无奈送达客户端
- NAT 技术将申请的报文和响应的报文都须要通过LVS进行地址改写,因而网站访问量比拟大的时候负载平衡调度器有比拟大的瓶颈,个别要求最多之能 10-20 台节点
- NAT 模式反对对 IP 地址和端口进行转换。即用户申请的端口和实在服务器的端口能够不统一
(2)TUN模式
- 客户端将申请发往LVS,LVS会抉择一台服务器响应申请,在客户端与服务器之间建设隧道,返回后果的时候间接由服务器返回响应,不在通过LVS。
- TUN模式必须所有的服务器上都绑定VIP的IP地址,所有的服务器都必须有网卡。
- TUN模式走隧道运维难度大,并且会间接裸露服务器地址
- 服务器将应答包间接发给用户。所以,缩小了负载均衡器的大量数据流动,负载均衡器不再是零碎的瓶颈,就能解决很微小的申请量,这种形式,一台负载均衡器可能为很多服务器进行散发。而且跑在公网上就能进行不同地区的散发
(3)DR模式
- 客户端将申请发往LVS,LVS会抉择一台服务器响应申请,返回后果的时候通过对立的路由进行返回,不在通过LVS。
- 和TUN模式一样,LVS只是散发申请,应答包通过独自的路由返回给客户端,与TUN相比这种形式不须要隧道构造,能够兼容大多数的操作系统,同时对立路由能够暗藏实在的物理服务器。DR模式效率更高,但配置更简单.
- 所有服务器节点和LVS只能在一个局域网外面。
3、搭建LVS-DR模式
先敞开掉服务器上网络配置管理器,防止网络接口抵触
systemctl stop NetworkManagersystemctl disable NetworkManager
(1)创立子接口(创立LVS的虚构ip)
进入网卡配置目录/etc/sysconfig/network-scripts/
,找到网卡配置文件,这里以ifcfg-ens33
为例,拷贝并创立子接口
cp ifcfg-ens33 ifcfg-ens33:1
批改子接口配置如下
- 配置中的 192.168.1.150 就是vip,是提供给外网用户拜访的ip地址
DEVICE="ens33:1"ONBOOT="yes"IPADDR=192.168.1.150NETMASK=255.255.255.0BOOTPROTO=static
- 重启网络服务
service network restart
重启胜利后,ip addr 查看一下,你会发现多了一个ip,也就是虚构ip(vip)
“
留神:阿里云不反对配置网卡,须要购买相应的负载平衡服务,腾讯云反对配置网卡,但须要购买网卡反对,一个网卡反对10个虚构ip配置
(2)装置ipvsadm
现在的centos都集成了LVS,所以ipvs是自带的,咱们只须要装置ipvsadm即可(ipvsadm是治理集群的工具,通过ipvs能够治理集群,查看集群等操作)
yum install ipvsadm
(3)配置服务器(RS)的虚构ip
进入网卡配置目录/etc/sysconfig/network-scripts/
,找到ifcfg-lo
,拷贝并创立子接口
cp ifcfg-lo ifcfg-lo:1
批改子接口配置如下
DEVICE="lo:1"IPADDR=192.168.1.150NETMASK=255.255.255.255NETWORK=127.0.0.0BROADCAST=127.255.255.255ONBOOT="yes"NAME=loopback
重启网络服务胜利后,ip addr
查看一下,你会发现多了一个ip,也就是虚构ip(vip)
(4)为服务器(RS)配置arp
ARP响应级别与通告行为参数阐明
arp-ignore:ARP响应级别(解决申请) 0:只有本机配置了ip,就能响应申请 1:申请的指标地址达到对应的网络接口,才会响应申请arp-announce:ARP通告行为(返回响应) 0:本机上任何网络接口都向外通告,所有的网卡都能承受到通告 1:尽可能防止本网卡与不匹配的指标进行通告2:只在本网卡通告
关上sysctl.conf:
vim /etc/sysctl.conf
配置所有网卡、默认网卡以及虚构网卡的arp响应级别和通告行为,别离对应:all,default,lo
# configration for lvs net.ipv4.conf.all.arp_ignore = 1 net.ipv4.conf.default.arp_ignore = 1 net.ipv4.conf.lo.arp_ignore = 1 net.ipv4.conf.all.arp_announce = 2 net.ipv4.conf.default.arp_announce = 2 net.ipv4.conf.lo.arp_announce = 2
刷新配置文件
sysctl -p
减少一个网关,用于接收数据报文,当有申请到本机后,会交给lo去解决
route add -host 192.168.1.150 dev lo:1
将网关增加至开机启动
echo "route add -host 192.168.1.150 dev lo:1" >> /etc/rc.local
(4)应用ipvsadm配置集群规定
创立LVS节点,用户拜访的集群调度者
ipvsadm -A -t 192.168.1.150:80 -s rr -p 5
- -A:增加集群
- -t:tcp协定ip地址:设定集群的拜访
- ip:也就是LVS的虚构ip
- -s:设置负载平衡的算法,
- rr:示意轮询
- -p:设置连贯长久化的工夫,在指定工夫内同一个用户的申请会拜访到同一个服务器中
创立多台RS实在服务器
ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.171:80 -gipvsadm -a -t 192.168.1.150:80 -r 192.168.1.172:80 -g
- -a:增加实在服务器
- -t:tcp协定
- -r:实在服务器的ip地址
- -g:设定DR模式
保留到规定库,否则重启生效
ipvsadm -S
查看集群
#查看集群列表ipvsadm -Ln#查看集群状态ipvsadm -Ln --stats
一些其余命令
# 重启ipvsadm,重启后须要重新配置 service ipvsadm restart # 查看长久化连贯 ipvsadm -Ln --persistent-conn # 查看连贯申请过期工夫以及申请源ip和指标ip ipvsadm -Lnc # 设置tcp tcpfin udp 的过期工夫(个别放弃默认) ipvsadm --set 1 1 1 # 查看过期工夫 ipvsadm -Ln --timeout
(5)拜访虚构ip,实现LVS搭建
附:LVS的负载平衡算法
(1)动态算法
动态:依据LVS自身自在的固定的算法散发用户申请。
- 轮询(Round Robin 简写’rr’):轮询算法假如所有的服务器解决申请的能力都一样的,调度器会把所有的申请平均分配给每个实在服务器。(同Nginx的轮询)
- 加权轮询(Weight Round Robin 简写’wrr’):装置权重比例调配用户申请。权重越高,被调配到解决的申请越多。(同Nginx的权重)
- 源地址散列(Source Hash 简写’sh’):同一个用户ip的申请,会由同一个RS来解决。(同Nginx的ip_hash)
- 指标地址散列(Destination Hash 简写’dh’):依据url的不同,申请到不同的RS。(同Nginx的url_hash)
(2)动静算法
动静:会依据流量的不同,或者服务器的压力不同来调配用户申请,这是动静计算的。
- 最小连接数(Least Connections 简写’lc’):把新的连贯申请调配到以后连接数最小的服务器。
- 加权起码连接数(Weight Least Connections 简写’wlc’):服务器的解决性能用数值来代表,权重越大解决的申请越多。Real Server 有可能会存在性能上的差别,wlc动静获取不同服务器的负载情况,把申请散发到性能好并且比拟闲暇的服务器。
- 最短期望提早(Shortest Expected Delay 简写’sed’):非凡的wlc算法。举例论述,假如有ABC三台服务器,权重别离为1、2、3 。如果应用wlc算法的话,当一个新申请进来,它可能会分给ABC中的任意一个。应用sed算法后会进行如下运算:
-
-
- A:(1+1)/1=2
- B:(1+2)/2=3/2
- C:(1+3)/3=4/3
最终后果,会把这个申请交给得出运算后果最小的服务器。起码队列调度(Never Queue 简写’nq’):永不应用队列。如果有Real Server的连接数等于0,则间接把这个申请调配过来,不须要在排队期待运算了(sed运算)。
八、搭建Keepalived+Lvs+Nginx高可用集群负载平衡
如果原先服务器上配置了LVS+nginx须要清空ipvsadm中的配置
ipvsadm -C
如果配置了Keepalived+Nginx
双主集群也须要去除掉Keepalived中原先的配置,依照的后文进行配置
(1)应用keepalived配置Master LVS
在LVS的机器上装置keepalived,装置过程参考上文
(1)批改keepalived的配置
global_defs { router_id keep_151}vrrp_instance VI_1 { state MASTER interface ens33 virtual_router_id 41 priority 100 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.150 }}#配置集群拜访的ip+端口,端口和nginx保持一致virtual_server 192.168.1.150 80{ #健康检查的工夫,单位:秒 delay_loop 6 #配置负载平衡的算法,默认的轮询 lb_algo rr #设置LVS的模式 NAT|TUN|DR lb-kind DR #设置会话长久化的工夫 persistence_timeout 5 #协定 protocol TCP #配置负载平衡的实在服务器,也就是nginx节点的具体的ip地址 real_server 192.168.1.171 80{ #轮询权重配比 weight 1 #设置健康检查 TCP_CHECK { #查看80端口 connect_port 80 #超时工夫 connect_timeout 2 #重试次数 nb_get_retry 2 #重试间隔时间 delay_before_retry 3 } } real_server 192.168.1.171 80{ weight 1 TCP_CHECK { connect_port 80 connect_timeout 2 nb_get_retry 2 delay_before_retry 3 } }}
(2)启动/重启keepalived
systemctl restart keepalived
(2)应用keepalived配置Backup LVS
配置在备用机上
global_defs { router_id keep_152}vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 41 priority 50 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.1.150 }}#配置集群拜访的ip+端口,端口和nginx保持一致virtual_server 192.168.1.150 80{ #健康检查的工夫,单位:秒 delay_loop 6 #配置负载平衡的算法,默认的轮询 lb_algo rr #设置LVS的模式 NAT|TUN|DR lb-kind DR #设置会话长久化的工夫 persistence_timeout 5 #协定 protocol TCP #配置负载平衡的实在服务器,也就是nginx节点的具体的ip地址 real_server 192.168.1.171 80{ #轮询权重配比 weight 1 #设置健康检查 TCP_CHECK { #查看80端口 connect_port 80 #超时工夫 connect_timeout 2 #重试次数 nb_get_retry 2 #重试间隔时间 delay_before_retry 3 } } real_server 192.168.1.171 80{ weight 1 TCP_CHECK { connect_port 80 connect_timeout 2 nb_get_retry 2 delay_before_retry 3 } }}
近期热文举荐:
1.1,000+ 道 Java面试题及答案整顿(2022最新版)
2.劲爆!Java 协程要来了。。。
3.Spring Boot 2.x 教程,太全了!
4.别再写满屏的爆爆爆炸类了,试试装璜器模式,这才是优雅的形式!!
5.《Java开发手册(嵩山版)》最新公布,速速下载!
感觉不错,别忘了顺手点赞+转发哦!