乐趣区

关于nginx:查漏补缺巩固你的-Nginx-知识体系这篇就够了

Nginx 是一个高性能的 HTTP 和反向代理服务器,特点是占用内存少,并发能力强,事实上 Nginx 的并发能力的确在同类型的网页服务器中体现较好。

Nginx 专为性能优化而开发,性能是其最重要的要求,非常重视效率,有报告 Nginx 能反对高达 50000 个并发连接数。

Nginx 常识网结构图

Nginx 的常识网结构图如下:

反向代理

正向代理 :局域网中的电脑用户想要间接拜访网络是不可行的,只能通过代理服务器来拜访,这种代理服务就被称为正向代理。

反向代理:客户端无奈感知代理,因为客户端拜访网络不须要配置,只有把申请发送到反向代理服务器,由反向代理服务器去抉择指标服务器获取数据,而后再返回到客户端。

此时反向代理服务器和指标服务器对外就是一个服务器,裸露的是代理服务器地址,暗藏了实在服务器 IP 地址。

负载平衡

客户端发送多个申请到服务器,服务器解决申请,有一些可能要与数据库进行交互,服务器处理完毕之后,再将后果返回给客户端。

一般申请和响应过程如下图:

然而随着信息数量增长,访问量和数据量飞速增长,一般架构无奈满足当初的需要。

咱们首先想到的是降级服务器配置,能够因为摩尔定律的日益生效,单纯从硬件晋升性能曾经逐步不可取了,怎么解决这种需要呢?

咱们能够减少服务器的数量,构建集群,将申请散发到各个服务器上,将原来申请集中到单个服务器的状况改为申请散发到多个服务器,也就是咱们说的负载平衡。

图解负载平衡:

假如有 15 个申请发送到代理服务器,那么由代理服务器依据服务器数量,平均分配,每个服务器解决 5 个申请,这个过程就叫做负载平衡。

动静拆散

为了放慢网站的解析速度,能够把动静页面和动态页面交给不同的服务器来解析,放慢解析的速度,升高由单个服务器的压力。

动静拆散之前的状态:

动静拆散之后:

装置

参考链接:

Nginx 服务介绍与装置

Nginx 常用命令

# 查看版本:./nginx -v
#启动:./nginx
#敞开(有两种形式,举荐应用 ./nginx -s quit):./nginx -s stop
./nginx -s quit
#从新加载 Nginx 配置:./nginx -s reload

Nginx 的配置文件

配置文件分三局部组成:

①全局块

从配置文件开始到 events 块之间,次要是设置一些影响 Nginx 服务器整体运行的配置指令。

并发解决服务的配置,值越大,能够反对的并发处理量越多,然而会受到硬件、软件等设施的制约。

②events 块

影响 Nginx 服务器与用户的网络连接,罕用的设置包含是否开启对多 workprocess 下的网络连接进行序列化,是否容许同时接管多个网络连接等等。

反对的最大连接数:

③HTTP 块

诸如反向代理和负载平衡都在此配置。

location[= | ~ | ~* | ^~] url{}

location 指令阐明,该语法用来匹配 url,语法如上:

  • =:用于不含正则表达式的 url 前,要求字符串与 url 严格匹配,匹配胜利就进行向下搜寻并解决申请。
  • ~:用于示意 url 蕴含正则表达式,并且辨别大小写。
  • ~*:用于示意 url 蕴含正则表达式,并且不辨别大小写。
  • ^~:用于不含正则表达式的 url 前,要求 Nginx 服务器找到示意 url 和字符串匹配度最高的 location 后,立刻应用此 location 解决申请,而不再匹配。
  • 如果有 url 蕴含正则表达式,不须要有 ~ 结尾标识。

反向代理实战

①配置反向代理

目标:在浏览器地址栏输出地址 www.123.com 跳转 Linux 零碎 Tomcat 主页面。

②具体实现

先配置 Tomcat,因为比较简单,此处不再赘叙,并在 Windows 拜访:

具体流程如下图:

批改之前:

配置如下:

再次拜访:

③反向代理 2

指标:

  • 拜访 http://192.168.25.132:9001/edu/ 间接跳转到 192.168.25.132:8080
  • 拜访 http://192.168.25.132:9001/vod/ 间接跳转到 192.168.25.132:8081

筹备:配置两个 Tomcat,端口别离为 8080 和 8081,都能够拜访,端口批改配置文件即可。

新建文件内容别离增加 8080!!!和 8081!!!

反向代理小结

第一个例子:浏览器拜访 www.123.com,由 host 文件解析出服务器 ip 地址
192.168.25.132 www.123.com。

而后默认拜访 80 端口,而通过 Nginx 监听 80 端口代理到本地的 8080 端口上,从而实现了拜访 www.123.com,最终转发到 tomcat 8080 下来。

第二个例子:
拜访 http://192.168.25.132:9001/edu/ 间接跳转到 192.168.25.132:8080
拜访 http://192.168.25.132:9001/vod/ 间接跳转到 192.168.25.132:8081

实际上就是通过 Nginx 监听 9001 端口,而后通过正则表达式抉择转发到 8080 还是 8081 的 Tomcat 下来。

负载平衡实战

①批改 nginx.conf,如下图:

②重启 Nginx:

./nginx -s reload

③在 8081 的 Tomcat 的 webapps 文件夹下新建 edu 文件夹和 a.html 文件,填写内容为 8081!!!!

④在地址栏回车,就会散发到不同的 Tomcat 服务器上:

负载平衡形式如下:

  • 轮询(默认)。
  • weight,代表权,权越高优先级越高。
  • fair,按后端服务器的响应工夫来调配申请,相应工夫短的优先调配。
  • ip_hash,每个申请依照拜访 ip 的 hash 后果调配,这样每一个访客固定的拜访一个后端服务器,能够解决 Session 的问题。

动静拆散实战

什么是动静拆散?把动静申请和动态申请离开,不是讲动静页面和动态页面物理拆散,能够了解为 Nginx 解决动态页面,Tomcat 解决动静页面。

动静拆散大抵分为两种:

  • 纯正将动态文件独立成独自域名放在独立的服务器上,也是目前支流计划。
  • 将动静跟动态文件混合在一起公布,通过 Nginx 离开。

动静拆散图析:

实战筹备,筹备动态文件:

配置 Nginx,如下图:

Nginx 高可用

如果 Nginx 呈现问题:

解决办法:

后期筹备:

  • 两台 Nginx 服务器
  • 装置 Keepalived
  • 虚构 ip
# 装置 Keepalived:[root@192 usr]# yum install keepalived -y
[root@192 usr]# rpm -q -a keepalived
keepalived-1.3.5-16.el7.x86_64
#批改配置文件:[root@192 keepalived]# cd /etc/keepalived
[root@192 keepalived]# vi keepalived.conf

别离将如下配置文件复制粘贴,笼罩掉 keepalived.conf,虚构 ip 为 192.168.25.50。

对应主机 ip 须要批改的是:

  • smtp_server 192.168.25.147(主)
  • smtp_server 192.168.25.147(备)
  • state MASTER(主)state BACKUP(备)
global_defs {
   notification_email {
     acassen@firewall.loc
     failover@firewall.loc
     sysadmin@firewall.loc
   }
   notification_email_from Alexandre.Cassen@firewall.loc
   smtp_server 192.168.25.147
   smtp_connect_timeout 30
   router_id LVS_DEVEL # 拜访的主机地址
}
vrrp_script chk_nginx {
  script "/usr/local/src/nginx_check.sh"  # 检测文件的地址
  interval 2   # 检测脚本执行的距离
  weight 2   # 权重
}
vrrp_instance VI_1 {
    state BACKUP # 主机 MASTER、备机 BACKUP
    interface ens33 # 网卡
    virtual_router_id 51 # 同一组需统一
    priority 90  # 拜访优先级,主机值较大,备机较小
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {192.168.25.50  # 虚构 ip}
}

启动命令如下:

[root@192 sbin]# systemctl start keepalived.service

拜访虚构 ip 胜利:

敞开主机 147 的 Nginx 和 Keepalived,发现依然能够拜访。

原理解析

如下图,就是启动了一个 master,一个 worker,master 是管理员,worker 是具体工作的过程。

worker 如何工作?如下图:

小结

worker 数应该和 CPU 数相等;一个 master 多个 worker 能够应用热部署,同时 worker 是独立的,一个挂了不会影响其余的。

作者:渐暖°
出处:blog.csdn.net/yujing1314/article/details/107000737_

退出移动版