Nginx 的学习与实战(建议收藏)

207 阅读9分钟

Nginx 的学习与实战(建议收藏)

一、Nginx 简介

1.、概述

Nginx 是俄罗斯人编写的十分轻量级的 HTTP 服务器,Nginx,它的发音为“engine X”,是一个高性能的HTTP和反向代理服务器,同时也是一个 IMAP/POP3/SMTP 代理服务器。

Nginx是开源、高性能、高可靠的 Web 和反向代理服务器,能支持高达 50,000个并发连接数。Nginx 是一款轻量级的 Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,其特点是占有内存少,并发能力强。

2、什么是正向代理?

正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

正向代理是代理用户客户端,为客户端发送请求,使真实的用户客户端对服务器不可见。它最典型的用途就是可以用来访问受地理限制的内容、保护用户隐私、帮助爬虫爬取数据、广告效果测试、网站测试等等。

3、什么是反向代理?

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

作用是隐藏服务器的IP地址、提高访问速度、保持负载平衡、保护免受黑客攻击。

4、什么是动静分离?

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速 度。降低原来单个服务器的压力。根据请求的不同的资源类型,将不同的请求分发到不同的资源服务器。

5、什么是负载均衡?

单个服务器的处理能力是有限的,当大量用户的请求时候,需要通过Nginx统一管理用户的请求,Nginx将用户的请求按照配置的策略分配到不同的负载服务器,将流量分布到多个应用服务器,通过nginx 提高web 应用程序的性能、可扩展性和可靠性。

二、下载与安装

两种方式:

  1. 通过官网下载安装,较为繁琐

    1. 访问官网nginx.org/
    2. 找一篇博客,按照操作,较为繁琐,这里不在详细展开
  2. 通过docker安装,方便快捷

    # 下载镜像
    docker pull nginx:latest
    ​
    # 查看镜像
    docker images
    ​
    # 启动容器
    docker run --name nginx -p 8080:80 -d nginx
    ​
    # 在浏览器访问,http://127.0.0.1:8080/
    # 出现Nginx的欢迎页面,说明启动成功# 复制配置文件到宿主机
    docker cp nginx:/etc/nginx/nginx.conf D:\dockerFile\nginx
    docker cp nginx:/etc/nginx/conf.d/ D:\dockerFile\nginx\conf
    docker cp nginx:/usr/share/nginx/html/ D:\dockerFile\nginx\html
    docker cp nginx:/var/log/nginx/ D:\dockerFile\nginx\logs
    ​
    # 停止容器
    docker stop nginx
    ​
    # 删除容器
    docker rm nginx
    ​
    # 重新启动容器
    docker run -p 8080:80 --name nginx -v D:\dockerFile\nginx\nginx.conf:/etc/nginx/nginx.conf -v D:\dockerFile\nginx\logs:/var/log/nginx -v D:\dockerFile\nginx\html:/usr/share/nginx/html -v D:\dockerFile\nginx\conf:/etc/nginx/conf.d -d nginx
    ​
    # 重新加载配置文件
    docker exec nginx nginx -s reload
    

三、配置文件

nginx.conf 配置文件:

​
user  nginx;
worker_processes  auto;
​
error_log  /var/log/nginx/error.log notice;
pid        /var/run/nginx.pid;
​
​
events {
    worker_connections  1024;
}
​
​
http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;
​
    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';
​
    access_log  /var/log/nginx/access.log  main;
​
    sendfile        on;
    #tcp_nopush     on;
​
    keepalive_timeout  65;
​
    #gzip  on;
​
    include /etc/nginx/conf.d/*.conf;
}
​

这里引用了另外一个配置文件default.conf

server {
    listen       80;
    listen  [::]:80;
    server_name  localhost;
​
    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
    }
​
    error_page   500 502 503 504  /50x.html;
    location = /50x.html {
        root   /usr/share/nginx/html;
    }
​
}
​

根据上述文件,我们可以很明显的将 nginx.conf 配置文件分为三部分:

第一部分:全局块

从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配 置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。

比如上面第一行配置的:

worker_processes  auto;

这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约

第二部分:events 块

比如上面的配置:

events {
    worker_connections  1024;
}

events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。

上述例子就表示每个 work process 支持的最大连接数为 1024.

这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

第三部分:http 块

http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;
​
    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';
​
    access_log  /var/log/nginx/access.log  main;
​
    sendfile        on;
    #tcp_nopush     on;
​
    keepalive_timeout  65;
​
    #gzip  on;
​
    include /etc/nginx/conf.d/*.conf;
}
​
# default.conf 文件中内容
server {
    listen       80;
    listen  [::]:80;
    server_name  localhost;
​
    location / {
        root   /usr/share/nginx/html;
        index  index.html index.htm;
    }
​
    error_page   500 502 503 504  /50x.html;
    location = /50x.html {
        root   /usr/share/nginx/html;
    }
​
}

这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。 需要注意的是:http 块也可以包括 http 全局块server 块

这里的 server 块被单独拿出来放到了 default.conf 文件中

①、http 全局块 http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

②、server 块 这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。 每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。 而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

1、全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

2、location 块 一个 server 块可以配置多个 location 块。

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

四、使用

1. 实例一,代理

修改配置文件,default.conf

    location / {
        # root   /usr/share/nginx/html;
        proxy_pass   http://www.baidu.com;
        index  index.html index.htm;
    }

将 proxy_pass 指向百度,重新加载Nginx配置文件,然后我们在浏览器再次访问http://127.0.0.1:8080/,就好跳转到百度的页面

2.实例二,配置URL

修改配置文件,default.conf

    location ~ /pdd {
        proxy_pass   https://pinduoduo.com;
    }
    location ~ /jd {
        proxy_pass   https://www.jd.com;
    }

配置两个,重新加载Nginx配置文件,然后我们访问不同的URL,跳转到不同的网站

3.实例三,配置负载均衡

负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):

1、轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

有如下参数:

fail_timeout与max_fails结合使用。
max_fails设置在fail_timeout参数设置的时间内最大失败次数,如果在这个时间内,所有针对该服务器的请求都失败了,那么认为该服务器会被认为是停机了,
fail_time服务器会被认为停机的时间长度,默认为10s。
backup标记该服务器为备用服务器。当主服务器停止时,请求会被发送到它这里。
down标记服务器永久停机了。

2、加权轮询weight

weight 代表权,重默认为 1,权重越高被分配的客户端越多 指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。 例如: upstream server_pool{ server 192.168.5.21 weight=10; server 192.168.5.22 weight=10; }

#动态服务器组

    upstream dynamic_zuoyu {

        server localhost:8080   weight=2;  #tomcat 7.0

        server localhost:8081;  #tomcat 8.0

        server localhost:8082   backup;  #tomcat 8.5

        server localhost:8083   max_fails=3 fail_timeout=20s;  #tomcat 9.0

    }

在该例子中,weight参数用于指定轮询几率,weight的默认值为1,;weight的数值与访问比率成正比,比如Tomcat 7.0被访问的几率为其他服务器的两倍。

  注意:

  • 权重越高分配到需要处理的请求越多。
  • 此策略可以与least_conn和ip_hash结合使用。
  • 此策略比较适合服务器的硬件配置差别比较大的情况。

3、ip_hash

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。

例如:

#动态服务器组

    upstream dynamic_zuoyu {

        ip_hash;    #保证每个访客固定访问一个后端服务器

        server localhost:8080   weight=2;  #tomcat 7.0

        server localhost:8081;  #tomcat 8.0

        server localhost:8082;  #tomcat 8.5

        server localhost:8083   max_fails=3 fail_timeout=20s;  #tomcat 9.0

    }
  • 在nginx版本1.3.1之前,不能在ip_hash中使用权重(weight)。
  • ip_hash不能与backup同时使用。
  • 此策略适合有状态服务,比如session。
  • 当有服务器需要剔除,必须手动down掉。

4、least_conn

把请求转发给连接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。

#动态服务器组

    upstream dynamic_zuoyu {

        least_conn;    #把请求转发给连接数较少的后端服务器

        server localhost:8080   weight=2;  #tomcat 7.0

        server localhost:8081;  #tomcat 8.0

        server localhost:8082 backup;  #tomcat 8.5

        server localhost:8083   max_fails=3 fail_timeout=20s;  #tomcat 9.0

    }

5、fair(第三方)

第三方的负载均衡策略的实现需要安装第三方插件。

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

#动态服务器组

    upstream dynamic_zuoyu {

        server localhost:8080;  #tomcat 7.0

        server localhost:8081;  #tomcat 8.0

        server localhost:8082;  #tomcat 8.5

        server localhost:8083;  #tomcat 9.0

        fair;    #实现响应时间短的优先分配

    }

6、url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。 

 #动态服务器组

    upstream dynamic_zuoyu {

        hash $request_uri;    #实现每个url定向到同一个后端服务器

        server localhost:8080;  #tomcat 7.0

        server localhost:8081;  #tomcat 8.0

        server localhost:8082;  #tomcat 8.5

        server localhost:8083;  #tomcat 9.0

    }

四、参数优化

需要设置多少个 worker ?

Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。

#设置 worker 数量。
worker_processes 4
#work 绑定 cpu(4 work 绑定 4cpu)。
worker_cpu_affinity 0001 0010 0100 1000
#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。
worker_cpu_affinity 0000001 00000010 00000100 00001000

连接数 worker_connection

这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接

五、搭建高可用集群

实际环境是在两台真正的服务器上搭建,下面的只是模拟

IP作用
172.18.0.100虚拟IP,对外提供服务
172.18.0.3Nginx负载转发
172.18.0.4Nginx负载转发
172.18.0.11实际业务服务器
172.18.0.12实际业务服务器
172.18.0.13实际业务服务器
172.18.0.14实际业务服务器

image-20230628234023698.png

实际的配置文件keepalived.conf内容为:

global_defs {
  default_interface eth0
}

vrrp_instance VI_1 {
  interface eth0

  state MASTER
  virtual_router_id 51
  priority 150
  nopreempt

  unicast_peer {
    172.18.0.3
    172.18.0.4
  }

  virtual_ipaddress {
    172.18.0.100
  }

  authentication {
    auth_type PASS
    auth_pass d0cker
  }

  notify "/container/service/keepalived/assets/notify.sh"
}
  1. 下载镜像

    docker pull osixia/keepalived
    
  2. 创建网卡

    docker network create keepalived
    
  3. 启动主服务容器,IP为自动分配,为172.18.0.3

    docker run --cap-add=NET_ADMIN --cap-add=NET_BROADCAST --cap-add=NET_RAW --network keepalived -d --name keepalived_master -e KEEPALIVED_INTERFACE='eth0' -e KEEPALIVED_PASSWORD='d0cker' -e KEEPALIVED_STATE='MASTER' -e KEEPALIVED_ROUTER_ID='51' -e KEEPALIVED_UNICAST_PEERS="#PYTHON2BASH:['172.18.0.3','172.18.0.4']" -e KEEPALIVED_VIRTUAL_IPS='172.18.0.100' osixia/keepalived
    
  4. 启动主服务容器,IP为自动分配,为172.18.0.4

    docker run --cap-add=NET_ADMIN --cap-add=NET_BROADCAST --cap-add=NET_RAW --network keepalived -d --name keepalived_backup -e KEEPALIVED_INTERFACE='eth0' -e KEEPALIVED_PASSWORD='d0cker' -e KEEPALIVED_STATE='MASTER' -e KEEPALIVED_ROUTER_ID='51' -e KEEPALIVED_UNICAST_PEERS="#PYTHON2BASH:['172.18.0.3','172.18.0.4']" -e KEEPALIVED_VIRTUAL_IPS='172.18.0.100' osixia/keepalived
    
  5. 查看日志

    主服务:

    Wed Jun 28 15:13:49 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address.
    Wed Jun 28 15:13:50 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address.
    Wed Jun 28 15:13:51 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address.
    Wed Jun 28 15:13:52 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address.
    Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100
    Wed Jun 28 15:13:53 2023: (VI_1) Sending/queueing gratuitous ARPs on eth0 for 172.18.0.100
    Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100
    Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100
    Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100
    Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100
    

    备份服务:

    Wed Jun 28 15:13:52 2023: (VI_1) Entering BACKUP STATE (init)
    Wed Jun 28 15:13:52 2023: VRRP sockpool: [ifindex(41), family(IPv4), proto(112), unicast(1), fd(11,12)]
    Ok, i'm just a backup, great.
    
  6. 查看主服务的网络

    docker exec -it keepalived_master ip a

    1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
        link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
        inet 127.0.0.1/8 scope host lo
           valid_lft forever preferred_lft forever
    2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000
        link/ipip 0.0.0.0 brd 0.0.0.0
    3: sit0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000
        link/sit 0.0.0.0 brd 0.0.0.0
    39: eth0@if40: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP
        link/ether 02:42:ac:12:00:03 brd ff:ff:ff:ff:ff:ff
        inet 172.18.0.3/16 brd 172.18.255.255 scope global eth0
           valid_lft forever preferred_lft forever
        inet 172.18.0.100/32 scope global eth0
           valid_lft forever preferred_lft forever
    

    可以看到,172.18.0.100 的IP已经有了,可以对外提供服务了

  7. 检测脚本

    当我们的keepalived 运行的时候,他本身是不对外提供服务器的,只是能够虚拟出一个IP,来选择这个IP所在的服务器的中间件来提供,比如Nginx。keepalived 是通过检测他自身是否正常来是否选举自己的,可是keepalived 正常不代表这台服务器上的Nginx服务正常,所以需要有个检测脚本来定时检测一下nginx 是否还活着,如果Nginx 挂了,就把 keeplived 也杀掉,这样这个机器就会退出,keepalived 集群会重新选举一个正常的服务器,从而保证了服务的高可用

    在 keepalived 配置文件中增加如下配置

    vrrp_script chk_http_port {
    
     script "/shell/nginx_check.sh" #脚本地址
    
     interval 2 #检测脚本执行的间隔
    
     weight 2 #比重
    
    }
    

    nginx_check.sh 文件内容

    #!/bin/bash
    A=`ps -C nginx –no-header |wc -l`
    if [ $A -eq 0 ];then
        /usr/local/nginx/sbin/nginx
        sleep 2
        if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
            killall keepalived
        fi
    fi
    

六、参考博客

  1. 六种负载均衡策略:www.yii666.com/article/697…
  2. Keepalived 高可用:blog.csdn.net/W_Meng_H/ar…
  3. Keepalived 高可用:pythonjishu.com/imsoxzgadbq…