Nginx

99 阅读17分钟

1 Nginx简介

1.1 Nginx概述

Nginx (“engine x”) 是一个高性能的 HTTP 和反向代理服务器,特点是占有内存少,并发能力强,事实上 nginx 的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用 nginx网站用户有:百度、京东、新浪、网易、腾讯、淘宝等

1.2 Nginx 作为 web 服务器

Nginx 可以作为静态页面的 web 服务器,同时还支持 CGI 协议的动态语言,比如 perl、php等。但是不支持 java。Java 程序只能通过与 tomcat 配合完成。Nginx 专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率 ,能经受高负载的考验,有报告表明能支持高达 50,000 个并发连接数

1.3 正向代理

Nginx 不仅可以做反向代理,实现负载均衡。还能用作正向代理来进行上网等功能

正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。

image.png

1.4 反向代理

反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,再返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。

image.png

1.5 负载均衡

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?

我们首先想到的可能是升级服务器的配置,比如提高 CPU 执行频率,加大内存等提高机器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那么怎么办呢?

上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了,单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡(讲得很通俗易懂啊!)

image.png

1.6 动静分离

为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力

在这里插入图片描述

2 Nginx安装

官网:nginx.org/

image.png

2.1 Linux系统安装Nginx

1)安装pcre、openssl、zlib、nginx

3 nginx常用的命令和配置文件

3.1 nginx常用命令

1)启动命令:在/usr/local/nginx/sbin 目录下执行 ./nginx

2)关闭命令:在/usr/local/nginx/sbin 目录下执行 ./nginx -s stop

3)重新加载命令:在/usr/local/nginx/sbin 目录下执行 ./nginx -s reload
(重新加载配置文件nginx.conf

4)查看版本号

[root@ubuntu /usr/local/nginx/sbin]26# ./nginx -v nginx version: nginx/1.12.2

其他命令

`nginx -s reopen #重启Nginx

nginx -s reload #重新加载Nginx配置文件,然后以优雅的方式重启Nginx

nginx -s stop #强制停止Nginx服务

nginx -s quit #优雅地停止Nginx服务(即处理完所有请求后再停止服务)

nginx -t #检测配置文件是否有语法错误,然后退出

nginx -?,-h #打开帮助信息

nginx -v #显示版本信息并退出

nginx -V #显示版本和配置选项信息,然后退出

nginx -t #检测配置文件是否有语法错误,然后退出

nginx -T #检测配置文件是否有语法错误,转储并退出

nginx -q #在检测配置文件期间屏蔽非错误信息

nginx -p prefix #设置前缀路径(默认是:/usr/share/nginx/)

nginx -c filename #设置配置文件(默认是:/etc/nginx/nginx.conf)

nginx -g directives #设置配置文件外的全局指令

killall nginx #杀死所有nginx进程`

3.2 nginx.conf配置文件

nginx 安装目录下,其默认的配置文件都放在这个目录的 conf 目录下,而主配置文件nginx.conf 也在其中,后续对 nginx 的使用基本上都是对此配置文件进行相应的修改

#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;

    server {
        listen       80;
        server_name  localhost;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
            root   html;
            index  index.html index.htm;
        }

        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

配置文件中有很多#, 开头的表示注释内容,我们去掉所有以 # 开头的段落,精简之后的 内容如下:

worker_processes  1;

#events块
events {
    worker_connections  1024;
}

#http块
http {
    include       mime.types;
    default_type  application/octet-stream;

    sendfile        on;
  
    keepalive_timeout  65;

    server {
        listen       80;
        server_name  localhost; 

        location / {
            root   html;
            index  index.html index.htm;
        }

        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
    }
}

3.3 nginx.conf 配置文件分为三部分

1)第一部分:全局块(最大进程数)

从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。

image.png

2)第二部分:events 块(进程的最大连接数) 比如上面的配置:

image.png

events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 work process 可以同时支持的最大连接数等。

上述例子就表示每个 work process 支持的最大连接数为 1024.

这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

3)第三部分:http 块(配置最频繁的部分)

image.png

这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。 需要注意的是:http 块也可以包括 http 全局块、server 块。

  • ①、http 全局块

http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

  • ②、server 块

这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。 而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

1、全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

2、location 块

一个 server 块可以配置多个 location 块。 这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

4 nginx配置实例-反向代理

4.1 反向代理实例一

  • 实现效果:使用 nginx 反向代理,访问 www.123.com 直接跳转到 127.0.0.1:8080

4.1.1 实验代码

1)启动tomcat。浏览器地址栏输入127.0.0.1:8080,出现如下界面

image.png

2)通过修改本地 host 文件,将 www.123.com 映射到 127.0.0.1

image.png

配置完成之后,我们便可以通过 www.123.com:8080 访问到第一步出现的 Tomcat 初始界面。那么如何只需要输入 www.123.com 便可以跳转到 Tomcat 初始界面呢?便用到 nginx的反向代理。

3)在 nginx.conf 配置文件中增加如下配置

在这里插入图片描述
如上配置,我们监听 80 端口,访问域名为 www.123.com,不加端口号时默认为 80 端口,故访问该域名时会跳转到 127.0.0.1:8080 路径上。在浏览器端输入 www.123.com 结果如下:

image.png

在windows host文件里设置了域名映射ip,访问域名时,系统先会到host里找,找不到才会到网上dns服务器进行域名解析
在这里插入图片描述

4.2 反向代理实列二

使用 nginx 反向代理:根据访问的路径,需要nginx服务器处理,将请求跳转到不同端口的服务中,其中 nginx 服务器监听端口为 9001

4.2.1 实验代码

1)准备两个tomcat服务器,一个 8001 端口,一个 8002 端口,并准备好测试的页面

2)创建文件夹( edu 和 vod )和测试页面

3)修改 nginx 的配置文件

  • 在 http 块中添加 server{}

image.png

location 指令说明 该指令用于匹配 URL。 语法如下:

image.png

1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。

2、~:用于表示 uri 包含正则表达式,并且区分大小写。

3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。

4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字 符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

5 负载均衡 实例

5.1 实现效果

> 浏览器地址栏中,输入地址 [http://192.168.17.129/edu/a.html,有负载均衡的效果,即:平均到](http://192.168.17.129/edu/a.html%EF%BC%8C%E6%9C%89%E8%B4%9F%E8%BD%BD%E5%9D%87%E8%A1%A1%E7%9A%84%E6%95%88%E6%9E%9C%EF%BC%8C%E5%8D%B3%EF%BC%9A%E5%B9%B3%E5%9D%87%E5%88%B0) 80808081 端口中

5.2 准备工作

  • 第一步:准备两台 tomcat 服务器,一台 8080,一台 8081
  • 第二步:在两台 tomcat 里面 webapps 目录中,创建名称是 edu 文件夹,在 edu 文件夹中创建 页面 a.html,用于测试

5.3 具体配置(这里主要是平均分配,即轮询

在 nginx 的配置文件中进行负载均衡的配置(主要是在http块中,进行配置):

-   使用 upstream 命令:添加承担负载的两个服务器
-   在server块中进行配置:server_name和listen是nginx服务器的地址端口,在location块中配置 proxy_pass ,将承担均衡负载的两个服务器引入,每次nginx服务器就会将负载分摊到不同的服务单元。

测试:请求显示的页面在8080和8081端口下的页面,来回切换

5.4 nginx 分配服务器策略

  • 轮询(默认)

    • 每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
  • weight

    • weight 代表权重,默认为 1,权重越高被分配的客户端越多
    • 指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况
  • ip_hash

    • 每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题
  • fair(第三方)

    • 按后端服务器的响应时间来分配请求,响应时间短的优先分配

6 动静分离 实例

6.1 基本介绍

1)把动态跟静态请求分开,动静分离从目前实现角度来讲大致分为两种: >

  • > -   1、纯粹**把静态文件独立成单独的域名,放在独立的服务器上**,也是目前主流推崇的方案
    
  • > -   2、**动态跟静态文件混合在一起发布,通过 nginx 来分开**
    

2) ​ 通过 location 指定不同的后缀名实现不同的请求转发

3)​ 通过 expires 参数设置(在location中进行添加),可以使浏览器缓存过期时间,减少与服务器之前的请求和流量:

具体 Expires 定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可, 所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件, 不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码 304,如果有修改,则直接从服务器重新下载,返回状态码 200。

6.2 准备工作

  • 在linux系统中准备静态资源,比如image、www两个文件夹,存放静态资源

6.3 具体配置

  • 在nginx配置文件中进行配置,找到 nginx 安装目录,打开/conf/nginx.conf 配置文件

      1. 添加监听端口和访问地址 2. 每一个静态资源访问目录对应一段 location,其中 root 表示资源在linux中根目录的位置 3. autoindex on:显示静态资源目录下的资源列表

6.4 测试

  • 最后检查 Nginx 配置是否正确即可,然后测试动静分离是否成功,之需要删除后端 tomcat 服务器上的某个静态文件,查看是否能访问,如果可以访问说明静态资源 nginx 直接返回了,不走后端 tomcat 服务器
  • 访问 image(也可以直接在路径中添加想要访问的静态资源名)
  • 访问 www

7 搭建高可用集群

  • Keepalived + Nginx 高可用集群(主从模式)

7.1 什么是nginx高可用

之前的配置中,只有一台nginx服务器,如果这台服务器发生了宕机,那么客户端就无法进行请求的访问,高可用集群就是为了解决这样一个问题。

  1. 两台nginx服务器,一台主服务器和一台从服务器,用来保证nginx的服务不会因为一台服务器的宕机而崩溃

  2. 需要一个软件 Keepalived 支持

Keepalived的作用是检测服务器的状态,如果有一台web服务器宕机,或工作出现故障,Keepalived将检测到,并将有故障的服务器从系统中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后Keepalived自动将服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的服务器。

  1. 对外暴露一个虚拟ip,通过路由转发到这两台nginx服务器进行请求转发的处理

7.2 配置高可用集群的准备工作

  1. 需要两台nginx服务器,比如:192.168.17.129 和 192.168.17.131

  2. 在两台服务器安装 nginx

  3. 在两台服务器安装 keepalived

    • yum install keepalived –y
    • 安装之后,在 etc 里面生成目录 keepalived,有文件 keepalived.conf
  4. 完成高可用配置(主从配置)

    • 修改/etc/keepalived/keepalivec.conf 配置文件
    global_defs { #全局配置
    	notification_email {
             acassen@firewall.loc
             failover@firewall.loc
             sysadmin@firewall.loc
     	}
         notification_email_from Alexandre.Cassen@firewall.loc
         smtp_server 192.168.17.129
         smtp_connect_timeout 30
         router_id LVS_DEVEL #主机的名字
    }
    vrrp_script chk_http_port { # 检测脚本配置
         script "/usr/local/src/nginx_check.sh" # 脚本文件位置
         interval 2 # 检测脚本执行的间隔
         weight 2 # 权重,一旦校测脚本中的条件成立,就修改为这个新权重(比如检测到这个服务器宕机,那么就将权重降低)
    }
    vrrp_instance VI_1 { # 虚拟ip配置
        state BACKUP # 备份服务器上将 MASTER 改为 BACKUP 
        interface ens33 //网卡
        virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
        priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小(主机100,备机90)
        advert_int 1 # 默认每隔一秒检测主机状态
        authentication {
             auth_type PASS
             auth_pass 1111
         }
         virtual_ipaddress {
         	192.168.17.50 // VRRP H 虚拟地址 (对外暴露的虚拟ip地址)
         }
    }
    
    • 在/usr/local/src 添加检测脚本(检测主服务器是否宕机挂掉)
    #!/bin/bash
    A=`ps -C nginx –no-header |wc -l`
    if [ $A -eq 0 ];then
         /usr/local/nginx/sbin/nginx # nginx位置
         sleep 2
         if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
         	killall keepalived
         fi
    fi
    
    • 把两台服务器上 nginx 和 keepalived 启动

      • 启动 nginx:./nginx
      • 启动 keepalived:systemctl start keepalived.service
  5. 最终测试

  • 在浏览器地址栏输入 虚拟 ip 地址 192.168.17.50
  • 把主服务器(192.168.17.129)nginx 和 keepalived 停止,再输入 192.168.17.50,内部访问的是备用nginx服务器(192.168.17.131)

8 Nginx 原理解析

1、采用 master 和 worker 的工作方式

  • mater作为管理者,管理和监控工作进程
  • worker作为实际处理进程,采用 争抢 的方式对处理请求进行处理

2、worker是如何工作的

3、一个 master 和多个 woker 有好处

  • 可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作

    • 无需重新启动 nginx,避免服务器停止服务
    • 倘若有worker正在处理请求,那么只是余下的worker进行热部署操作
  • 每个 woker 是独立的进程,如果有其中的一个 woker 出现问题,其他 woker 独立的, 继续进行争抢,实现请求过程,不会造成服务中断

4、设置多少个 woker 合适

  • worker 数和服务器的 cpu 数相等是最为适宜的

5、连接数 worker_connection

  • 发送请求,占用了 woker 的几个连接数?

    • 2 或者 4

      • 如果是访问静态资源,client发送请求,worker响应
      • 如果是访问动态资源,那么worker在上面的基础上,会多增加两个连接,用于与tomcat进行交互,请求数据库访问
  • nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的 最大并发数是多少?

    • 普通的静态资源访问最大并发数是: worker_connections * worker_processes /2(每个worker的最大连接数 × worker个数,再除以访问静态资源的两个连接数)
    • 而如果是 HTTP 作为反向代理来说,最大并发数量应该是:worker_connections * worker_processes / 4