Nginx学习及负载均衡配置

81 阅读8分钟

一、Nginx简介

1、什么是nginx

Nginx是一个高性能的HTTP和反向代理服务器,特点是占用内存少,并发能力强,事实上nginx的并发能力是同类型的网页服务器中表现较好。Nginx专为性能优化而开发,性能是其中最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50000个并发连接数。

 

2、反向代理

(1)正向代理

需要在客户端配置代理服务器进行指定网站访问

 

(2)反向代理

暴露的是代理服务器地址,隐藏了真实服务器 IP 地址。

 

3、负载均衡

增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的

情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负

载均衡。

 

4、动静分离

就是把静态资源跟动态资源分离开,对于静态资源单独放置到一个静态资源服务器,对于动态资源放置到tomcat中,提高解析速度,降低原来单个服务器的压力。

 

 

二、在Linux中安装nginx中

1、安装pcre

(1)打开虚拟机,使用远程连接工具连接 linux 操作系统

(2)到 nginx 官网下载软件nginx.org/

(3)联网下载 pcre 压缩文件依赖

wget downloads.sourceforge.net/project/pcr…

(4)解压缩文件 tar -zvxf pcre-8.37.tar.gz

(5)在pcre文件夹下执行./configure 然后执行make && make install

(6)使用pcre-config --version查看版本号是否安装成功

2、安装其他依赖

yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

3、安装nginx

(1)使用xftp传输进去nginx-1.12.2.tar.gz

(2)解压缩文件 tar -zvxf nginx-1.12.2.tar.gz

(3)在pcre文件夹下执行./configure 然后执行make && make install

(4)进入/usr/local/nginx/sbin/nginx 启动服务

4、开启防火墙

在 windows 系统中访问 linux 中 nginx,默认不能访问的,因为防火墙问题

(1)关闭防火墙

(2)开放访问的端口号,80 端口

查看开放的端口号

firewall-cmd --list-all

设置开放的端口号

firewall-cmd --add-service=http –permanent

firewall-cmd --add-port=80/tcp --permanent

重启防火墙

firewall-cmd –reload

 

三、nginx中的常用命令

首先进入 nginx 目录中 cd /usr/local/nginx/sbin

1、查看 nginx 版本号

./nginx -v

 

2、启动 nginx

./nginx

 

3、停止 nginx

./nginx -s stop

 

4、重新加载 nginx

./nginx -s reload

 

四、nginx的配置文件详解

首先进入 cd /usr/local/nginx/conf/nginx.conf

1、第一模块 work_processes

 

主要设置一些影响nginx服务器整体运行的配置指令,其中worker_processes最为关键,值越大,表示可以支持的并发处理量也越多,但是会受到硬件和软件的制约。

2、第二部分 exents模块

 

exents块涉及的指令主要影响nginx服务器与用户的网络连接,上图表示最发连接数为1024

3、第三部分 http模块

 

http部分是代理、缓存、日志定义的配置部分,包括http全局块和server块

http 全局块:配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

server块:http块中可以包含多个server块,每个块相当于一个虚拟主机,server块又分为全局server块和location 块;

全局server块:配置本虚拟机主机的监听设置和本虚拟机的名称或IP配置;

location 块:一个server可包含多个location 块,主要作用为基于nginx服务器接收到的请求字符串,对虚拟机名称之外的字符串进行匹配,对特定的请求进行处理,地址定向、数据缓存和应答控制等功能在这进行配置。

 

三、使用nginx进行反向代理操作步骤

1、启动tomcat

2、对外开放访问的端口

#添加端口号

firewall-cmd --add-port=8080/tcp --permanent

#重新加载防火墙

firewall-cmd –reload

#查看已经开放得端口号

firewall-cmd --list-all

3、在nginx的配置文件中配置反向代理

server {

listen 80;

server_name 10.0.7.68;#这里修改为虚拟机的IP地址

 

location / {

root html;

proxy_pass http://127.0.0.1:8080;#这里添加反向代理的ip地址

index index.html index.htm;

}

}

4、location 指令说明 用于匹配 URL。

语法如下:

(1)= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。

(2)~:用于表示 uri 包含正则表达式,并且区分大小写。

(3)~*:用于表示 uri 包含正则表达式,并且不区分大小写。

(4)^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字符串匹配度最高的 location ,立即使用此 location 处理请求,而不再使用location块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

 

四、使用负载均衡进行配置

1、准备两台tomcat服务器,并在服务器中的webapps文件夹下创建文件夹放入测试项目

2、在nginx的配置文件中进行负载均衡的配置

upstream myserver{

server ip:端口号1;

server ip:端口号2;

}

 

server {

listen 80;

server_name ip地址;

 

localtion / {

proxy_pass http://myserver;

root html;

index index.html index.htm;

}

}

3、nginx服务器分配策略

(1)轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

(2)weight

weight代表权重默认为1,权重越高被分配的客户端越多。

(3)ip_hash

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器.

(4)fair

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

 

五、nginx的动静分离配置

Nginx 动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和

静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用 Nginx

处理静态页面,Tomcat 处理动态页面。

通过 location 指定不同的后缀名实现不同的请求转发。通过 expires 参数设置,可以使

浏览器缓存过期时间,减少与服务器之前的请求和流量。具体 Expires 定义:是给一个资

源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,

所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,

不建议使用 Expires 来缓存),我这里设置 3d,表示在这 3 天之内访问这个 URL,发送

一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码

304,如果有修改,则直接从服务器重新下载,返回状态码 200。

对于静态文件在nginx得配置文件中进行修改,添加location配置信息

 

六、nginx配置高可用得集群

1、准备工作

(1)需要搭配两台以上nginx服务器

(2)每台服务器中需要安装keepalived

(3)需要虚拟ip

2、如何安装keepalived

(1)使用 yum 命令进行安装 yum install keepalived –y

(2)安装完成之后,etc文件夹下会生成keepalived,进入修改keepalived.conf

(3)修改config

global_defs {

notification_email {

acassen@firewall.loc

failover@firewall.loc

sysadmin@firewall.loc

}

notification_email_from Alexandre.Cassen@firewall.loc

smtp_server 192.168.17.129

smtp_connect_timeout 30

router_id LVS_DEVEL #访问到主机的服务器名字

}

vrrp_script chk_http_port {

script "/usr/local/src/nginx_check.sh" #脚本的位置

interval 2 #(检测脚本执行的间隔)

weight 2 #权重

}

vrrp_instance VI_1 {

state BACKUP # 备份服务器上将 MASTER 改为 BACKUP

interface ens33 #网卡

virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同

priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

virtual_ipaddress {

192.168.17.50 #VRRP H 虚拟地址

}

}

(2)在/usr/local/src 添加检测脚本

#!/bin/bash

A=ps -C nginx –no-header |wc -l

if [ $A -eq 0 ];then

/usr/local/nginx/sbin/nginx

sleep 2

if [ ps -C nginx --no-header |wc -l -eq 0 ];then

killall keepalived

fi

fi

(3)把两台服务器上 nginx 和 keepalived 启动

启动 nginx:./nginx

启动 keepalived:systemctl start keepalived.service

 

七、nginx的原理分析

1、mater 和 worker

 

 

 

master相当于管理员,work可以有多个,进程

2、worker 如何进行工作的、

 

master有任务后分配给work,work对任务进行争抢,抢到的work将请求转发给tomcat

3、master-work的好处分析

(1)可以使用 nginx –s reload 热部署,利用 nginx 进行热部署操作

(2)每个 woker 是独立的进程,如果有其中的一个 woker 出现问题,其他 woker 独立的,

继续进行争抢,实现请求过程,不会造成服务中断

4、设置多少个work合适

worker 数和服务器的 cpu 数相等是最为适宜的

5、连接数 worker_connection

第一个:发送请求,占用了 woker 的几个连接数?

答案:2 或者 4 个

第二个:nginx 有一个 master,有四个 woker,每个 woker 支持最大的连接数 1024,支持的

最大并发数是多少?

l 普通的静态访问最大并发数是: worker_connections * worker_processes /2, l 而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections *

worker_processes/4。