Nginx 的学习与实战(建议收藏)
一、Nginx 简介
1.、概述
Nginx 是俄罗斯人编写的十分轻量级的 HTTP 服务器,Nginx,它的发音为“engine X”,是一个高性能的HTTP和反向代理服务器,同时也是一个 IMAP/POP3/SMTP 代理服务器。
Nginx是开源、高性能、高可靠的 Web 和反向代理服务器,能支持高达 50,000个并发连接数。Nginx 是一款轻量级的 Web 服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,其特点是占有内存少,并发能力强。
2、什么是正向代理?
正向代理:如果把局域网外的 Internet 想象成一个巨大的资源库,则局域网中的客户端要访 问 Internet,则需要通过代理服务器来访问,这种代理服务就称为正向代理。
正向代理是代理用户客户端,为客户端发送请求,使真实的用户客户端对服务器不可见。它最典型的用途就是可以用来访问受地理限制的内容、保护用户隐私、帮助爬虫爬取数据、广告效果测试、网站测试等等。
3、什么是反向代理?
反向代理,其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只 需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返 回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器 地址,隐藏了真实服务器 IP 地址。
作用是隐藏服务器的IP地址、提高访问速度、保持负载平衡、保护免受黑客攻击。
4、什么是动静分离?
为了加快网站的解析速度,可以把动态页面和静态页面由不同的服务器来解析,加快解析速 度。降低原来单个服务器的压力。根据请求的不同的资源类型,将不同的请求分发到不同的资源服务器。
5、什么是负载均衡?
单个服务器的处理能力是有限的,当大量用户的请求时候,需要通过Nginx统一管理用户的请求,Nginx将用户的请求按照配置的策略分配到不同的负载服务器,将流量分布到多个应用服务器,通过nginx 提高web 应用程序的性能、可扩展性和可靠性。
二、下载与安装
两种方式:
-
通过官网下载安装,较为繁琐
- 访问官网nginx.org/
- 找一篇博客,按照操作,较为繁琐,这里不在详细展开
-
通过docker安装,方便快捷
# 下载镜像 docker pull nginx:latest # 查看镜像 docker images # 启动容器 docker run --name nginx -p 8080:80 -d nginx # 在浏览器访问,http://127.0.0.1:8080/ # 出现Nginx的欢迎页面,说明启动成功 # 复制配置文件到宿主机 docker cp nginx:/etc/nginx/nginx.conf D:\dockerFile\nginx docker cp nginx:/etc/nginx/conf.d/ D:\dockerFile\nginx\conf docker cp nginx:/usr/share/nginx/html/ D:\dockerFile\nginx\html docker cp nginx:/var/log/nginx/ D:\dockerFile\nginx\logs # 停止容器 docker stop nginx # 删除容器 docker rm nginx # 重新启动容器 docker run -p 8080:80 --name nginx -v D:\dockerFile\nginx\nginx.conf:/etc/nginx/nginx.conf -v D:\dockerFile\nginx\logs:/var/log/nginx -v D:\dockerFile\nginx\html:/usr/share/nginx/html -v D:\dockerFile\nginx\conf:/etc/nginx/conf.d -d nginx # 重新加载配置文件 docker exec nginx nginx -s reload
三、配置文件
nginx.conf 配置文件:
user nginx;
worker_processes auto;
error_log /var/log/nginx/error.log notice;
pid /var/run/nginx.pid;
events {
worker_connections 1024;
}
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
sendfile on;
#tcp_nopush on;
keepalive_timeout 65;
#gzip on;
include /etc/nginx/conf.d/*.conf;
}
这里引用了另外一个配置文件default.conf
server {
listen 80;
listen [::]:80;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}
}
根据上述文件,我们可以很明显的将 nginx.conf 配置文件分为三部分:
第一部分:全局块
从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配 置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以 及配置文件的引入等。
比如上面第一行配置的:
worker_processes auto;
这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是 会受到硬件、软件等设备的制约
第二部分:events 块
比如上面的配置:
events {
worker_connections 1024;
}
events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。
上述例子就表示每个 work process 支持的最大连接数为 1024.
这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。
第三部分:http 块
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
sendfile on;
#tcp_nopush on;
keepalive_timeout 65;
#gzip on;
include /etc/nginx/conf.d/*.conf;
}
# default.conf 文件中内容
server {
listen 80;
listen [::]:80;
server_name localhost;
location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}
}
这算是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。 需要注意的是:http 块也可以包括 http 全局块、server 块。
这里的 server 块被单独拿出来放到了 default.conf 文件中
①、http 全局块 http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。
②、server 块 这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了 节省互联网服务器硬件成本。 每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。 而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。
1、全局 server 块
最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。
2、location 块 一个 server 块可以配置多个 location 块。
这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称 (也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓 存和应答控制等功能,还有许多第三方模块的配置也在这里进行。
四、使用
1. 实例一,代理
修改配置文件,default.conf
location / {
# root /usr/share/nginx/html;
proxy_pass http://www.baidu.com;
index index.html index.htm;
}
将 proxy_pass 指向百度,重新加载Nginx配置文件,然后我们在浏览器再次访问http://127.0.0.1:8080/,就好跳转到百度的页面
2.实例二,配置URL
修改配置文件,default.conf
location ~ /pdd {
proxy_pass https://pinduoduo.com;
}
location ~ /jd {
proxy_pass https://www.jd.com;
}
配置两个,重新加载Nginx配置文件,然后我们访问不同的URL,跳转到不同的网站
3.实例三,配置负载均衡
负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应 足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品, 很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎, nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服 务,而且 Nginx 提供了几种分配方式(策略):
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
有如下参数:
| fail_timeout | 与max_fails结合使用。 |
|---|---|
| max_fails | 设置在fail_timeout参数设置的时间内最大失败次数,如果在这个时间内,所有针对该服务器的请求都失败了,那么认为该服务器会被认为是停机了, |
| fail_time | 服务器会被认为停机的时间长度,默认为10s。 |
| backup | 标记该服务器为备用服务器。当主服务器停止时,请求会被发送到它这里。 |
| down | 标记服务器永久停机了。 |
2、加权轮询weight
weight 代表权,重默认为 1,权重越高被分配的客户端越多 指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。 例如: upstream server_pool{ server 192.168.5.21 weight=10; server 192.168.5.22 weight=10; }
#动态服务器组
upstream dynamic_zuoyu {
server localhost:8080 weight=2; #tomcat 7.0
server localhost:8081; #tomcat 8.0
server localhost:8082 backup; #tomcat 8.5
server localhost:8083 max_fails=3 fail_timeout=20s; #tomcat 9.0
}
在该例子中,weight参数用于指定轮询几率,weight的默认值为1,;weight的数值与访问比率成正比,比如Tomcat 7.0被访问的几率为其他服务器的两倍。
注意:
- 权重越高分配到需要处理的请求越多。
- 此策略可以与least_conn和ip_hash结合使用。
- 此策略比较适合服务器的硬件配置差别比较大的情况。
3、ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。
例如:
#动态服务器组
upstream dynamic_zuoyu {
ip_hash; #保证每个访客固定访问一个后端服务器
server localhost:8080 weight=2; #tomcat 7.0
server localhost:8081; #tomcat 8.0
server localhost:8082; #tomcat 8.5
server localhost:8083 max_fails=3 fail_timeout=20s; #tomcat 9.0
}
- 在nginx版本1.3.1之前,不能在ip_hash中使用权重(weight)。
- ip_hash不能与backup同时使用。
- 此策略适合有状态服务,比如session。
- 当有服务器需要剔除,必须手动down掉。
4、least_conn
把请求转发给连接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。
#动态服务器组
upstream dynamic_zuoyu {
least_conn; #把请求转发给连接数较少的后端服务器
server localhost:8080 weight=2; #tomcat 7.0
server localhost:8081; #tomcat 8.0
server localhost:8082 backup; #tomcat 8.5
server localhost:8083 max_fails=3 fail_timeout=20s; #tomcat 9.0
}
5、fair(第三方)
第三方的负载均衡策略的实现需要安装第三方插件。
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
#动态服务器组
upstream dynamic_zuoyu {
server localhost:8080; #tomcat 7.0
server localhost:8081; #tomcat 8.0
server localhost:8082; #tomcat 8.5
server localhost:8083; #tomcat 9.0
fair; #实现响应时间短的优先分配
}
6、url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。
#动态服务器组
upstream dynamic_zuoyu {
hash $request_uri; #实现每个url定向到同一个后端服务器
server localhost:8080; #tomcat 7.0
server localhost:8081; #tomcat 8.0
server localhost:8082; #tomcat 8.5
server localhost:8083; #tomcat 9.0
}
四、参数优化
需要设置多少个 worker ?
Nginx 同 redis 类似都采用了 io 多路复用机制,每个 worker 都是一个独立的进程,但每个进 程里只有一个主线程,通过异步非阻塞的方式来处理请求, 即使是千上万个请求也不在话 下。每个 worker 的线程可以把一个 cpu 的性能发挥到极致。所以 worker 数和服务器的 cpu 数相等是最为适宜的。设少了会浪费 cpu,设多了会造成 cpu 频繁切换上下文带来的损耗。
#设置 worker 数量。
worker_processes 4
#work 绑定 cpu(4 work 绑定 4cpu)。
worker_cpu_affinity 0001 0010 0100 1000
#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。
worker_cpu_affinity 0000001 00000010 00000100 00001000
连接数 worker_connection
这个值是表示每个 worker 进程所能建立连接的最大值,所以,一个 nginx 能建立的最大连接 数,应该是 worker_connections * worker_processes。当然,这里说的是最大连接数,对于 HTTP 请 求 本 地 资 源 来 说 , 能 够 支 持 的 最 大 并 发 数 量 是 worker_connections * worker_processes,如果是支持 http1.1 的浏览器每次访问要占两个连接,所以普通的静态访 问最大并发数是: worker_connections * worker_processes /2,而如果是 HTTP 作 为反向代 理来说,最大并发数量应该是 worker_connections * worker_processes/4。因为作为反向代理服务器,每个并发会建立与客户端的连接和与后端服 务的连接,会占用两个连接
五、搭建高可用集群
实际环境是在两台真正的服务器上搭建,下面的只是模拟
| IP | 作用 |
|---|---|
| 172.18.0.100 | 虚拟IP,对外提供服务 |
| 172.18.0.3 | Nginx负载转发 |
| 172.18.0.4 | Nginx负载转发 |
| 172.18.0.11 | 实际业务服务器 |
| 172.18.0.12 | 实际业务服务器 |
| 172.18.0.13 | 实际业务服务器 |
| 172.18.0.14 | 实际业务服务器 |
实际的配置文件keepalived.conf内容为:
global_defs {
default_interface eth0
}
vrrp_instance VI_1 {
interface eth0
state MASTER
virtual_router_id 51
priority 150
nopreempt
unicast_peer {
172.18.0.3
172.18.0.4
}
virtual_ipaddress {
172.18.0.100
}
authentication {
auth_type PASS
auth_pass d0cker
}
notify "/container/service/keepalived/assets/notify.sh"
}
-
下载镜像
docker pull osixia/keepalived -
创建网卡
docker network create keepalived -
启动主服务容器,IP为自动分配,为172.18.0.3
docker run --cap-add=NET_ADMIN --cap-add=NET_BROADCAST --cap-add=NET_RAW --network keepalived -d --name keepalived_master -e KEEPALIVED_INTERFACE='eth0' -e KEEPALIVED_PASSWORD='d0cker' -e KEEPALIVED_STATE='MASTER' -e KEEPALIVED_ROUTER_ID='51' -e KEEPALIVED_UNICAST_PEERS="#PYTHON2BASH:['172.18.0.3','172.18.0.4']" -e KEEPALIVED_VIRTUAL_IPS='172.18.0.100' osixia/keepalived -
启动主服务容器,IP为自动分配,为172.18.0.4
docker run --cap-add=NET_ADMIN --cap-add=NET_BROADCAST --cap-add=NET_RAW --network keepalived -d --name keepalived_backup -e KEEPALIVED_INTERFACE='eth0' -e KEEPALIVED_PASSWORD='d0cker' -e KEEPALIVED_STATE='MASTER' -e KEEPALIVED_ROUTER_ID='51' -e KEEPALIVED_UNICAST_PEERS="#PYTHON2BASH:['172.18.0.3','172.18.0.4']" -e KEEPALIVED_VIRTUAL_IPS='172.18.0.100' osixia/keepalived -
查看日志
主服务:
Wed Jun 28 15:13:49 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address. Wed Jun 28 15:13:50 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address. Wed Jun 28 15:13:51 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address. Wed Jun 28 15:13:52 2023: (VI_1) WARNING - equal priority advert received from remote host with our IP address. Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100 Wed Jun 28 15:13:53 2023: (VI_1) Sending/queueing gratuitous ARPs on eth0 for 172.18.0.100 Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100 Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100 Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100 Wed Jun 28 15:13:53 2023: Sending gratuitous ARP on eth0 for 172.18.0.100备份服务:
Wed Jun 28 15:13:52 2023: (VI_1) Entering BACKUP STATE (init) Wed Jun 28 15:13:52 2023: VRRP sockpool: [ifindex(41), family(IPv4), proto(112), unicast(1), fd(11,12)] Ok, i'm just a backup, great. -
查看主服务的网络
docker exec -it keepalived_master ip a1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever 2: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000 link/ipip 0.0.0.0 brd 0.0.0.0 3: sit0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1000 link/sit 0.0.0.0 brd 0.0.0.0 39: eth0@if40: <BROADCAST,MULTICAST,UP,LOWER_UP,M-DOWN> mtu 1500 qdisc noqueue state UP link/ether 02:42:ac:12:00:03 brd ff:ff:ff:ff:ff:ff inet 172.18.0.3/16 brd 172.18.255.255 scope global eth0 valid_lft forever preferred_lft forever inet 172.18.0.100/32 scope global eth0 valid_lft forever preferred_lft forever可以看到,172.18.0.100 的IP已经有了,可以对外提供服务了
-
检测脚本
当我们的keepalived 运行的时候,他本身是不对外提供服务器的,只是能够虚拟出一个IP,来选择这个IP所在的服务器的中间件来提供,比如Nginx。keepalived 是通过检测他自身是否正常来是否选举自己的,可是keepalived 正常不代表这台服务器上的Nginx服务正常,所以需要有个检测脚本来定时检测一下nginx 是否还活着,如果Nginx 挂了,就把 keeplived 也杀掉,这样这个机器就会退出,keepalived 集群会重新选举一个正常的服务器,从而保证了服务的高可用
在 keepalived 配置文件中增加如下配置
vrrp_script chk_http_port { script "/shell/nginx_check.sh" #脚本地址 interval 2 #检测脚本执行的间隔 weight 2 #比重 }nginx_check.sh 文件内容
#!/bin/bash A=`ps -C nginx –no-header |wc -l` if [ $A -eq 0 ];then /usr/local/nginx/sbin/nginx sleep 2 if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then killall keepalived fi fi
六、参考博客
- 六种负载均衡策略:www.yii666.com/article/697…
- Keepalived 高可用:blog.csdn.net/W_Meng_H/ar…
- Keepalived 高可用:pythonjishu.com/imsoxzgadbq…