Nginx09-负载均衡

36 阅读15分钟

Nginx09-负载均衡

1、负载均衡概述

(1)服务器架构的演变

  • 早期的网站流量和业务功能都比较简单,单台服务器足以满足基本的需求。

image-20241013210737531

  • 随着互联网的发展,业务流量越来越大并且业务逻辑也跟着越来越复杂,单台服务器的性能及单点故障问题就凸显出来了,因此需要多台服务器进行性能的水平扩展及避免单点故障出现。

    image-20241005211822614

(2)负载均衡处理流程

  • 系统的扩展可以分为两种

    • **纵向扩展:**从单机的角度出发,通过增加系统的硬件处理能力来提升服务器的处理能力。
    • **横向扩展:**通过添加机器来满足大型网站服务的处理能力。

image-20241005212213378

  • 负载均衡涉及到两个重要的角色
    • **应用集群:**将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理并返回响应的数据
    • **负载均衡器:**将用户访问的请求根据对应的负载均衡算法,分发到集群中的一台服务器进行处理

(3)负载均衡作用

  • 解决服务器的高并发压力,提高应用程序的处理性能。

  • 提供故障转移,实现高可用。

  • 通过添加或减少服务器数量,增强网站的可扩展性。

  • 在负载均衡器上进行过滤,可以提高系统的安全性。

2、负载均衡常用处理方式

(1)用户手动选择

  • 这种方式比较原始,主要实现的方式就是在网站主页上面提供不同线路、不同服务器链接方式,让用户来选择自己访问的具体服务器,来实现负载均衡。

image-20241005213551071

(2)DNS轮询方式

  • DNS:域名系统(服务)协议(DNS)是一种分布式网络目录服务,主要用于域名与 IP 地址的相互转换。
  • DNS 轮询:大多域名注册商都支持对同一个主机名添加多条 A 记录,这就是 DNS 轮询,DNS 服务器将解析请求按照 A 记录的顺序,随机分配到不同的 IP 上,这样就能完成简单的负载均衡。DNS 轮询的成本非常低,在一些不重要的服务器,被经常使用。

image-20241005213728335

  • 如下是我们为某一个域名添加的IP地址,用2台服务器来做负载均衡。

image-20241005213855526

  • DNS负载均衡缺点
    • **可靠性低:**假设一个域名DNS轮询多台服务器,如果其中的一台服务器发生故障,那么所有的访问该服务器的请求将不会有所回应,即使你将该服务器的IP从DNS中去掉,但是由于各大宽带接入商将众多的DNS存放在缓存中,以节省访问时间,导致DNS不会实时更新。所以DNS轮流上一定程度上解决了负载均衡问题,但是却存在可靠性不高的缺点。
    • **负载均衡不均衡:**DNS负载均衡采用的是简单的轮询负载算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能好的服务器多分配请求,另外本地计算机也会缓存已经解析的域名到IP地址的映射,这也会导致使用该DNS服务器的用户在一定时间内访问的是同一台Web服务器,从而引发Web服务器减的负载不均衡。

(3)四/七层负载均衡

  • OSI(open system interconnection):叫开放式系统互联模型,这个是由国际标准化组织 ISO 指定的一个不基于具体机型、操作系统或公司的网络体系结构。该模型将网络通信的工作分为七层。
    • 应用层:为应用程序提供网络服务。
    • 表示层:对数据进行格式化、编码、加密、压缩等操作
    • 会话层:建立、维护、管理会话连接
    • 传输层:建立、维护、管理端到端的连接,常见的有 TCP/UDP
    • 网络层:IP 寻址和路由选择
    • 数据链路层:控制网络层与物理层之间的通信
    • 物理层:比特流传输

image-20241005214317823

  • 四层负载均衡

    • 所谓四层负载均衡指的是 OSI 七层模型中的传输层,主要是基于 IP + PORT 的负载均衡
    • 实现四层负载均衡的方式:
      • 硬件:F5 BIG-IP、Radware 等,性能好,成本高、无法扩展
      • 软件:LVS、Nginx、Hayproxy 等,性能较好,成本低、可以扩展
  • 七层负载均衡

    • 所谓的七层负载均衡指的是在应用层,主要是基于虚拟的 URL 或主机 IP 的负载均衡
    • 实现七层负载均衡的方式:
      • 软件:Nginx、Hayproxy 等
  • 四层和七层负载均衡的区别

    • 四层负载均衡数据包是在底层就进行了分发,而七层负载均衡数据包则在最顶端进行分发,所以四层负载均衡的效率比七层负载均衡的要高。
    • 四层负载均衡不识别域名,而七层负载均衡识别域名。
  • **其他:**处理四层和七层负载以外,其实还有二层、三层负载均衡,二层是在数据链路层基于 mac 地址来实现负载均衡,三层是在网络层一般采用虚拟 IP 地址的方式实现负载均衡。

  • 实际环境采用的模式:四层负载(LVS) + 七层负载(Nginx)

3、七层负载均衡

  • Nginx要实现七层负载均衡需要用到proxy_pass代理模块配置。Nginx默认安装支持这个模块,我们不需要再做任何处理。
  • Nginx的负载均衡是在Nginx的反向代理基础上把用户的请求根据指定的算法分发到一组【upstream虚拟服务池】。

(1)负载均衡指令

  • **upstream:**该指令是用来定义一组服务器,它们可以是监听不同端口的服务器,并且也可以是同时监听 TCP 和 Unix socket 的服务器。服务器可以指定不同的权重,默认为 1。
语法upstream name {...}
默认值
位置http
  • **server:**该指令用来指定后端服务器的名称和一些参数,可以使用域名、IP、端口或者unix socket。
语法server name [paramerters]
默认值
位置upstream

(2)负载均衡实现流程

image-20241007162348043

  • 服务器设置(192.168.119.162):这里以三个端口代替三个服务器,在配置文件进行如下
# 服务器 1
server {
    listen   9001;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.119.162:9001</h1>';
    }
}
# 服务器 2
server {
    listen   9002;
    server_name localhost;
    default_type text/html;
    location /{
    	return 200 '<h1>192.168.119.162:9002</h1>';
    }
}
# 服务器 3
server {
    listen   9003;
    server_name localhost;
    default_type text/html;
    location / {
    	return 200 '<h1>192.168.119.162:9003</h1>';
    }
}
  • 负载均衡器设置(192.168.119.161):这是一个 Nginx 代理服务器,让它去负载均衡访问三个服务器,配置文件如下
upstream backend{
	server 192.168.119.162:9091;
	server 192.168.119.162:9092;
	server 192.168.119.162:9093;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;# backend 要对应上 upstream 后的值,根据需求修改
	}
}

(3)负载均衡状态

  • 代理服务器在负责均衡调度中的状态有以下几个:
状态概述
down当前的server暂时不参与负载均衡
backup预留的备份服务器
max_fails允许请求失败的次数
fail_timeout经过max_fails失败后, 服务暂停时间
max_conns限制最大的接收连接数
  • down
    • 将该服务器标记为永久不可用,那么该代理服务器将不参与负载均衡。
    • 该状态一般会对需要停机维护的服务器进行设置。
upstream backend{
	server 192.168.119.162:9001 down;
	server 192.168.119.162:9002
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • backup
    • 将该服务器标记为备份服务器,当主服务器不可用时,才用备份服务器来传递请求。
    • 如下配置中 9001 服务器永久禁止,而 9002 服务器是备份服务器,所以 9003 服务器是主服务器,此时只有9003是能对外提供服务的。
    • 此时将 9003 端口的访问禁止,来模拟主服务器宕机,backup 的备份服务器就能开始对外提供服务。
upstream backend{
	server 192.168.119.162:9001 down;
	server 192.168.119.162:9002 backup;
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
# firewall-cmd工具:该工具是 Linux 提供的专门用来操作 firewall 防火墙的

# 查询防火墙中指定的端口是否开放
firewall-cmd --query-port=9001/tcp

# 开放一个指定的端口
firewall-cmd --permanent --add-port=9002/tcp

# 批量添加开发端口
firewall-cmd --permanent --add-port=9001-9003/tcp

# 如何移除一个指定的端口
firewall-cmd --permanent --remove-port=9003/tcp

# 重新加载
firewall-cmd --reload

# --permanent表示设置为持久
# --add-port表示添加指定端口
#--remove-port表示移除指定端口
  • max_conns
    • 用来限制同时连接到 upstream 负载上的单个服务器的最大连接数。默认为 0,表示不限制。
    • 使用该配置可以根据后端服务器处理请求的并发量来进行设置,防止后端服务器被压垮。
upstream backend{
	server 192.168.119.162:9001 down;
	server 192.168.119.162:9002 backup;
	server 192.168.119.162:9003 max_conns=2;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • **max_fails=number:**设置允许请求代理服务器失败的次数,默认为1。
  • **fail_timeout=time:**设置经过max_fails失败后,服务暂停的时间,默认是10秒。
upstream backend{
	server 192.168.119.162:9001 down;
	server 192.168.119.162:9002 backup;
	server 192.168.119.162:9003 max_fails=3 fail_timeout=15;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

(4)负载均衡策略

  • Nginx的upstream支持如下六种方式的分配算法如下
算法名称说明
轮询默认方式
weight权重方式
ip_hash依据ip分配方式
least_conn依据最少连接方式
url_hash依据URL分配方式
fair依据响应时间方式
  • 轮询
    • 负载均衡默认的策略。
    • 每个请求会按时间先后顺序逐个分配到不同的后端服务器。
upstream backend{
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • weight
    • 用来设置服务器的权重,默认为 1,权重数据越大,被分配到请求的几率越大。
    • 该权重值,主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的,所有此策略比较适合服务器的硬件配置差别比较大的情况。
upstream backend{
	server 192.168.119.162:9001 weight=10;
	server 192.168.119.162:9002 weight=5;
	server 192.168.119.162:9003 weight=3;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • ip_hash

    • 当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。

    • 这样,当来自某一个IP的用户在后端Web服务器A上登录后,在访问该站点的其他URL,能保证其访问的还是后端web服务器A。

    • 注意:使用ip_hash指令无法保证后端服务器的负载均衡,可能导致有些后端服务器接收到的请求多,有些后端服务器接收的请求少,而且设置后端服务器权重等方法将不起作用。

语法ip_hash;
默认值
位置upstream
upstream backend{
	ip_hash;
	server 192.168.119.16:9001;
	server 192.168.119.16:9002;
	server 192.168.119.16:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • least_conn
    • 最少连接,把请求转发给连接数较少的后端服务器。
    • 轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。
upstream backend{
	least_conn;
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

image-20241008105501990

  • url_hash
    • 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器。
    • 要配合缓存命中来使用,使用url_hash,可以使得同一个url会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。
upstream backend{
	hash &request_uri;
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

image-20241008110047120

(5)三方策略-fair

  • 采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。
  • 如果直接使用会报错,因为fair属于第三方模块实现的负载均衡。需要添加nginx-upstream-fair,添加方式如下。
  • nginx-upstream-fair-master.zip百度网盘下载地址:pan.baidu.com/s/1m1X310x6…
# 进入安装包目录
cd /opt

# 下载 nginx-upstream-fair 模块,下载地址如下,下载完成后把文件上传到服务器/opt/目录下
https://github.com/gnosek/nginx-upstream-fair

# 解压
unzip nginx-upstream-fair-master.zip

# 指定模块路径
mv nginx-upstream-fair-master fair

#查看 configure arguments 的配置信息,拷贝出来
[root@localhost opt]# nginx -V
nginx version: nginx/1.26.2
built by gcc 4.8.5 20150623 (Red Hat 4.8.5-44) (GCC) 
configure arguments: --prefix=/usr/local/nginx

#将原有 /usr/local/nginx/sbin/nginx 进行备份
mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginx.backup

# 进入 Nginx 的安装目录
cd /opt/nginx/core/nginx-1.26.2

# 执行 make clean 清空之前编译的内容
make clean

# 使用 configure 来配置参数,添加模块 记得添加 configure arguments 后的数据
./configure --add-module=/opt/fair  --prefix=/usr/local/nginx

# 在 Nginx 的源码目录(安装包目录)中 src/http/ngx_http_upstream.h
vim /opt/nginx/core/nginx-1.26.2/src/http/ngx_http_upstream.h

# 找到 ngx_http_upstream_srv_conf_s在模块中添加添加 default_port 属性
in_port_t	   default_port;

# 通过 make 模板进行编译
make

# 将安装目录下的 objs 中的 nginx 拷贝到 sbin 目录
cd /opt/nginx/core/nginx-1.26.2/objs
cp nginx /usr/local/nginx/sbin

# 更新nginx
cd /opt/nginx/core/nginx-1.26.2
make upgrade
  • fair使用案例
upstream backend{
	fair;
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}

(6)负载均衡案例

  • 案例一:对所有请求实现一般轮询规则的负载均衡
upstream backend{
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
	server 192.168.119.162:9003;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • 案例二:对所有请求实现加权轮询规则的负载均衡
upstream backend{
	server 192.168.119.162:9001 weight=7;
	server 192.168.119.162:9002 weight=5;
	server 192.168.119.162:9003 weight=3;
}
server {
	listen 8083;
	server_name localhost;
	location /{
		proxy_pass http://backend;
	}
}
  • 案例三:对特定资源实现负载均衡
upstream videobackend{
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
}
upstream filebackend{
	server 192.168.119.162:9003;
	server 192.168.119.162:9004;
}
server {
	listen 8084;
	server_name localhost;
	location /video/ {
		proxy_pass http://videobackend;
	}
	location /file/ {
		proxy_pass http://filebackend;
	}
}
  • 案例四:对不同域名实现负载均衡
upstream test1backend{
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
}
upstream test2backend{
	server 192.168.119.162:9003;
	server 192.168.119.162:9004;
}
server {
	listen	8085;
	server_name www.test1.cn;
	location / {
		proxy_pass http://test1backend;
	}
}
server {
	listen	8086;
	server_name www.test2.cn;
	location / {
		proxy_pass http://test2backend;
	}
}
  • 案例五:实现带有URL重写的负载均衡
upstream backend{
	server 192.168.119.162:9001;
	server 192.168.119.162:9002;
	server 192.168.119.162:9003;
}
server {
	listen	80;
	server_name localhost;
	location /file/ {
		rewrite ^(/file/.*) /server/$1 last;
	}
	location / {
		proxy_pass http://backend;
	}
}

4、四层负载均衡

  • Nginx在1.9之后,增加了一个stream模块,用来实现四层协议的转发、代理、负载均衡等。stream模块的用法跟http的用法类似,允许我们配置一组TCP或者UDP等协议的监听,然后通过proxy_pass来转发我们的请求,通过upstream添加多个后端服务,实现负载均衡。

  • 四层协议负载均衡的实现,一般都会用到LVS、HAProxy、F5等,要么很贵要么配置很麻烦,而Nginx的配置相对来说更简单,更能快速完成工作。

(1)添加stream模块

  • Nginx默认是没有编译这个模块的,需要使用到stream模块,那么需要在编译的时候加上**--with-stream**。

  • 完成添加**--with-stream**的实现步骤

#查看 configure arguments 的配置信息,拷贝出来
[root@localhost ~]# nginx -V
nginx version: nginx/1.26.2
built by gcc 4.8.5 20150623 (Red Hat 4.8.5-44) (GCC) 
configure arguments: --prefix=/usr/local/nginx

#将原有 /usr/local/nginx/sbin/nginx 进行备份
mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginx.backup

# 进入 Nginx 的安装目录
cd /opt/nginx/core/nginx-1.26.2

# 执行 make clean 清空之前编译的内容
make clean

# 使用 configure 来配置参数,添加模块--with-stream 记得添加 configure arguments 后的数据
./configure --with-stream --prefix=/usr/local/nginx

# 通过 make 模板进行编译
make

# 将安装目录下的 objs 中的 nginx 拷贝到 sbin 目录
cd /opt/nginx/core/nginx-1.26.2/objs
cp nginx /usr/local/nginx/sbin

# 更新nginx
cd /opt/nginx/core/nginx-1.26.2
make upgrade

(2)负载均衡的指令

  • **stream:**该指令提供在其中指定流服务器指令的配置文件上下文。和http指令同级。
语法stream { ... }
默认值
位置main
  • upstream:该指令和http的upstream指令是类似的。
http {
    server {
        listen 80;
        # ......
    }
}
stream {
    upstream backend{
        server 192.168.119.162:6379;
        server 192.168.119.162:6378;
    }
    server {
        listen 81;
        proxy_pass backend;
    }
}

(3)负载均衡案例

image-20241008142205796

stream {
    upstream test1backend {
        server 192.168.119.162:9001;    # 服务器 B 的 9001 端口
        server 192.168.119.162:9002;    # 服务器 B 的 9002 端口
    }
    upstream test2backend {
        server 192.168.119.162:9003;   # 服务器 B 的 9003 端口
    }
    server {
        listen  81;
        proxy_pass test1backend; # redis 的负载均衡
    }
    server {
        listen	82;
        proxy_pass test2backend;  # tomcat 的负载均衡
    }
}