LVS负载均衡群集与NAT模式LVS负载均衡部署

173 阅读12分钟

1. 理解负载均衡群集的原理

1.1企业群集应用概述

  • 群集的含义
  1. Cluster、集群、群集
  2. 由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址) ,相当于一台大型计算机。
  • 问题

互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。

  • 解决方法
  1. 使用价格昂贵的小型机、大型机
  2. 使用多台相对廉价的普通服务器构建服务群集

通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址对外提供相同的服务。

在企业中常用的一种群集技术一LVS (Linux Virtual Server, Linux虚拟服务器)

总结:

  1. 纵向扩展
  1. 对服务器的CPU、内存、硬盘等硬件进行升级或者扩容来实现的

  2. 性能上限会有瓶颈,成本昂贵,收效比不高等问题

  1. 横向扩展

通过增加服务器主机数量来应对高并发的场景

1.2 企业群集分类

1.2.1 根据群集所针对的目标差异,可分为三种类型

  1. 负载均衡群集(LA)
  2. 高可用群集(HA)
  3. 高性能运算群集(HPC)
  • 负载均衡群集(Load Balance Cluster)
  1. 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB) 的整体性能
  2. LB的负载分配依赖于主节点的分流算法,将来自客户机的 访问请求分担给多个服务器节点,从而缓解整个系统的负 载压力。例如,"DNS轮询” "反向代理” 等
  • 高可用群集(High Availability Cluster)
  1. 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性, 达到高可用(HA)的容错效果
  2. HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。

例如,“故障切换” “双机热备” 等

  • 高性能运算群集(High Performance Computer Cluster)
  1. 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
  2. 高性能依赖于“分布式运算”、“并行计算” ,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力

例如,”云计算” “网格计算” 等

1.3 负载均衡群集架构

1.3.1 负载均衡的结构

image.png

  • 第一层,负载调度器(Load Balancer或Director)

访问整个群集系统的唯一入口, 对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

通过VIP接收用户的请求,再通过调度算法确定要转发的节点服务器

  • 第二层,服务器池(Server Pool)

群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。

服务器池中的节点服务器 通过RIP接收调度器转发来的请求,并处理请求进行响应

  • 第三层,共享存储(Share Storage)

为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器,分布式对象存储等存储设备

节点

  1. 一个节点就是一个服务(实例),可以实现存储数据,索引并且搜索的功能。
  2. 每个节点都有一个唯一的名称作为身份标识;如果没有设置名称,默认使用 UUID 作为名称。推荐定义有意义的名称,便于更好的在集群中区分与管理。
  3. 节点通过设置集群名称,在同一网络中发现具有相同集群名称的节点,组成集群。如果在同一网络中只有一个节点,则这个节点成为一个单节点集群,即此节点集群中每个节点都是功能齐全的服务

1.4 负载均衡集群工作模式

  • 负载均衡群集是目前企业用得最多的群集类型
  • 群集的负载调度技术有三种工作模式
  1. 地址转换(NAT)
  2. IP隧道(TUN)
  3. 直接路由(DR)

1.4.1 NAT(地址转换)

  • 什么是NAT
  1. Network Address Translation,简称NAT模式
  2. 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
  3. 服务器节点使用私有IP地址,与负载调度器位于同一个网络网络,安全性要优于其他两种方式
  • 特点
  1. 缺点:调度器作为所有节点服务器的网关,既作客户端的访问入口,也作节点服务器响应的访问出口,也就意味着调度器将成为整个集群系统的瓶颈
  2. 由于在转发过程中做了地址转发,对于节点服务器的安全性比其它模式较好
  3. 调度器至少要有2个网卡,一个承载VIP用于接收客户端的请求,另一个用于使用私有IP在同一个局域网中与节点服务器相互通信

1.4.2 DR(直接路由)

  • 什么是DR
  1. Direct Routing,简称DR模式
  2. 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度服务器位于同一物理网络
  3. 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
  • 特点
  1. 优点:调度器只负责接收客户端的请求,并根据调度算法转发给节点服务器;节点服务器在处理完请求后是直接响应返回给客户端,响应的数据包不经过调度器,性能比NAT模式高
  2. 缺点:调度器和节点服务器使用私有IP在同一个局域网中与节点服务器才能相互通信

1.4.3 TUN(IP隧道)

  • 什么是TUN
  1. IP Tunnel,简称TUN模式
  2. 采用开放式的网络结构,负载调度器仅作为客户机的访问入口。各节点通过各自的lnternet连接直接回应客户机,而不在经过负载调度器,承受压力比NAT模式小
  3. 服务器节点分散在互联网中的不同位置,具有独立公网IP地址,通过专用IP隧道与负载调度器相互通信

IP隧道原理的核心思想:基于一个IP报文封装在另一个IP报文的技术,从而使得目标为一个IP地址的数据报文能被封装和转发到另一个IP地址,因而IP隧道技术也可以成为IP封装技术(IP encapsulation)。

IP隧道主要用于移动主机和虚拟私有网络(Virtual Private Network),在其中隧道都是静态建立的,隧道一端有一个IP地址,另一端也有一个唯一的IP地址

  • 特点

架构与DR相类似,但是节点服务器分散在互联网各个位置,都具有独立的公网IP,通过专用IP隧道与调度器相互通信

2. LVS虚拟服务器

2.1 lvs虚拟服务器简介

  • Linux Virtual Server:
  1. 针对Linux内核开发的负载均衡
  2. 1998年5月,由我国的章文嵩博士创建
  3. 官方网站:www.linuxvirtualserver.org/
  4. LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出来一种高效的解决方法

2.2 LVS相关常用术语

术语全称说明
DSDirector Server指的是前端负载均衡服务器
RSReal Server节点服务器,后端真实的工作服务器
VIPVirtual IP向外部直接面向用户请求,作为用户请求的目标的IP地址
DIPDirector Server IP主要用于和内部主机通讯的IP地址
RIPReal Server IP后端服务器的IP地址
CIPClient IP访问客户端的IP地址
CMAC客户端的 MAC 地址,准确的应该是 LVS 连接的路由器的 MAC 地址
VMAC负载均衡 LVS 的 VIP 对应的 MAC 地址
DMAC负载均衡 LVS 的 DIP 对应的 MAC 地址
RMAC后端真实服务器的 RIP 地址对应的 MAC 地址

2.3 LVS负载调度算法

2.3.1 固定调度算法:rr wrr dh sh

  • rr:轮询算法(Round Robin)
  1. 将请求依次分配给不同的RS节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况。
  2. 将收到的访问请求安装顺序轮流分配给群集指定各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。
  • wrr:加权轮询调度(Weighted Round Robin)
  1. 依据不同RS的权重值分配任务。权重值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
  2. 保证性能强的服务器承担更多的访问流量。
  • dh:目的地址哈希调度(destination hashing)

以目的地址为关键字查找一个静态hash表来获得所需RS。

  • sh:源地址哈希调度(source hashing)

以源地址为关键字查找一个静态hash表来获得需要的RS。

2.3.2 动态调度算法:wlc lc lblc

  • lc:最小连接数调度( Least Connections)
  1. ipvs表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
  2. 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
  • wlc:加权最小连接数调度(Weighted Least Connections)
  1. 假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次取Ti/Wi为最小的RS作为下一个分配的RS。
  2. 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重。
  3. 性能较高的节点将承担更大比例的活动连接负载。
  • lblc:基于地址的最小连接数调度(locality-based least-connection)

将来自同一个目的地址的请求分配给同一-台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。

2.4 列举出你知道的LVS调度算法?

  • 轮询(Round Robin)

  • 加权轮询 (Weighted Round Robin)

  • 最少连接 (Least Connections)

  • 加权最少连接 (Weighted Least Connections)

  • 源地址哈希表(source hashing)

2.5 加载ip_vs通用模块

LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调动

在Centos7系统中,手动加载ip_vs模块的命令如下

modprobe ip_vs ##手动加载ip_vs模块

cat /proc/net/ip_vs   ##查看当前系统中的ip_vs模块中的版本信息

2.6 加载LVS所有的负载调度算法

LVS 所有的负载调度算法文件在 
/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/ 目录下:

ls | grep -o "^[^.]*"  //过滤出所有调度算法的名称
for i in $(ls /usr/lib/modules/$(uname -r)l/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modF filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done  ##加载所有调度算法
  • 可以将加载调度算法的命令写入脚本中
#!/bin/bash
 a=$(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*")
 
 for i in $a
 do 
    echo $i
    #查看单个模块的详细信息
    /sbin/modinfo -F filename $i >/dev/null 2>&1 
    #加载算法模块
    /sbin/modprobe $i
 done

3. ipvsadm 工具

ipvsadm是一个工具,同时它也是一条命令,用于管理LVS的策略规则

ipvsadm是ipvs的管理器,需要yum安装

3.1 ipvsadm工具的作用

  • LVS群体创建与管理
  • 创建虚拟服务器
  • 添加、删除服务器节点
  • 查看群集及节点情况
  • 保存负载分配策略

3.2 工具选项说明

选项说明
A添加虚拟服务器
D删除整个虚拟服务器
s指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接:wlc)
a表示添加真实服务器(节点服务器)
d删除某一个节点
t指定 VIP地址及 TCP端口
r指定 RIP地址及 TCP端口
m表示使用 NAT群集模式
g表示使用 DR模式
i表示使用 TUN模式
w设置权重(权重为 0 时表示暂停节点)
p 60表示保持长连接60秒(默认关闭连接保持)
l列表查看 LVS 虚拟服务器(默认为查看所有)
n以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -ln

4. NAT模式 LVS负载均衡群集部署

4.1 实验环境

负载调度器

  1. 内网关 ens33:192.168.200.100
  2. 外网关 ens36:12.0.0.1

Web 服务器1:192.168.200.10

Web 服务器2:192.168.200.20

NFS服务器:192.168.200.101

客户端:12.0.0.12

4.2 部署共享存储(NFS服务器)

  • 关闭防火墙核心防护
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld.service
[root@localhost ~]# setenforce 0
  • 安装并配置、启动NFS服务
[root@localhost ~]# yum install nfs-utils rpcbind -y
[root@localhost ~]# systemctl start rpcbind.service
[root@localhost ~]# systemctl start nfs.service

[root@localhost ~]# systemctl enable nfs.service
[root@localhost ~]# systemctl enable rpcbind.service

[root@localhost ~]# mkdir /opt/can /opt/benet
[root@localhost ~]# chmod 777 /opt/can /opt/benet
[root@localhost ~]# echo 'this is can web!' > /opt/can/index.html
[root@localhost ~]# echo 'this is benet web!' > /opt/benet/index.html

[root@localhost ~]# vim /etc/exports
/usr/share *(ro,sync)
/opt/can 192.168.80.0/24(rw,sync)
/opt/benet 192.168.80.0/24(rw,sync)
  • 发布共享
exportfs -rv

4.3 配置节点服务器(web1、web2)

  • 关闭防火墙核心防护
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld.service
[root@localhost ~]# setenforce 0
  • 安装并配置、启动http服务
[root@localhost ~]# yum install httpd -y
[root@localhost ~]# systemctl start httpd.service
[root@localhost ~]# systemctl enable httpd.service

[root@localhost ~]# yum install nfs-utils rpcbind -y
[root@localhost ~]# showmount -e 192.168.200.101

[root@localhost ~]# systemctl start rpcbind
[root@localhost ~]# systemctl enable rpcbind
  • web1:192.168.200.10
[root@localhost ~]# mount.nfs 192.168.200.101:/opt/can /var/www/html
[root@localhost ~]# echo 'this is can web!' > /var/www/html/index.html
[root@localhost ~]# vim /etc/fstab
192.168.200.101:/opt/can		/var/www/html	nfs		defaults,_netdev	0  0
  • web2:192.168.200.20
[root@localhost ~]# mount.nfs 192.168.200.101:/opt/benet /var/www/html
[root@localhost ~]# echo 'this is benet web!' > /var/www/html/index.html

[root@localhost ~]# vim /etc/fstab
192.168.200.101:/opt/benet	/var/www/html	nfs 	defaults,_netdev	0  0

4.4 配置负载调度器

  • 关闭防火墙核心防护
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld.service
[root@localhost ~]# setenforce 0
  • 配置SNAT转发规则

法一

[root@localhost ~]# vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
[root@localhost ~]# sysctl -p

法二

[root@localhost ~]# echo '1' > /proc/sys/net/ipv4/ip_forward
[root@localhost ~]# sysctl -p
  • 配置iptables策略
[root@localhost ~]# iptables -t nat -F
[root@localhost ~]# iptables -F
[root@localhost ~]# iptables -t nat -A POSTROUTING -s 192.168.200.0/24 -o ens36 -j SNAT --to-source 12.0.0.1
  • 加载LVS内核模块
[root@localhost ~]# modprobe ip_vs		//加载 ip_vs模块
[root@localhost ~]# cat /proc/net/ip_vs	//查看 ip_vs版本信息
  • 加载LVS所有调度算法
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done
  • 安装ipvsadm 管理工具
[root@localhost ~]# yum -y install ipvsadm
  • 启动服务前须保存负载分配策略

法一

[root@localhost ~]# ipvsadm-save > /etc/sysconfig/ipvsadm
[root@localhost ~]# systemctl start ipvsadm.service

法二

[root@localhost ~]# ipvsadm --save > /etc/sysconfig/ipvsadm
[root@localhost ~]# systemctl start ipvsadm.service
  • 配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)
[root@localhost ~]# ipvsadm -C 		//清除原有策略
[root@localhost ~]# ipvsadm -A -t 12.0.0.1:80 -s rr // 可选项[-p 60]长连接,默认是60s
[root@localhost ~]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.200.10:80 -m //可选项[-w 1] 权重
[root@localhost ~]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.200.20:80 -m [-w 1]
[root@localhost ~]# ipvsadm		//启用策略
[root@localhost ~]# ipvsadm -ln		//查看节点状态,Masq代表 NAT模式
[root@localhost ~]# ipvsadm-save > /opt/ipvsadm	  //保存策略
[root@localhost ~]# ipvsadm-save > /etc/sysconfig/ipvsadm
--------------------------------------------------------
[root@localhost ~]# ipvsadm -d -t 12.0.0.1:80 -r 192.168.200.10:80		//删除群集中某一节点服务器
[root@localhost ~]# ipvsadm -D -t 12.0.0.1:80	//删除整个虚拟服务器
[root@localhost ~]# systemctl stop ipvsadm		//停止服务(清空策略)
[root@localhost ~]# systemctl start ipvsadm	  //启动服务(根据/etc/sysconfig/ipvsadm重建配置)
[root@localhost ~]# ipvsadm-restore < /opt/ipvsadm	//恢复LVS 策略

4.5测试效果

在一台IP为12.0.0.12的客户机使用浏览器访问 http://12.0.0.1/ ,不断刷新浏览器测试负载均衡效果,刷新间隔需长点(或者关闭Web服务的连接保持)。