LVS负载均衡群集

1,581 阅读12分钟

theme: fancy highlight: arduino-light

1. 群集的含义

  • Cluster集群群集
  • 由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址), 相当于一台大型计算机

问题:

互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。

解决方法:

  • 使用价格昂贵小型机大型机。(纵向扩容)
  • 使用多台相对廉价的普通服务器构建服务群集。(横向扩容) 通过整合多台服务器,使用LVS来达到服务器的高可用负载均衡,并以同一个IP地址对外提供相同的服务
    在企业中常用的一种群集技术——LVS(Linux Virtual Server,Linux虚拟服务器)

纵向扩展 对服务器的CPU 内存 硬盘 等硬件进行升级或者扩容来实现 性能上限会有瓶颈,成本昂贵,收效比不高等问题

横向扩展 通过增加服务器主机数量来应对高并发的场景

2. 群集分类

2.1 根据群集针对的目标差异,可以分三个类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

2.2 负载均衡群集(Load Balance Cluster)(LB)(阿里云SLB)

  • 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
  • LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力,例如,“DNS轮询”“反向代理”等

2.3 高可用群集(High Availability Cluster)(HA)

  • 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA) 的容错效果。

  • HA的工作方式包括双工主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,“故障切换” 、“双机热备” 等。

2.3 高性能运算群集(High Performance Computer Cluster)(HPC)

  • 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力。

  • 高性能依赖于"分布式运算”、 “并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如,'云计算”、 “网格计算”等。

不同类型的群集可以根据实际需求进行合并,如高可用的负载均衡群集。

3. 负载均衡群集

3.1 负载均衡群集架构

第一层,负载调度器(Load Balancer或Director) 负载均衡层

访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集 IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑 替换至备用调度器,确保高可用性

第二层,服务器池(Server Pool) WEB应用层

群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真 实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度 器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。

第三层,共享存储(Share Storage) 确保多台服务器使用的是相同的资源

为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性 共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器

(因为节点服务器的资源都是由NAS或NFS提供,所以NAS或NFS需要做主备、或分布式,从而实现高可用。) QQ截图20221012095751.png

3.2 负载均衡群集的工作模式

负载均衡群集是目前企业用得最多的群集类型。

群集的负载调度技术有三种工作模式:

  • 地址转换(NAT模式)
  • IP隧道(IP-TUN)
  • 直接路由(DR模式)

 3.3 NAT模式(地址转换

地址转换

  • Network Address Translation,简称NAT模式
  • 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机 的访问入口,也是各节点回应客户机的访问出口。
  • 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两 种方式。
  • 缺点:由于NAT的负载均衡器既作为用户的访问请求入口,也作为节点服务器响应请求的出口,承载两个方向的压力,调度器的性能会成为整个集群的瓶颈。

QQ截图20221012105028.png

3.4 TUN模式(IP隧道)

IP隧道:

  • IP Tunnel ,简称TUN模式。
  • 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器。承载的压力比NAT小。
  • 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信。
  • 缺点:成本很高。
  • 这种模式一般应用于特殊场景,比如将节点服务器分布在全国各地,防止被物理攻击(如地震、战争等),做灾备。

QQ截图20221012105116.png

3.5 DR模式(直接路由) 直接路由:

  • Direct Routing,简称DR模式。
  • 采用半开放式的网络结构,与TUN模式的结构类似,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器。承载的压力比NAT小。
  • 但各节点并不是分散在各地,而是与调度器位于同一个物理网络。
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道。

QQ截图20221012105159.png

  1. 群集类型 3类
  • 负载均衡(LB) 提高应用系统的响应效率,处理更多的访问请求,减少延迟,提高并发和负载能力
  • 高可用(HA) 提高应用系统的可靠性,减少服务中断的时间,确保服务的连续性
  • 高性能运算(HPC) 将多台主机的硬件计算资源整合到一起实现分布式运行,比如 云计算
  1. 负载均衡群集的架构
  • 负载调度器 通过VIP通过用户的请求,再通过调度算法确定要转发的节点服务器

  • 服务器池中的节点服务器 通过RIP接受调度器转发来的请求,并处理请求进行响应

  • 共享存储 为各个节点服务器提供稳定,一致的文件存取服务,比如NAS+NFS,文件服务器+NFS,分布式对象存储等存储设备

  1. LVS模式 3种

**NAT(地址转换) **

  • 调度器作为所有节点服务器的网关,既做客户端的访问入口,也做节点服务器响应的访问出口,也就意味着调度器将成为整个集群系统的瓶颈
  • 优点:由于在转发过程中做了地址转发,对于节点服务器安全性较比其它模式好
  • 调度器至少要有2张网卡,一个承载VIP用于接受客户端的请求,另一个用于使用私有IP在同一局域网中连接节点服务器相互通讯

DR(直接路由)

  • 调度器只负责接收客户端的请求,并根据调度算法转发给节点服务器,节点服务器在处理完请求后是直接响应返回给客户端,响应的数据包不经过调度器
  • 调度器和节点服务器使用私有IP在同一个局域网中与连接节点服务器相互通讯

YUN(IP隧道)

  • 结构与DR模式相类似,但是节点服务器分散在互联网各个位置,都具有独立的公网IP,通过专用的IP隧道与调度器相互通讯

4. LVS虚拟服务器

Linux Virtual Server:

  • 针对Linux内核开发的负载均衡
  • 1998年5月,由我国的章文嵩博士创建
  • 官方网站:www.linuxvirtualserver.org/
  • LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出来一种高效的解决方法

4.1 LVS相关术语

DS:Director Server。指的是前端负载均衡器。

RS:Real Server。节点服务器,后端真实的工作服务器。

VIP:向外部直接面向用户请求,作为用户请求的目标的IP地址。

DIP:Director Server IP,主要用于和内部主机通讯的IP地址。

RIP:Real Server IP,后端服务器的IP地址。

CIP:Client IP,访问客户端的IP地址。

5. LVS的负载调度算法

5.1 固定调度算法:rr, wrr, dh,sh

rr:轮询算法(Round Robin)

  • 将请求依次分配给不同的RS节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况。
  • 将收到的访问请求安装顺序轮流分配给群集指定各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。

wrr:加权轮询调度(Weighted Round Robin)

  • 依据不同RS的权重值分配任务。权重值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
  • 保证性能强的服务器承担更多的访问流量。

dh:目的地址哈希调度(destination hashing)

  • 以目的地址为关键字查找一个静态hash表来获得所需RS。

sh:源地址哈希调度(source hashing)

  • 以源地址为关键字查找--个静态hash表来获得需要的RS。

5.2 动态调度算法: wlc,lc,1blc

wlc:加权最小连接数调度(Weighted Least Connections)

  • 假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次取Ti/Wi为最小的RS作为下一个分配的RS。
  • 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重。
  • 性能较高的节点将承担更大比例的活动连接负载。

lc:最小连接数调度( Least Connections)

  • ipvs表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
  • 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。

lblc:基于地址的最小连接数调度(locality-based least-connection)

  • 将来自同一个目的地址的请求分配给同一-台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。

6 ipvsadm工具选项

选项含义
-A添加虚拟服务器
-D删除整个虚拟服务器
-s指定负载调度算法(轮询: rr、加权轮询: wrr、最少连接: 1c、加权最少连接: wlc)
-a表示添加真实服务器(节点服务器)
-d删除某一个节点
-t指定VIP地址及TCP端口
-r指定RIP地址及TCP端口
-m表示使用NAT群集模式
-g表示使用DR模式
-i表示使用TUN模式
-w设置权重(权重为0时表示暂停节点)
-p 60表示保持长连接60秒;
-l列表查看LVS虚拟服务器(默认为查看所有)
-n以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -1n

6.2 加载 ip_vs 通用模块

QQ截图20221013220508.png LVS现在已成为 Linux 内核的一部分,默认编译为 ip_vs 模块,必要时能够自动调动。

在CentOS 7 系统中,手动加载 ip_vs 模块的命令如下:

 modprobe ip_vs     //手动加载 ip_vs 模块
 ​
 cat /proc/net/ip_vs    //查看当前系统中ip_vs模块的版本信息
 
 IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

加载 LVS 所有的负载调度算法

[root@linux7-5 ipvs]#pwd
/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs
[root@linux7-5 ipvs]#ls
ip_vs_dh.ko.xz    ip_vs_lblcr.ko.xz   ip_vs_rr.ko.xz   ip_vs_wrr.ko.xz
ip_vs_ftp.ko.xz   ip_vs_lc.ko.xz      ip_vs_sed.ko.xz
ip_vs.ko.xz       ip_vs_nq.ko.xz      ip_vs_sh.ko.xz
ip_vs_lblc.ko.xz  ip_vs_pe_sip.ko.xz  ip_vs_wlc.ko.xz

过滤所有调度算法的名称
[root@linux7-5 ipvs]#ls | grep -o "^[^.]*"
ip_vs_dh
ip_vs_ftp
ip_vs
ip_vs_lblc
ip_vs_lblcr
ip_vs_lc
ip_vs_nq
ip_vs_pe_sip
ip_vs_rr
ip_vs_sed
ip_vs_sh
ip_vs_wlc
ip_vs_wrr

加载所有调度算法
for i in $(ls /usr/lib/modules/$(uname -r)l/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modF filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done

NAT模式 LVS负载均衡群集部署

部署NFS共享存储服务

关闭防火墙,SELinux
[root@localhost ~]#systemctl disable --now firewalld.service
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@localhost ~]#setenforce 0

安装nfs-utils,rpcbind软件
[root@localhost ~]#yum install rpcbind nfs-utlis -y

新建目录,并创建站点文件
[root@localhost ~]#cd /opt
[root@localhost opt]#mkdir nfs
[root@localhost opt]#cd nfs/
[root@localhost nfs]#mkdir w l
[root@localhost nfs]#echo 'w is web 1!' > w/index.html
[root@localhost nfs]#echo ' is web 1!' > l/index.html


修改共享配置文件,设置共享策略
[root@localhost nfs]#vim /etc/exports
/opt/nfs/w 192.168.85.0/24
/opt/nfs/l 192.168.85.0/24

启动服务,并查看本机的NFS共享目录
[root@localhost ~]#systemctl start rpcbind
[root@localhost ~]#systemctl start nfs
[root@localhost nfs]#showmount -e   //查看本机发布的NFS共享目录
Export list for localhost.localdomain:
/opt/nfs/l 192.168.85.0/24
/opt/nfs/w 192.168.85.0/24

部署两台web节点服务器

第一台web

关闭防火墙selinux
[root@linux7-6 ~]# systemctl stop firewalld  
[root@linux7-6 ~]# setenforce 0

安装httpd  
[root@linux7-6 ~]# yum install -y httpd

查看NFS共享目录信息
[root@linux7-6 ~]#showmount -e 192.168.85.50
Export list for 192.168.85.50:
/opt/nfs/l 192.168.85.0/24
/opt/nfs/w 192.168.85.0/24

挂载站点  
[root@linux7-6 ~]#mount 192.168.85.50:/opt/nfs/w /var/www/html/
[root@linux7-6 ~]#df
192.168.85.50:/opt/nfs/w 73364480 3735040 69629440    6% /var/www/html
[root@linux7-6 ~]#cat /var/www/html/index.html
w is web 1!

永久挂载
vim /etc/fstab
192.168.85.50:/opt/nfs/wa   /var/www/html/  nfs   defaults,_netdev  0  0

指定网关,网关地址设置为负载调度器的内网地址
[root@linux7-6 ~]#vim /etc/sysconfig/network-scripts/ifcfg-ens33
GATEWAY=192.168.85.80  //网关地址写负载调度器的内网网卡地址
#DNS1=8.8.8.8

重启网络服务,开启httpd服务
[root@linux7-6 ~]# systemctl restart network
[root@linux7-6 ~]# systemctl start httpd

第二台web服务器

关闭防火墙
[root@comeo ~]#systemctl stop firewalld.service
[root@comeo ~]#setenforce 0

修改网卡,网关设置为负载调度服务的内网地址
[root@comeo ~]#vim /etc/sysconfig/network-scripts/ifcfg-ens33
GATEWAY=192.168.85.80
#DNS1=8.8.8.8
[root@comeo ~]#systemctl restart network

安装httpd
[root@comeo ~]#yum -y install httpd

查看nfs共享信息
[root@comeo ~]#showmount -e 192.168.85.50
Export list for 192.168.85.50:
/opt/nfs/l 192.168.85.0/24
/opt/nfs/w 192.168.85.0/24

挂载NFS共享目录
[root@comeo ~]#mount 192.168.85.50:/opt/nfs/l /var/www/html/
[root@comeo ~]#df
192.168.85.50:/opt/nfs/l 73364480 3740160 69624320    6% /var/www/html
[root@comeo ~]#cat /var/www/html/index.html
l is web 1!

永久挂载
vim /etc/fstab
192.168.85.50:/opt/nfs/la  /var/www/html   nfs   
defaults,_netdev  0  0

mount -a

重启httpd服务
[root@linux7-7 ~]#systemctl start httpd

部署LVS负载调度服务器

添加网卡
[root@linux7-8 ~]#cd /etc/sysconfig/network-scripts/
[root@linux7-8 network-scripts]#vim ifcfg-ens33
#GATEWAY=192.168.85.2     //将网卡和DNS服务器地址注释掉  
#DNS1=8.8.8.8
[root@linux7-8 network-scripts]#cp ifcfg-ens33 ifcfg-ens36
[root@linux7-8 network-scripts]#vim ifcfg-ens36
IPADDR=12.0.0.12      //设置IP地址  
NETMASK=255.255.255.0  
#GATEWAY=192.168.85.2  
#DNS1=8.8.8.8

[root@linux7-8 network-scripts]#systemctl restart network

开启路由转发功能
[root@linux7-8 network-scripts]#vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
[root@linux7-8 network-scripts]#sysctl -p
net.ipv4.ip_forward = 1

配置SNAT策略(用作内网连接外网)
[root@linux7-8 network-scripts]#iptables -F -t nat
[root@linux7-8 network-scripts]#iptables -t nat  -A POSTROUTING -s 192.168.-o ens36 -j SNAT --to 12.0.0.12
[root@linux7-8 network-scripts]#iptables -nL POSTROUTING -t nat
Chain POSTROUTING (policy ACCEPT)
target     prot opt source               destination
SNAT       all  --  192.168.85.0/24      0.0.0.0/0            to:12.0.0.12

加载LVS内核模块
[root@linux7-8 network-scripts]#modprobe ip_vs
[root@linux7-8 network-scripts]#cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

加载LVS所有调度算法
[root@linux7-8 network-scripts]#for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done
ip_vs_dh
ip_vs_ftp
ip_vs
ip_vs_lblc
ip_vs_lblcr
ip_vs_lc
ip_vs_nq
ip_vs_pe_sip
ip_vs_rr
ip_vs_sed
ip_vs_sh
ip_vs_wlc
ip_vs_wrr
  
安装ipvsadm管理工具,开启服务
[root@linux7-8 ~]#mount /dev/sr0 /mnt
[root@linux7-8 ~]#yum -y install ipvsadm.x86_64
开启服务前必须保存负载分配策略,生成/etc/sysconfig/ipvsadm文件。如果该文件不存在,服务无法启动。
[root@linux7-8 ~]#ipvsadm-save >/etc/sysconfig//ipvsadm
[root@linux7-8 ~]#systemctl start ipvsadm.service

配置负载分配策略(NAT模式只需要在负载器上配置,节点服务器不需要特殊配置)
[root@linux7-8 ~]#ipvsadm -C   //清空原有规则


指定指定VIP地址及TCP端口,-s rr 指定负载调度策略为轮询
[root@linux7-8 ~]#ipvsadm -A -t 12.0.0.12:80 -s rr

先指定虚拟服务器再添加真实服务器地址,-r指定真实服务器地址,-m指定nat模式。-w指定权重值,权重为1时可省略不写
[root@linux7-8 ~]#ipvsadm -a -t 12.0.0.12:80 -r 192.168.85.60:80 -m
[root@linux7-8 ~]#ipvsadm -a -t 12.0.0.12:80 -r 192.168.85.70:80 -m
[root@linux7-8 ~]#ipvsadm  //查看策略
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  linux7-8:http rr
  -> 192.168.85.60:http           Masq    1      0          0
  -> 192.168.85.70:http           Masq    1      0          0
[root@linux7-8 ~]#ipvsadm-save >/etc/sysconfig/ipvsadm  //保存负载分配策略
[root@linux7-8 ~]#ipvsadm -ln     //以数字形式查看策略,Masq表示NAT模式
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  12.0.0.12:80 rr
  -> 192.168.85.60:80             Masq    1      0          0
  -> 192.168.85.70:80             Masq    1      0          0