集群与分布式
集群的含义
- Cluster,集群、群集,为解决某个特定问题将多台计算机组合起来形成的单个系统
- 由多台主机构成,但对外只表现为一个整体
问题
- 互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求
解决方法
- 使用价格昂贵的小型机、大型机
- 使用多台相对廉价的普通服务器构建服务群集
通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址对外提供相同的服务。
在企业中常用的一种群集技术——LVS (Linux Virtual Server,Linux虚拟服务器)
企业群集分类
- 负载均衡群集
- 高可用群集
- 高性能运算群集。
负载均衡群集(Load Balance cluster)
LB: Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求
- 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
- Lb的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力.例如,“dns轮询”“反向代理”等“
高可用群集
HA: High Availiablity,高可用,避免 SPOF(single Point Of failure)
- 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
- HA的工作方式包括双工和主从两种模式
高性能运算群集
HPC: High-performance computing,高性能
- 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
- 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
负载均衡集群架构
- 第一层,负载调度器(Load Balancer或Director)
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。 通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。
- 第二层,服务器池(Server Pool)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。 当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。
- 第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。 共享存储可以使用NAS设备,或者提供NFS共享服务(一种协议)的专用服务器。
LVS工作模式和相关命令
Linux Virtual Server
- 针对Linux内核开发的负载均衡解决方
- 1998年5月,由我国的章文嵩博士创建
- 官方网站: www.linuxvirtualserver.org/
- LVS 实际上相当于基于IP地址的虚拟化应用, 为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS 7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息
[root@localhost ~]# modprobe ip_vs #加载ip_vs模块
[root@localhost ~]# cat /proc/net/ip_vs #查看ip_vs信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
查看ip_vs模块的子模块
[root@localhost ~]# cd /usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/
[root@localhost ipvs]# ls
ip_vs_dh.ko.xz ip_vs.ko.xz ip_vs_lblcr.ko.xz ip_vs_nq.ko.xz ip_vs_rr.ko.xz ip_vs_sh.ko.xz ip_vs_wrr.ko.xz
ip_vs_ftp.ko.xz ip_vs_lblc.ko.xz ip_vs_lc.ko.xz ip_vs_pe_sip.ko.xz ip_vs_sed.ko.xz ip_vs_wlc.ko.xz
注意:lvs只能做4层代理,也就是ip:端口进行转发
LVS的负载调度算法
轮询(Round Robin)
- 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载
加权轮询(Weighted Round Robin)
- 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
- 保证性能强的服务器承担更多的访问流量
最少连接(Least Connections)
- 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点
加权最少连接(WeightedLeastConnections)
- 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
- 性能较高的节点将承担更大比例的活动连接负载
IP_Hash
- 根据请求来源的IP地址进行Hash计算,得到后端服务器
- 这样来自同一个IP的请求总是会落到同一台服务器上处理,以致于可以将请求上下文信息存储在这个服务器上
url_hash
- 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器
- 后端服务器为缓存时比较有效
fair
- 采用的不是内建负载均衡使用的轮换的均衡算法
- 而是可以根据页面大小、加载时间长短智能的进行负载均衡
- 也就是根据后端服务器时间来分配用户请求,响应时间短的优先分配
ipvsadm功能与选项说明
ipvsadm是LVS的管理工具
选项 | 功能 |
---|---|
-A | 添加虚拟服务器 |
-D | 删除整个虚拟服务器 |
-s | 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接:wlc) |
-a | 表示添加真实服务器(节点服务器) |
-d | 删除某一个节点 |
-t | 指定 VIP地址及 TCP端口 |
-r | 指定 RIP地址及 TCP端口 |
-m | 表示使用 NAT群集模式 |
-g | 表示使用 DR模式 |
-i | 表示使用 TUN模式 |
-w | 设置权重(权重为 0 时表示暂停节点) |
-p 60 | 表示保持长连接60秒 |
-l | 列表查看 LVS 虚拟服务器(默认为查看所有) |
-n | 以数字形式显示地址、端口等信息,常与“-l”选项组合使用。ipvsadm -ln |
负载均衡群集工作模式分析
负载均衡群集是目前企业用得最多的群集类型
群集的负载调度技术有三种工作模式
- 地址转换(NAT模式)
- IP隧道(TUN模式)
- 直接路由(DR模式)
1. 地址转换(NAT模式)
- 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
- 服务器节点使用私有iP地址,与调度器位于同一个物理网络,安全性要优于其他两种方式
- 优点:集群中的服务器可以使用任何支持TCP/IP的操作系统,只要负载均衡器有一个合法的IP地址。
- 缺点:扩展性有限,当服务器节点增长过多时,由于所有的请求和应答都需要经过负载均衡器,因此负载均衡器将成为整个系统的瓶颈。
IP隧道(TUN模式)
- 采用开放式的网络结构,负载调度器仅作为客户机的访向入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
- 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
- 优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。
- 缺点:隧道模式的RS节点需要合法IP,这种方式需要所有的服务器支持“IP Tunneling”。
直接路由(DR模式)
- 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
- 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
- 优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。
- 缺点:需要负载均衡器与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境。
LVS-nat群集部署
LVS调度器作为Web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法
部署步骤
- 1.加载ip_vs模块,安装ipvsadm工
- 2.开启路由转发
- 3.新建LVS虚拟服务器并添加节点服务器
- 4.配置节点服务器建立
- 测试网站
- 挂载NFS共享存储
- 建立测试网页
- 5.保存规则并测试
环境
- LVS负载调度器:ens33:192.168.1.12 ens37:10.0.0.1
- Web1 节点服务器1:192.168.1.10
- Web2 节点服务器2:192.168.1.11
- NFS服务器:192.168.1.128
- 客户端(win10):10.0.0.12
部署nfs共享存储
ip:192.168.1.128
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#关闭防火墙
yum install -y nfs-utils rpcbind
#安装nfs-utils、rpcbind软件包
systemctl start rpcbind.service
systemctl start nfs.service
systemctl enable rpcbind.service
systemctl enable nfs.service
#开启nfs和rpcbind
mkdir /opt/lwx /opt/wyn #创建两个文件夹
echo '<h1>This is lwx <h1>' >/opt/lwx/index.html #写入lwx
echo '<h1>This is wyn <h1>' >/opt/wyn/index.html #写入wyn
chmod 777 /opt/lwx /opt/wyn #授权
#创建两个文件夹放置两个html测试文件
vim /etc/exports #设置nfs共享策略,写入以下内容
/usr/share *(ro,sync)
/opt/lwx 192.168.1.0/24(rw,sync)
/opt/wyn 192.168.1.0/24(rw,sync)
exportfs -rv
showmount -e
#发布共享
etc/exprot参数说明:
- Rw :该主机对该共享目录有读写权限
- No_root_squash: 客户机用root访问该共享文件夹时,不映射root用户
- Sync: 资料同步写入到内存与硬盘中
部署节点服务器web1
ip:192.168.1.10
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#关闭防火墙
yum install httpd -y
#安装httpd服务
showmount -e 192.168.1.128
#查看nfs服务
mount 192.168.1.128:/opt/lwx /var/www/html/
#挂载站点,将NFS服务器的共享目录/opt/lwx/,挂载到httpd服务的根目录
systemctl start httpd
#开启httpd服务
vim /etc/sysconfig/network-scripts/ifcfg-ens33
GATEWAY=192.168.159.100
#指定网关为lvs的ip地址
#DNS1=8.8.8.8
#DNS2=114.114.114.114
#注释掉
systemctl restart network
#重启网络服务
部署节点服务器web2
ip:192.168.1.11
部署方法和web1一样
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#关闭防火墙
yum install httpd -y
#安装httpd服务
showmount -e 192.168.1.128
#查看nfs服务
mount 192.168.1.128:/opt/wyn /var/www/html/
#挂载站点,将NFS服务器的共享目录/opt/wyn/,挂载到httpd服务的根目录
systemctl start httpd
#开启httpd服务
vim /etc/sysconfig/network-scripts/ifcfg-ens33
GATEWAY=192.168.159.100
#指定网关为lvs的ip地址
#DNS1=8.8.8.8
#DNS2=114.114.114.114
#注释掉
systemctl restart network
#重启网络服务
部署LVS负载调度器
内网网卡:192.168.1.12(ens33) ,外网网卡:10.0.0.1(ens36)
添加一块网卡
ifconfig #查看网卡信息,每台添加的网卡不一定都是ens36,根据自己的虚拟机来配置
vim /etc/sysconfig/network-scripts/ifcfg-ens33
#GATEWAY=192.168.1.2
#DNS1=8.8.8.8
#DNS2=114.114.114.114
#网关和DNS注释掉
cp /etc/sysconfig/network-scripts/ifcfg-ens33 /etc/sysconfig/network-scripts/ifcfg-ens36
#复制ens33到ens36
vim /etc/sysconfig/network-scripts/ifcfg-ens36
NAME=ens36
DEVICE=ens36
#ens33改为36,注释掉uuid
IPADDR=10.0.0.1
NETMASK=255.255.255.0
#设置IP地址
#GATEWAY=192.168.1.2
#DNS1=8.8.8.8
#DNS2=114.114.114.114
#网关和DNS注释掉
systemctl restart network
#重启网络
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#关闭防火墙
vim /etc/sysctl.conf
net.ipv4.ip_forward = 1 #添加这一行
sysctl -p #读取修改后的配置
net.ipv4.ip_forward = 1
配置SNAT策略(如果内网想主动连接外网的话,需要配置SNAT策略)
iptables -t nat -F
iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o ens36 -j SNAT --to 10.0.0.1
#添加snat规则
iptables -nL POSTROUTING -t nat
#查看nat策略
加载LVS内核模块
modprobe ip_vs #加载ip_vs模块
cat /proc/net/ip_vs #查看ip_vs模块的版本
安装ipvsadm管理工具,开启服务
yum install -y ipvsadm
#开启服务前必须保存负载分配策略,生成/etc/sysconfig/ipvsadm文件。如果该文件不存在,服务无法启动。
ipvsadm-save > /etc/sysconfig/ipvsadm
或者
ipvsadm --save > /etc/sysconfig/ipvsadm
或者
touch /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service
#开启服务
配置负载分配策略(NAT模式只需要在负载器上配置,节点服务器不需要特殊配置)
ipvsadm -C
#清空原有规则
ipvsadm -A -t 10.0.0.1:80 -s rr
#指定指定VIP地址及TCP端口,-s rr 指定负载调度策略为轮询
ipvsadm -a -t 10.0.0.1:80 -r 192.168.1.10:80 -m -w 1
ipvsadm -a -t 10.0.0.1:80 -r 192.168.1.11:80 -m -w 1
#先指定虚拟服务器再添加真实服务器地址,
-r指定真实服务器地址
-m指定nat模式
-w指定权重值
权重为1时可省略不写
ipvsadm
#查看策略
ipvsadm-save >/etc/sysconfig/ipvsadm
#保存负载分配策略
ipvsadm -ln
#以数字形式查看策略,Masq表示NAT模式
客户机访问测试
win10客户机,网关地址设置为负载调度器的外网IP:10.0.0.1
浏览器多次访问负载调度器的外网IP地址10.0.0.1。