1、Keepalived概述
1.1 单点故障
企业应用中,单台服务器承担应用存在单点故障的危险;
单点故障一旦发生,企业服务将发生中断,造成极大的危害和损失。
1.2 一个合格的集群应该具备的特性
- 负载均衡 :LVS ;NGINX;HAProxy;F5
- 健康检查 : for 调度器/节点服务器;Keepalived ;Heartbeat
- 故障转移 : 主备切换工具
1.3 VRRP虚拟路由冗余协议
虚拟路由冗余协议(Virtual Router Redundancy Protocol,简称VRRP)是一种路由容错协议,也可以叫做备份路由协议。
VRRP可以将两台或者多台物理路由器设备虚拟成一个虚拟路由,这个虚拟路由器通过虚拟IP对外提供服务,而在虚拟路由器内部有多个物理路由器协同工作,同一时间只有一台物理路由器对外提供服务,这台物理路由设备被设置成为:主路由器(Master角色),一般情况下Master是由选举算法产生,它拥有对外服务的虚拟IP,提供各种网络功能,而且其它的物理路由器不拥有对外的虚拟IP,也不提供对外网络功能,仅仅接收MASTER的VRRP状态通告信息,这些路由器被统称为“BACKUP的角色”,当主路由器失败时,处于BACKUP角色的备份路由器将重新进行选举,产生一个新的主路由器进入MASTER角色,继续提供对外服务,这种选举角色切换非常之快,因而保证了服务的持续可用性。
1.4 健康检查
健康检查,别名探针
- 发送心跳消息 ping/pang
- TCP端口检查 向一个主机的IP:PORT 发起TCP连接
- HTTP URL 检查 向一个主机的 http://IP:PORT/URL路径 发送HTTP GET请求方法,主机响应返回2XX 3XX状态码则认为健康检查正常
-
响应返回4XX
-
5XX状态码则认为健康检查异常
1.5 脑裂“现象
1.5.1 定义
主备服务器同时拥有VIP
1.5.2 原因
主备服务器之间的通信链路中断,导致备服务器无法正常收到主服务器发送的VRRP心跳报文;
1.5.3 解决方法
关闭主服务器或者备服务器其中一个的keepalived服务
1.5.4 如何预防
- 主服务器与备服务器之间添加双通信链路;
- 在主服务器上定义运行脚本判断与备服务器通信链路是否中断,如果中断则自行关闭keepalived服务;
- 利用第三方监控软件检测是否发生脑裂故障,如果发生则通过监控软件关闭主或者备服务器上的keepalived服务。
2、Keepalived
官方网站:www.keepalived.org/
2.1 Keepalived是什么?
Keepalived是Linux下一个轻量级别的高可用解决方案,可以实现服务的高可用或热备,用来防止单点故障的问题。
Keepalived起初是为LVS设计的,专门用来监控集群系统中各个服务节点的状态,它根据TCP/IP参考模型的第三、第四层、第五层交换机制检测每个服务节点的状态,如果某个服务器节点出现异常,或者工作出现故障,Keepalived将检测到,并将出现的故障的服务器节点从集群系统中剔除,这些工作全部是自动完成的,不需要人工干涉。
Keepalived的核心是VRRP协议,支持故障自动切换(Failover), 支持节点健康状态检查(Health Checking)。
当master主机出现故障时,及时切换到backup节点保证业务正常,当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。
2.2 Keepalived体系主要模块及其作用
2.3 Keepalived工作原理
两台主备机器通过keepalived,虚拟一个IP,也就是VIP(Virtual IP)。
VIP开始为主机器所有,备份机为空闲状态,同时在两台keepalived之间通信相当于有一条心跳线,通过心跳线互相通信,只要主机器监控(通过脚本)到ngin服务停止,则主机器自己停止keepalived,将VIP交给备份机器处理web请求,直至主机器再次恢复正常,将VIP返还给主机器。
2.4 keepalived如何实现故障切换?
在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP)。
主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的
时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。
2.5 抢占模式和非抢占模式的区别?
抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。
非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。
非抢占式俩节点state必须为bakcup,且必须配置nopreempt。
注意:这样配置后,我们要注意启动服务的顺序,优先启动的获取master权限,与优先级没有关系了。
2.6 Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?
Keepalived首先做初始化先检查state状态,master为主服务器,backup为备服务器。
然后再对比所有服务器的priority,谁的优先级高谁是最终的主服务器。
优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。
3、LVS高可用(实例)
| 名称 | IP地址 |
|---|---|
| LVS-Master | 192.168.137.100 |
| LVS-Backup | 192.168.137.102 |
| Web-A | 192.168.137.103 |
| Web-B | 192.168.137.104 |
| VIP | 192.168.137.188 |
| Client | 192.168.137.200 |
┌────────────────┐
│ Client │
│192.168.137.200 │
└──────┬─────────┘
│VIP:192.168.137.188
┌────────┴──────────┐
┌──────┴─────────┐ ┌───────┴────────┐
│ Master │ │ Backup │
│192.168.137.100 │ │192.168.137.102 │
└──────┬─────────┘ └───────┬────────┘
└────────┬──────────┘
┌────────────────┼──────────────────┐
┌──────┴─────────┐ ┌──────┴─────────┐
│ Web1 │ │ Web2 │
│192.168.137.103 │ │192.168.137.104 │
└────────────────┘ └────────────────┘
3.1 Keepalived构建高可用集群
3.1.1前置准备
#关闭防火墙
systemctl disable firewalld.service --now
setenforce 0
#安装keepalived
yum -y install ipvsadm keepalived
#加载ip_vs内核模块
modprobe ip_vs
cat /proc/net/ip_vs
3.1.2 修改配置文件,主服务器
cd /etc/keepalived/
#备份配置文件
cp keepalived.conf keepalived.conf.bak
#编辑配置文件
vim keepalived.conf
......
global_defs { #定义全局参数
smtp_server 127.0.0.1
router_id LVS_01
#vrrp_strict
}
vrrp_instance VI_1 { #定义VRRP热备实例参数
state MASTER
interface ens33
virtual_router_id 10
#nopreempt #如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
priority 100
advert_int 1 #通告间隔秒数(心跳频率)
authentication { #定义认证信息,每个热备组保持一致
auth_type PASS #认证类型
auth_pass abc123
}
virtual_ipaddress { #指定群集vip地址
192.168.137.188
}
}
virtual_server 192.168.137.188 80 {
delay_loop 6 #健康检查的间隔时间(秒)
lb_algo rr #指定调度算法,轮询(rr)
lb_kind DR
persistence_timeout 0 #连接保持时间(秒)
protocol TCP #应用服务采用的是 TCP协议
real_server 192.168.137.103 80 {
weight 1 #节点的权重
TCP_CHECK {
connect_port 80 #添加检查的目标端口
connect_timeout 3 #添加连接超时(秒)
nb_get_retry 3 #添加重试次数
delay_before_retry 3 #添加重试间隔
}
}
real_server 192.168.137.104 80 { #添加第二个 Web节点的地址、端口
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
3.1.3修改配置文件,备服务器,和主服务器大致相同
systemctl start keepalived ip a
#查看虚拟网卡vip
3.1.4 LVS – DR模式构建负载均衡集群
启动 ipvsadm 服务
#主DR 192.168.137.100
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm
ipvsadm -ln
#备DR 192.168.137.102
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm
ipvsadm -ln
3.1.5 配置节点服务器,准备测试页面
systemctl stop firewalld
setenforce 0
yum -y install httpd
systemctl start httpd
#建立测试页
--192.168.137.100---
echo 'this is hzw web1!' > /var/www/html/index.html
--192.168.137.101---
echo 'this is hhh web2!' > /var/www/html/index.html
vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.137.188
NETMASK=255.255.255.255
service network restart
ifup lo:0
ifconfig lo:0
route add -host 192.168.137.188 dev lo:0 #将VIP和lo:0绑定
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
sysctl -p
3.1.6 测试
浏览器重复访问VIP地址 192.168.2.188
3.1.7关闭主服务器的keepalived服务,测试高可用
systemctl stop keepalived
然后浏览器访问VIP地址 192.168.2.188
观察服务提供状况
4、Nginx高可用
| 名称 | IP地址 |
|---|---|
| Nginx-Master | 192.168.137.100 |
| Nginx-Backup | 192.168.137.102 |
| Web-A | 192.168.137.103 |
| Web-B | 192.168.137.104 |
| VIP | 192.168.137.188 |
| Client | 192.168.137.200 |
4.1 编写nginx服务监控脚本
4.2 主备Keepalived配置
4.2.1 主服务器
global_defs {
router_id Nginx_01
}
vrrp_script check_nginx {
script "/etc/keepalived/check_nginx.sh"
interval 2
weight -5
fall 3
rise 2
}
vrrp_instance VI_1 {
state MASTER
interface ens33
virtual_router_id 51
priority 150
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.137.188
}
track_script {
check_nginx
}
}
4.2.2 备服务器
global_defs {
router_id Nginx_02
}
vrrp_script check_nginx {
script "/etc/keepalived/check_nginx.sh"
interval 2
weight -5
fall 3
rise 2
}
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.137.188
}
track_script {
check_nginx
}
}
4.2.3 Nginx负载均衡配置
#主备nginx都要配置四层反向代理
#以主为例
vim /apps/nginx/conf/nginx.conf
stream{
upstream iserver {
server 192.168.137.103:80;
server 192.168.137.104:80;
}
server {
listen 80;
proxy_pass iserver;
}
}
4.2.4 负载均衡测试
客户端访问VIP地址
curl 192.168.2.188 # 执行多次,观察结果
4.2.5 高可用测试
关闭主服务器的nginx服务
systemctl stop nginx
curl 192.168.137.188 #测试负载均衡