初识Keepalived(LVS+Keepalived和Nginx+Keepalived部署)

608 阅读8分钟

1、Keepalived概述

1.1 单点故障

企业应用中,单台服务器承担应用存在单点故障的危险;

单点故障一旦发生,企业服务将发生中断,造成极大的危害和损失。

1.2 一个合格的集群应该具备的特性

  1. 负载均衡 :LVS ;NGINX;HAProxy;F5
  2. 健康检查 : for 调度器/节点服务器;Keepalived ;Heartbeat
  3. 故障转移 : 主备切换工具

1.3 VRRP虚拟路由冗余协议

虚拟路由冗余协议(Virtual Router Redundancy Protocol,简称VRRP)是一种路由容错协议,也可以叫做备份路由协议。

VRRP可以将两台或者多台物理路由器设备虚拟成一个虚拟路由,这个虚拟路由器通过虚拟IP对外提供服务,而在虚拟路由器内部有多个物理路由器协同工作,同一时间只有一台物理路由器对外提供服务,这台物理路由设备被设置成为:主路由器(Master角色),一般情况下Master是由选举算法产生,它拥有对外服务的虚拟IP,提供各种网络功能,而且其它的物理路由器不拥有对外的虚拟IP,也不提供对外网络功能,仅仅接收MASTER的VRRP状态通告信息,这些路由器被统称为“BACKUP的角色”,当主路由器失败时,处于BACKUP角色的备份路由器将重新进行选举,产生一个新的主路由器进入MASTER角色,继续提供对外服务,这种选举角色切换非常之快,因而保证了服务的持续可用性。

1.4 健康检查

健康检查,别名探针

  1. 发送心跳消息 ping/pang
  2. TCP端口检查 向一个主机的IP:PORT 发起TCP连接
  3. HTTP URL 检查 向一个主机的 http://IP:PORT/URL路径 发送HTTP GET请求方法,主机响应返回2XX 3XX状态码则认为健康检查正常
  • 响应返回4XX

  • 5XX状态码则认为健康检查异常

image.png

1.5 脑裂“现象

1.5.1 定义

主备服务器同时拥有VIP

1.5.2 原因

主备服务器之间的通信链路中断,导致备服务器无法正常收到主服务器发送的VRRP心跳报文;

1.5.3 解决方法

关闭主服务器或者备服务器其中一个的keepalived服务

1.5.4 如何预防

  1. 主服务器与备服务器之间添加双通信链路;
  2. 在主服务器上定义运行脚本判断与备服务器通信链路是否中断,如果中断则自行关闭keepalived服务;
  3. 利用第三方监控软件检测是否发生脑裂故障,如果发生则通过监控软件关闭主或者备服务器上的keepalived服务。

2、Keepalived

官方网站:www.keepalived.org/

2.1 Keepalived是什么?

Keepalived是Linux下一个轻量级别的高可用解决方案,可以实现服务的高可用或热备,用来防止单点故障的问题。

Keepalived起初是为LVS设计的,专门用来监控集群系统中各个服务节点的状态,它根据TCP/IP参考模型的第三、第四层、第五层交换机制检测每个服务节点的状态,如果某个服务器节点出现异常,或者工作出现故障,Keepalived将检测到,并将出现的故障的服务器节点从集群系统中剔除,这些工作全部是自动完成的,不需要人工干涉。

Keepalived的核心是VRRP协议,支持故障自动切换(Failover), 支持节点健康状态检查(Health Checking)。

当master主机出现故障时,及时切换到backup节点保证业务正常,当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。

2.2 Keepalived体系主要模块及其作用

image.png

2.3 Keepalived工作原理

两台主备机器通过keepalived,虚拟一个IP,也就是VIP(Virtual IP)。

VIP开始为主机器所有,备份机为空闲状态,同时在两台keepalived之间通信相当于有一条心跳线,通过心跳线互相通信,只要主机器监控(通过脚本)到ngin服务停止,则主机器自己停止keepalived,将VIP交给备份机器处理web请求,直至主机器再次恢复正常,将VIP返还给主机器。

2.4 keepalived如何实现故障切换?

在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP)。

主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的

时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

2.5 抢占模式和非抢占模式的区别?

抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。

非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。

非抢占式俩节点state必须为bakcup,且必须配置nopreempt。

注意:这样配置后,我们要注意启动服务的顺序,优先启动的获取master权限,与优先级没有关系了。

2.6 Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?

Keepalived首先做初始化先检查state状态,master为主服务器,backup为备服务器。

然后再对比所有服务器的priority,谁的优先级高谁是最终的主服务器。

优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。

3、LVS高可用(实例)

名称IP地址
LVS-Master192.168.137.100
LVS-Backup192.168.137.102
Web-A192.168.137.103
Web-B192.168.137.104
VIP192.168.137.188
Client192.168.137.200
                 ┌────────────────┐
                 │  Client        │
                 │192.168.137.200 │
                 └──────┬─────────┘
                        │VIP:192.168.137.188
               ┌────────┴──────────┐
        ┌──────┴─────────┐ ┌───────┴────────┐
        │ Master         │ │  Backup        │
        │192.168.137.100 │ │192.168.137.102 │
        └──────┬─────────┘ └───────┬────────┘
               └────────┬──────────┘
       ┌────────────────┼──────────────────┐
┌──────┴─────────┐                  ┌──────┴─────────┐
│  Web1          │                  │   Web2         │
│192.168.137.103 │                  │192.168.137.104 │ 
└────────────────┘                  └────────────────┘

3.1 Keepalived构建高可用集群

3.1.1前置准备

#关闭防火墙
systemctl disable firewalld.service --now
setenforce 0

#安装keepalived
yum -y install ipvsadm keepalived

#加载ip_vs内核模块
modprobe ip_vs
cat /proc/net/ip_vs

3.1.2 修改配置文件,主服务器

cd /etc/keepalived/
#备份配置文件
cp keepalived.conf keepalived.conf.bak

#编辑配置文件
vim keepalived.conf
......
global_defs {						#定义全局参数
	smtp_server 127.0.0.1
	router_id LVS_01
	#vrrp_strict
}

vrrp_instance VI_1 {				#定义VRRP热备实例参数
    state MASTER
    interface ens33
    virtual_router_id 10
	#nopreempt		#如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
    priority 100
    advert_int 1					#通告间隔秒数(心跳频率)
    authentication {				#定义认证信息,每个热备组保持一致
		auth_type PASS				#认证类型
        auth_pass abc123
    }
    virtual_ipaddress {				#指定群集vip地址
        192.168.137.188
    }
}

virtual_server 192.168.137.188 80 {
    delay_loop 6					#健康检查的间隔时间(秒)
    lb_algo rr						#指定调度算法,轮询(rr)
    lb_kind DR
    persistence_timeout 0			#连接保持时间(秒)
    protocol TCP					#应用服务采用的是 TCP协议
    real_server 192.168.137.103 80 {
        weight 1					#节点的权重	
        TCP_CHECK {
			connect_port 80			#添加检查的目标端口
			connect_timeout 3		#添加连接超时(秒)
			nb_get_retry 3			#添加重试次数
			delay_before_retry 3	#添加重试间隔
		}
	}
	real_server 192.168.137.104 80 {		#添加第二个 Web节点的地址、端口
        weight 1
        TCP_CHECK {
			connect_port 80
			connect_timeout 3
			nb_get_retry 3
			delay_before_retry 3
		}
	}
}

3.1.3修改配置文件,备服务器,和主服务器大致相同

systemctl start keepalived ip a 
#查看虚拟网卡vip

3.1.4 LVS – DR模式构建负载均衡集群

启动 ipvsadm 服务
#主DR 192.168.137.100
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm

ipvsadm -ln
#备DR 192.168.137.102
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm

ipvsadm -ln

3.1.5 配置节点服务器,准备测试页面

systemctl stop firewalld
setenforce 0

yum -y install httpd
systemctl start httpd

#建立测试页
--192.168.137.100---
echo 'this is hzw web1!' > /var/www/html/index.html

--192.168.137.101---
echo 'this is hhh web2!' > /var/www/html/index.html
vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.137.188
NETMASK=255.255.255.255

service network restart 
ifup lo:0
ifconfig lo:0
route add -host 192.168.137.188 dev lo:0 #将VIP和lo:0绑定
vim /etc/sysctl.conf

net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

sysctl -p

3.1.6 测试

浏览器重复访问VIP地址 192.168.2.188

3.1.7关闭主服务器的keepalived服务,测试高可用

systemctl stop keepalived 
然后浏览器访问VIP地址 192.168.2.188
观察服务提供状况

4、Nginx高可用

名称IP地址
Nginx-Master192.168.137.100
Nginx-Backup192.168.137.102
Web-A192.168.137.103
Web-B192.168.137.104
VIP192.168.137.188
Client192.168.137.200

4.1 编写nginx服务监控脚本

4.2 主备Keepalived配置

4.2.1 主服务器

global_defs {               
   router_id Nginx_01
}
vrrp_script check_nginx {
	script "/etc/keepalived/check_nginx.sh"
	interval 2
    weight -5
    fall 3
    rise 2
}
vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 51
    priority 150
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
       192.168.137.188
    }
    track_script {
    	check_nginx
    }
}

4.2.2 备服务器

global_defs {               
   router_id Nginx_02
}
vrrp_script check_nginx {
	script "/etc/keepalived/check_nginx.sh"
	interval 2
    weight -5
    fall 3
    rise 2
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
      192.168.137.188
    }
    track_script {
    	check_nginx
    }
}

4.2.3 Nginx负载均衡配置

#主备nginx都要配置四层反向代理
#以主为例
vim /apps/nginx/conf/nginx.conf
stream{

upstream iserver {
    server 192.168.137.103:80;
    server 192.168.137.104:80;
}

server {
        listen       80;
        proxy_pass   iserver;
        }     
   }

4.2.4 负载均衡测试

客户端访问VIP地址 
curl 192.168.2.188 # 执行多次,观察结果

4.2.5 高可用测试

关闭主服务器的nginx服务

systemctl stop nginx
curl 192.168.137.188 #测试负载均衡