阅读 915

无缝切换在线升级的终极探索

本文将介绍全年4个9(99.99%)的系统可用性方案

在系统的高可靠性里有个衡量其可靠性的标准——X个9,这个X是代表数字3~5。X个9表示在系统1年时间的使用过程中,系统可以正常使用时间与总时间(1年)之比

系统可用性的计算公式:A=MTBF/(MTBF+MTTR)

拿365天(1年)做计算吧,看看几个9要停机多久时间做能才能达到!

1年 = 365天 = 8760小时
99.9 = 8760 * 0.1% = 8760 * 0.001 = 8.76小时
99.99 = 8760 * 0.0001 = 0.876小时 = 0.876 * 60 = 52.6分钟
99.999 = 8760 * 0.00001 = 0.0876小时 = 0.0876 * 60 = 5.26分钟

本文设计技术点:

  • LVS
  • keepalived
  • nginx
  • 集群高可用
  • spring cloud Nacos(其他服务注册中心同理)
  • spring cloud Gateway(其他Api网关同理)
  • spring boot(非Java应用同理)

LVS && Keepalived(了解)

LVS 是什么?

LVS 是 Linux Virtual Server(Linux 虚拟服务器) 的简称,目前 LVS 已经是 Linux 内核标准的一部分,LVS 工作在网络 4 层之上仅作分发之用,所以抗负载能力比较强。LVS 有完整的双机热备方案,几乎支持对所有应用做负载均衡。LVS 在互联网应用中的位置是在 Nginx 之上

LVS 该如何应用?

LVS 本身只是一个叫 IP_VS 的内核模块,这个模块可以做负载均衡,但是只用这个模块来做应用负载是远远不够的,比如 LVS 本身宕机后如何处理?实际生产环境中,一般配合 Keepalived 来使用 LVS,keepalived 支持 VRRP 心跳协议,可以实现 LVS 主备冗余,以解决 LVS 本身单点故障。另外,Keepalived 支持健康检测,网络 4 层和 7 层健康检测,防止服务器宕机。

Keepalived工作原理

Keepalived作为一个高性能集群软件,它还能实现对集群中服务器运行状态的监控以及故障隔离,下面我们介绍一下Keepalived对服务器运行状态和故障隔离的工作原理。

Keepalived工作在TCP/IP 模型的 三层(网络层)、四层(传输层)、七层(应用层),根据TCP、IP 模型各层所能实现的功能,Keepalived运行机制如下:

  • 在网络层(3):我们知道运行中有4个重要的协议。互联网络IP协议、互联网络可控制报文协议ICMP、地址转换协议ARP、反向地址转换协议RARP,Keepalived在网络层采用最常见的工作方式是通过ICMP协议向服务器集群中的每一个节点发送一个ICMP数据包(有点类似与Ping的功能),如果某个节点没有返回响应数据包,那么认为该节点发生了故障,Keepalived将报告这个节点失效,并从服务器集群中剔除故障节点。

  • 在传输层(4):提供了两个主要的协议:传输控制协议TCP和用户数据协议UDP,传输控制协议TCP可以提供可靠的数据输出服务、IP地址和端口,代表TCP的一个连接端,要获得TCP服务,需要在发送机的一个端口和接收机的一个端口上建立连接,而Keepalived在传输层里利用了TCP协议的端口连接和扫描技术来判断集群节点的端口是否正常,比如对于常见的WEB服务器80端口。或者SSH服务22端口,Keepalived一旦在传输层探测到这些端口号没有数据响应和数据返回,就认为这些端口发生异常,然后强制将这些端口所对应的节点从服务器集群中剔除掉。

  • 在应用层(7):可以运行FTP,TELNET,SMTP,DNS等各种不同类型的高层协议,Keepalived的运行方式也更加全面化和复杂化,用户可以通过自定义Keepalived工作方式,例如:可以通过编写程序或者脚本来运行Keepalived,而Keepalived将根据用户的设定参数检测各种程序或者服务是否允许正常,如果Keepalived的检测结果和用户设定的不一致时,Keepalived将把对应的服务器从服务器集群中剔除

什么是VRRP?

VRRP可以将两台或者多台物理路由器设备虚拟成一个虚拟路由,这个虚拟路由器通过虚拟IP(一个或者多个)对外提供服务,而在虚拟路由器内部十多个物理路由器协同工作,同一时间只有一台物理路由器对外提供服务,这台物理路由设备被成为:主路由器(Master角色),一般情况下Master是由选举算法产生,它拥有对外服务的虚拟IP,提供各种网络功能,如:ARP请求,ICMP 数据转发等,而且其它的物理路由器不拥有对外的虚拟IP,也不提供对外网络功能,仅仅接收MASTER的VRRP状态心跳信息,这些路由器被统称为BACKUP的角色”,当主路由器失败时,处于BACKUP角色的备份路由器将重新进行选举,产生一个新的主路由器进入MASTER角色,继续提供对外服务,整个切换对用户来说是完全透明的。

Lvs+Keepalived+nginx 接入层高可用(重点)

流量接入层技术演进架构历史概览

单机架构

  • 浏览器通过DNS-server,域名解析到ip
  • 浏览器通过ip访问web-server

缺点:

  1. 非高可用,web-server挂了整个系统就挂了
  2. 扩展性差,当吞吐量达到web-server上限时,无法扩容

注:单机不涉及负载均衡的问题

简易扩容方案&DNS轮询

假设tomcat的吞吐量是1w次每秒,当系统总吞吐量达到3w时,如何扩容是首先要解决的问题,DNS轮询是一个很容易想到的方案:

  • 多部署几份web-server,1个tomcat抗1000,部署3个tomcat就能抗3000
  • 在DNS-server层面,域名每次解析到不同的ip

优点:

  1. 零成本:在DNS-server上多配几个ip即可,功能也不收费
  2. 部署简单:多部署几个web-server即可,原系统架构不需要做任何改造
  3. 负载均衡:变成了多机,但负载基本是均衡的

缺点:

  1. 非高可用:DNS-server只负责域名解析ip,这个ip对应的服务是否可用,DNS-server是不保证的,假设有一个web-server挂了,部分服务会受到影响
  2. 扩容非实时:DNS解析有一个生效周期
  3. 暴露了太多的外网ip

简易扩容方案&nginx

tomcat的性能较差,但nginx作为反向代理的性能就强多了,假设线上跑到1w,就比tomcat高了10倍,可以利用这个特性来做扩容:

  • 站点层与浏览器层之间加入了一个反向代理层,利用高性能的nginx来做反向代理
  • nginx将http请求分发给后端多个web-server

优点:

  1. DNS-server不需要动
  2. 负载均衡:通过nginx来保证
  3. 只暴露一个外网ip,nginx->tomcat之间使用内网访问
  4. 扩容实时:nginx内部可控,随时增加web-server随时实时扩容
  5. 能够保证站点层的可用性:任何一台tomcat挂了,nginx可以将流量迁移到其他tomcat

缺点:

  1. 时延增加+架构更复杂了:中间多加了一个反向代理层
  2. 反向代理层成了单点,非高可用:tomcat挂了不影响服务,nginx挂了怎么办?

高可用方案&keepalived

为了解决高可用的问题,keepalived出场了

  • 做两台nginx组成一个集群,分别部署上keepalived,设置成相同的虚IP,保证nginx的高可用
  • 当一台nginx挂了,keepalived能够探测到,并将流量自动迁移到另一台nginx上,整个过程对调用方透明

优点:

  1. 解决了高可用的问题

缺点:

  1. 资源利用率只有50%
  2. nginx仍然是接入单点,如果接入吞吐量超过的nginx的性能上限怎么办,例如qps达到了50000咧?

纵向(scale up)扩容方案&lvs

nginx毕竟是软件,性能比tomcat好,但总有个上限,超出了上限,还是扛不住。lvs就不一样了,它实施在操作系统层面, 性能比nginx好很多,例如每秒可以抗10w,这样可以利用他们来扩容,常见的架构图如下:

  • 如果通过nginx可以扩展多个tomcat一样,可以通过lvs来扩展多个nginx
  • 通过keepalived+VIP的方案可以保证可用性
  • 99.9999%的公司到这一步基本就能解决接入层高可用、扩展性、负载均衡的问题。

缺点 不管是使用lvs还是f5,这些都是scale up的方案,根本上,lvs/f5还是会有性能上限,假设每秒能处理10w的请求,一天也只能处理80亿的请求(10w秒吞吐量*8w秒),那万一系统的日PV超过80亿怎么办呢?(好吧,没几个公司要考虑这个问题)

横向(scale out)扩容方案&DNS轮询

水平扩展,是解决性能问题的根本方案,通过加机器扩充性能的方案才具备最好的扩展性。 facebook,google,baidu的PV是不是超过80亿呢,它们的域名只对应一个ip么,终点又是起点,还是得通过DNS轮询来进行扩容: 此时:

  • 通过DNS轮询来线性扩展入口lvs层的性能
  • 通过keepalived来保证高可用
  • 通过lvs来扩展多个nginx
  • 通过nginx来做负载均衡,业务七层路由

总结

  • 接入层架构要考虑的问题域为:高可用、扩展性、反向代理+扩展均衡
  • nginx、keepalived、lvs、f5可以很好的解决高可用、扩展性、反向代理+扩展均衡的问题
  • 水平扩展scale out是解决扩展性问题的根本方案,DNS轮询是不能完全被nginx/lvs/f5所替代的
  • 企业可用购买云平台的服务实现类似功能,节省人力时间成本
  • 非云上企业也可以自行部署,上述所介绍的内容算是运维工程师的必备技能,并不会特别麻烦。

服务注册中心实时刷新与高可用

服务集群化

这一部分跳过了,微服务集群化部署的相关的文章很多,本文篇幅有限,想了解的朋友请自行查找阅读。

优雅停机

微服务架构中的应用优雅停机主要是指应用实例有计划而平滑(即不产生需要处理的事故)的退出。应用服务器的停机主要分为两类:主动停机和被动停机,而其中主动停机和大部分的被动停机都是可以实现优雅停机。如果应用不做优雅停机,则会带来以下情况:

  • 数据丢失:内存的中数据尚未持久化至磁盘
  • 文件损坏:正在操作写的文件因没有更新完成,导致文件损坏
  • 请求丢失:排队中等待处理的请求丢失
  • 响应丢失:成功的交易还没来得及做出响应
  • 交易中断:正在处理至中间状态的交易被强制中断
  • 服务未下线:上游服务依然还会继续往下游服务发送消费请求

微服务的优雅升级的目标就是避免以上几种情况,从而避免人工干预的工作量和提升微服务架构的服务高可靠。

使用场景

优雅停机可以解决以下场景:

  • KILL PID
  • 应用意外自动退出(System.exit(n))
  • 使用脚本命令的方式停止应用

优雅停机解决不了以下场景:

  • 突然断电
  • 机器物理破坏
  • ILL-9 PID 或 taskkill /f /pid

Java的优雅停机 ShutdownHook

Java的优雅停机通常通过注册JDK的ShutdownHook(钩子)来实现,当系统接收到退出指令后,首先标记系统处于退出状态,不再接收新的消息,然后将积压的消息处理完,最后调用资源回收接口将资源销毁,最后各线程退出执行。简单的使用demo案例如下(简单版):

/**
 * 优雅停机处理方式
 * 
 * @author lry
 **/
public class Main{

    /**
     * 启动应用
     **/
    public void start(){
        // 第一步:启动应用服务……

        // 第二步:注册JDK钩子
        Runtime.getRuntime().addShutdownHook(new Thread(new Runnable() {
            @Override
            public void run() {
                System.out.println("The hook running...");
                //第三步:调用停机处理
                stop();
            }
        }));
    }

    /**
     * 停止应用
     **/
    public void stop(){
        // 停止应用前停机处理(如:注销服务、标记不接受请求等)
    }

}
复制代码

注:通常优雅退出需要有超时控制机制,如果到达超时时间仍然没有完成退出前的资源回收等操作,则由停机脚本直接调用KILL -9 PID的方式进行强制退出,不然可能会等待很长时间。

微服务优雅停机

可以遵守以下建议规则来设计微服务的优雅停机机制

  1. 所有微服务应用都应该支持优雅停机
  2. 优先注销注册中心注册的服务实例
  3. 待停机的服务应用的接入点标记拒绝服务(ShutdownHook)
  4. 上游服务支持故障转移因优雅停机而拒绝的服务
  5. 根据具体业务也提供适当的停机接口

微服务应用的优雅停机根据其使用者角色的不同,而主要分为两种类型

  • 业务应用优雅停机
  • 网关应用优雅停机

业务应用优雅停机设计

上图1-6步操作在大多数微服务框架中都已经集成了,无需开发人员自主开发,如果某些采用自研微服务框架的公司没有这方面功能,开发人员可以先行在自己负责的业务系统中编写ShutdownHook来完成相同操作。

网关应用优雅停机设计

如果不支持Nginx动态发现网关,则停机升级切换的过程需要人工接入,稍微费力点,但同样对用用户来说是无法感知到的。

总结

结合接入层的负载均衡高可用与微服务架构的高可用涉及,可以做到任意时间升级而不影响用户体验,不造成生产事故。但还是没实现全自动的流程,因为Nginx不支持动态发现网关并修改配置生效。

Nginx动态上下线站点

社区常用的 upstream 动态更新方案有 4 个

  • ngx_http_dyups_module提供了粗粒度的upstream管理方法,可以对整个upstream进行新增,删除。
  • lua-upstream-nginx-module ,则提供了细粒度的管理方式,可以对某一个服务IP进行管理,其中提供的set_peer_down方法,可以对upstream中的某个ip进行上下线。
  • ngx_dynamic_upstream

这些插件有一个共同点,那就是在不需要重启nginx的基础上, 动态修改nginx的配置。

基于以上插件呢,可以略做修改,使其支持nacos/zookeeper/consol/erueka等注册中心的服务发现,定制需要的nginx reload upstream 动态更新模块即可。