LVS集群简述

33 阅读10分钟

集群与分布式

  • Cluster,集群、群集,为解决某个特定问题将多台计算机组合起来形成的单个系统
  • 由多台主机构成,但对外只表现为一个整体

系统性能扩展方式

  • Scale UP:垂直扩展,向上扩展,增强,性能更强的计算机运行同样的服务
  • Scale Out:水平扩展,向外扩展,增加设备,并行地运行多个服务调度分配问题,Cluster

群集的三种类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

负载均衡群集

LB: Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求

  • 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
  • LB的负载分配依赖于主节点的分流算法

高可用群集

HA: High Availiablity,高可用,避免 SPOF(single Point Of failure)

  • 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
  • HA的工作方式包括双工和主从两种模式

高性能运算群集

HPC: High-performance computing,高性能

  • 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
  • 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力

LVS的负载调度算法

轮询(Round Robin)

  • 将收到的访问请求按照顺序轮流分配给群集中的各节点 (真实服务器)
  • 均等地对待每台服务器,而不管服务器实际的连接数和系统负载。

加权轮询(Weighted Round Robin)

  • 根据调度器设置的权重值来分发请求
  • 权重值高的节点优先获得任务并且分配的请求越多
  • 这样可以保证性能高的节点承担更 多请求。

最少连接(Least Connections)

  • 根据真实服务器已建立的连接数进行分配
  • 将收到的访问请求优先分配给连接数最少的节点
  • 如果所有的服务器节点性能相近,采用这种方式可以更好的均衡负载

加权最少连接(Weighted Least Connections)

  • 在服务器节点的性能差异较大的 情况下,调度器可以根据节点服务器负载自动调整权重
  • 权重较高的节点将承担更 大比例的活动连接负载。

IP_Hash

  • 根据请求来源的IP地址进行Hash计算,得到后端服务器
  • 这样来自同一个IP的请求总是会落到同一台服务器上处理,以至于可以将请求上下文信息存储在这个服务器上

url_hash

  • 按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器
  • 后端服务器为缓存时比较有效

fair

  • 采用的不是内建负载均衡使用的轮换的均衡算法
  • 而是可以根据页面大小、加载时间长短智能的进行负载均衡
  • 也就是根据后端服务器时间来分配用户请求,响应时间短的优先分配

分布式系统

  • 分布式存储: 将数据分散存储在多台独立的设备上 。Ceph,GlusterFS,FastDFS,MogileFS

  • 分布式计算: 将该应用分解成许多小的部分,分配给多台计算机进行处理。 hadoop,Spark

  • 分布式常见应用

  • 分布式应用-服务按照功能拆分,使用微服务(单一应用程序划分成一组小的服务,服务之间互相协调、互相配合,为用户提供最终价值服务)

  • 分布式静态资源--静态资源放在不同的存储集群上

  • 分布式数据和存储--使用key-value缓存系统

  • 分布式计算--对特殊业务使用分布式计算,比如Hadoop集群

集群和分布式

分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。

  • 集群:同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的。
  • 分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务。

集群设计原则

  • 可扩展性—集群的横向扩展能力
  • 可用性—无故障时间 (SLA service level agreement)
  • 性能—访问响应时间
  • 容量—单位时间内的最大并发吞吐量(C10K 并发问题)

集群设计实现

基础设施层面

  • 提升硬件资源性能—从入口防火墙到后端 web server 均使用更高性能的硬件资源
  • 多域名—DNS 轮询A记录解析
  • 多入口—将A记录解析到多个公网IP入口
  • 多机房—同城+异地容灾
  • CDN(Content Delivery Network)—基于GSLB(Global Server Load Balance)实现全局负载均衡,如:DNS

业务层面

  • 分层:安全层、负载层、静态层、动态层、(缓存层、存储层)持久化与非持久化
  • 分割:基于功能分割大业务为小服务
  • 分布式:对于特殊场景的业务,使用分布式计算

负载均衡群集架构

  • 第一层,负载调度器(Load Balancer或Director)
  • 第二层,服务器池(Server Pool)
  • 第三层,共享存储(Share Storage)

LB Cluster 负载均衡集群

按实现方式划分

  • 硬件

  • 软件

  • lvs:Linux Virtual Server,阿里四层 SLB (Server Load Balance)使用

  • nginx:支持七层调度,阿里七层SLB使用 Tengine

  • haproxy:支持七层调度

  • ats:Apache Traffic Server,yahoo捐助给apache

  • perlbal:Perl 编写

  • pound

基于工作的协议层次划分

  • 传输层(通用):DNAT 和 DPORT

LVS

nginx:stream

haproxy:mode tcp

  • 应用层(专用):针对特定协议,常称为 proxy server

http:nginx, httpd, haproxy(mode http), ...

fastcgi:nginx, httpd, ...

mysql:mysql-proxy, mycat...

负载均衡的会话保持

  • session sticky:同一用户调度固定服务器
  • Source IP:LVS sh算法(对某一特定服务而言)
  • Cookie
  • session replication:每台服务器拥有全部session(复制)
  • session multicast cluster
  • session server:专门的session服务器(server)
  • Memcached,Redis

HA 高可用集群实现

  • keepalived:vrrp协议
  • Ais:应用接口规范
  • heartbeat
  • cman+rgmanager(RHCS)
  • coresync_pacemaker

Linux Virtual Server简介

LVS介绍

LVS:Linux Virtual Server,负载调度器,内核集成,章文嵩(花名正明), 阿里的四层SLB(Server

Load Balance)是基于LVS+keepalived实现

整个SLB系统由3部分构成:四层负载均衡,七层负载均衡和控制系统

  • 四层负载均衡 ,采用开源软件LVS (linux virtual server),并根据云计算需求对其进行了定制化;该技术已经在阿里巴巴内部业务全面上线应用2年
  • 七层负载均衡,采用开源软件Tengine;该技术已经在阿里巴巴内部业务全面上线应用3年多;·控制系统,用于配置和监控负载均衡系统

LVS工作原理

VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核级功能,工作在INPUT链的位置,将发往INPUT的流量进行“处理”

LVS 功能及组织架构

负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。

应用于高访问量的业务

如果您的应用访问量很高,可以通过配置监听规则将流量分发到不同的云服务器 ECS(Elastic Compute Service 弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同一台后端ECS

扩展应用程序

可以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务器和App服务器。

消除单点故障

可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故障的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作

LVS集群类型中的术语

  • VS:Virtual Server,Director Server(DS), Dispatcher(调度器),Load Balancer(lvs服务器)
  • RS:Real Server(lvs), upstream server(nginx), backend server(haproxy)(真实服务器)
  • CIP:Client IP(客户机IP)
  • VIP:Virtual serve IP VS外网的IP
  • DIP:Director IP VS内网的IP
  • RIP:Real server IP (真实IP

LVS工作模式

群集的负载调度技术有三种工作模式

  • lvs-nat:修改请求报文的目标IP,多目标IP的DNAT
  • lvs-dr:操纵封装新的MAC地址(直接路由)
  • lvs-tun:隧道模式

NAT模式

lvs-nat:本质是多目标IP的DNAT,通 过将请求报文中的目标地址和目标端口修改为某处的RS的RIP和PORT实现转发

  • RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
  • 请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
  • 支持端口映射,可修改请求报文的目标PORT
  • VS必须是Linux系统,RS可以是任意OS系统

IP隧道

  • RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且RIP可以和公网通信。也就是说集群节点可以跨互联网实现。DIP, VIP, RIP可以是公网地址。
  • RealServer的通道接口上需要配置VIP地址,以便接收DIP转发过来的数据包,以及作为响应的报文源IP。
  • DIP转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP
  • 请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
  • 不支持端口映射
  • RS的OS须支持隧道功能

直接路由

  • 直接路由(Direct Routing):简称 DR 模式,采用半开放式的网络结构,与 TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道直接路由,LVS默认模式,应用最广泛,通过请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址
  • 源IP/PORT,以及目标IP/PORT均保持不变

LVS工作模式的对比

NATTUNDR
优点端口转换WAN性能最好
缺点性能瓶颈服务器支持隧道模式不支持跨网段
真实服务器要求anyTunnelingNon-arp device
支持网络private(私网)LAN/WAN(私网/公网)LAN(私网)
真实服务器数量low (10~20)High (100)High (100)
真实服务器网关lvs内网地址Own router(网工定义)Own router(网工定义)