HAProxy搭建web集群

125 阅读14分钟

1. 常见的Web集群调度器

目前常见的Web集群调度器分为软件和硬件

软件通常使用开源的LVS、Haproxy、 Nginx

LVS性能最好,但是搭建相对复杂; Nginx 的upstream模块支持群集功能,但是对群集节点健康检查功能不强,高并发性能没有Haproxy好。

硬件一般使用比较多的是F5、Array, 也有很多人使用国内的一些产品,如梭子鱼、绿盟等

2. 认识HAProxy

HAProxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。HAProxy 非常适用于并发大(并发达1w以上) web站点,这些站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上。

2.1 Haproxy应用分析

LVS在企业应用中抗负载能力很强,但存在不足

  • LVS不支持正则处理,不能实现动静分离
  • 对于大型网站,LVS的实施配置复杂,维护成本相对较高

Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件

  • 适用于负载大的Web站点
  • 运行在硬件上可支持数以万计的并发连接的连接请求

2.2 HAProxy的主要特性

  • 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美
  • 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
  • 支持多达8种负载均衡算法
  • 支持Session会话保持,Cookie的引导;
  • 支持通过获取指定的url来检测后端服务器的状态;
  • 支持虚机主机功能,从而实现web负载均衡更加灵活
  • 支持连接拒绝、全透明代理等独特的功能;
  • 拥有强大的ACL支持,用于访问控制
  • 支持TCP协议的负载均衡转发;
  • 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一 个tcp连接中完成

2.3 Haproxy提供了3种实现会话保持的方式

  • 源地址hash
  • 设置cookie
  • 会话粘性表stick-table

3 HAProxy调度算法常见的8种

  • roundrobin, 表示简单的轮询
  • static-rr, 表示根据权重
  • leastconn,表示最少连接者先处理
  • source,表示根据请求源IP
  • uri,表示根据请求的URI,做cdn需使用;
  • 表示根据请求的URL参数'balance url_param' requires an URL parameter name
  • hdr (name),表示根据HTTP请求头来锁定每一次HTTP请求;
  • rdp-cookie (name),表示根据cookie (name)来锁定并哈希每一次TCP请求。

3.1 Haproxy常用调度算法原理

Haproxy支持多种调度算法,最常用的有三种:RR、LC、SH

3.1.1 RR (Round Robin)

RR算法是最简单最常用的一种算法,即轮询调度

  • 理解举例

有三个节点A、B、C

第一个用户访问会被指派到节点A

第二个用户访问会被指派到节点B

第三个用户访问会被指派到节点C

第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡 效果

3.1.2 LC (Least Connections )

最小连接数算法,根据后端的节点连接数大小动态分配前端请求

  • 理解举例

有三个节点A、B、C,各节点的连接数分别为A:4、B:5、C:6

第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、C:6

第二个用户请求会继续分配到A上,连接数变为A:6、B:5、C:6; 再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端

由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况

此算法相比较rr算法有很大改进,是目前用到比较多的一种算法

3.1.3 SH (Source Hashing)

基于来源访问调度算法,用于一些有session会话记录在服务器端的场景, 可以基于来源的IP、Cookie等做集群调度

  • 理解举例

有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次,访问被指派到了B

当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度

此调度算法好处是实现会话保持,但某些IP访问量非常大时会引|起负载不均衡,部分节点访问量超大,影响业务使用

4 LVS、Nginx、HAproxy的优缺点及其区别

4.1 Nginx的优点

  • 工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构。Nginx正则规则比HAProxy更为强大和灵活。
  • Nginx对网络稳定性的依赖非常小,理论上能ping通就就能进行负载功能,LVS对网络稳定性依赖比较大,稳定要求相对更高。
  • Nginx安装和配置、测试比较简单、方便,有清晰的日志用于排查和管理,LVS的配置、测试就要花比较长的时间了。
  • 可以承担高负载压力且稳定,一般能支撑几万次的并发量,负载度比IVS相对小些。
  • Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等。
  • Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。
  • Nginx作为web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,很多场景下都将其作为反向代理加速器。
  • Nginx作为静态网页和图片服务器,这方面的性能非常优秀,同时第3方模块也很多。

4.2 Nginx的缺点

  • Nginx仅能支持http、https 和Email协议,这样就在适用范围上面小些。
  • 对后端服务器的健康检查,只支持通过端口来检测,不支持通过url来检测。
  • 不支持Session的直接保持,需要通过ip_hash和cookie的引导来解决。

4.3 LVS的优点

  • 抗负载能力强、是工作在网络4层之上仅作分发之用,没有流量的产生。因此负载均衡软件里的性能最强的,对内存和cpu资源消耗比较低。
  • LVS工作稳定,因为其本身抗负载能力很强,自身有完整的双机热备方案。
  • 无流量,LVS只分发请求,而流量并不从它本身出去,这点保证了均衡器IO的性能不会受到大流量的影响。
  • 应用范围较广,因为LVS工作在4层,所以它几乎可对所有应用做负载均衡,包括http、数据库等。

4.4 LVS的缺点

  • 软件本身不支持正则表达式处理,不能做动静分离。相对来说,Nginx/HAProxy + Keepalived则具有明显的优势。
  • 如果是网站应用比较庞大的话,LVS/ DR+Keepalived实施起来就比较复杂了。相对来说,Nginx/ HAProxy+Keepalived就简单多了。

4.5 HAProxy的优点

  • HAProxy也是支持虚拟主机的。
  • HAProxy支持8种负载均衡策略。
  • HAProxy的优点能够补充Nginx的一些缺点,比如支持session的保持,cookie的引导,同时支持通过获取指定的url来检测后端服务器的状态。
  • HAProxy跟LVS类似,本身就只是一款负载均衡软件,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。
  • HAProxy支持TCP协议的负载均衡转发。

4.6 LVS、Nginx、HAproxy的区别

  • LVS基于Linux操作系统内核实现软负载均衡,而HAP roxy和Nginx是基于第三方应用实现的软负载均衡
  • LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy 和Nginx都可以实现4层和7层技术,HAProxy 可提供TCP和HTTP应用的负载均衡综合解决方案
  • LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URI、脚本等多种状态检测方式
  • HAProxy功能强大,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡
  • Nginx主要用于web服务器或缓存服务器。Nginx的upstream模 块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好。

总结:

  1. 基于什么实现示负载均衡?

LVS基于系统内核

nginx和Haproxy基于应用程序

  1. 负载均衡性能

LVS 最好 > Haproxy 其次 > Nginx 弱于其他两种

  1. 支持的代理类型

LVS只能实现4层代理转发(不支持正则)

Nginx和Haproxy都能实现四层和七层的代理转发(支持正则)

  1. 对节点的健康检查

LVS只能对端口进行检查(主动的)

Nginx只能被动的对端口进行检查

Haproxy支持端口、url和脚本等多种检查

5. Haproxy搭建 Web群集

5.1 实验环境

image.png

Haproxy服务器:192.168.200.100

Nginx 服务器1:192.168.200.10

Nginx 服务器2:192.168.200.20

客户端:192.168.200.200

5.2 haproxy 服务器部署

  • 关闭防火墙,将安装Haproxy所需软件包传到/opt目录下
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# setenforce 0

haproxy-1.5.19.tar.gz

  • 编译安装 Haproxy
[root@localhost ~]# yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
[root@localhost opt]# tar zxvf haproxy-1.5.19.tar.gz
[root@localhost opt]# cd haproxy-1.5.19/
[root@localhost haproxy-1.5.19]# make TARGET=linux2628 ARCH=x86_64
[root@localhost haproxy-1.5.19]# make install

参数说明:

TARGET=linux26 #内核版本

使用uname -r查看内核

如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628

ARCH=x86_64 #系统位数,64位系统

  • Haproxy服务器配置
[root@localhost ~]# mkdir /etc/haproxy
[root@localhost ~]# cp examples/haproxy.cfg /etc/haproxy/
[root@localhost ~]# cd /etc/haproxy/
[root@localhost ~]# vim haproxy.cfg
global		#全局配置,主要用于定义全局参数,属于进程级的配置
#--4~5行--修改,定义haproxy日志输出设置和日志级别,local0为日志设备,默认存放到系统日志常和操作系统配置有关
	log /dev/log   local0 info	#修改
        log /dev/log   local0 notice	#修改
        #log loghost    local0 info
        maxconn 4096			#最大连接数,需考虑ulimit -n限制,推荐使用10240
#--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
        #chroot /usr/share/haproxy
        uid 99				#用户UID
        gid 99				#用户GID
        daemon				#守护进程模式
	nbproc 1	    #添加,设置并发进程数,建议与当前服务器CPU核数相等或为其2倍
defaults   	    #配置默认参数,这些参数可以被用到Listen,frontend,backend组件     
	log     global			#引入global定义的日志格式
        mode    tcp			#模式为tcp(7层代理http,4层代理tcp)
	option  http-keep-alive         #使用keepAlive连接
	option forwardfor               #记录客户端IP在X-Forwarded-For头域中
        option  httplog			#开启httplog,HAProxy会记录更丰富的请求信息
        option  dontlognull		#不记录健康检查日志信息
        retries 3			#检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch			#当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000			#最大连接数,“defaults”中的值不能超过“global”段中的定义
        #contimeout 5000        #设置连接超时时间,默认单位是毫秒
        #clitimeout 50000       #设置客户端超时时间,默认单位是毫秒
        #srvtimeout 50000       #设置服务器超时时间,默认单位是毫秒
        timeout http-request 10s 	#默认http请求超时时间,从连接创建开始到从后端服务器读取完整HTTP请求的超时时间,用于避免类DoS攻击
        timeout queue 1m   		#默认队列超时时间
        timeout connect 10s		#默认连接超时时间,新版本中替代contimeout,该参数向后兼容
        timeout client 1m		#默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
        timeout server 1m		#默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
        timeout http-keep-alive 10s	#默认持久连接超时时间
        timeout check 10s		#设置心跳检查超时时间


#--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80	#haproxy实例状态监控部分配置,定义一个名为webcluster的应用
        option httpchk GET /test.html	#检查服务器的test.html文件
        balance roundrobin		#负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.200.10:80 check inter 2000 fall 3		#定义在线节点
        server inst2 192.168.200.20:80 check inter 2000 fall 3
		
#---------------------参数说明------------------------------------------------------------------
balance roundrobin	#负载均衡调度算法

#轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash
check inter 2000	#表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒
fall 3			#表示连续三次检测不到心跳频率则认为该节点失效

若节点配置后带有“backup”表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带“backup”,表示为主节点,和其它在线节点共同提供服务。

  • 添加haproxy 系统服务
[root@localhost ~]# cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
[root@localhost ~]# chmod +x haproxy
[root@localhost ~]# chkconfig --add /etc/init.d/haproxy
[root@localhost ~]# ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy

[root@localhost ~]# service haproxy start	
或	
[root@localhost ~]# /etc/init.d/haproxy start

5.3 节点服务器部署

  • 关闭防火墙、核心防护
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# setenforce 0
  • 编译安装nginx
[root@localhost ~]# yum install -y pcre-devel zlib-devel gcc gcc-c++ make 
[root@localhost ~]# useradd -M -s /sbin/nologin nginx
[root@localhost ~]# cd /opt
[root@localhost ~]# tar zxvf nginx-1.12.0.tar.gz -C /opt/
[root@localhost ~]# cd nginx-1.12.0/
[root@localhost ~]# ./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make && make install
  • web1:192.168.200.10
[root@localhost ~]# echo "this is can web" > /usr/local/nginx/html/test.html
  • web2:192.168.200.20
[root@localhost ~]# echo "this is benet web" > /usr/local/nginx/html/test.html
  • 让系统识别nginx的操作命令
[root@localhost ~]# ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
  • 启动nginx 服务
[root@localhost ~]# nginx

5.4 测试 Web群集

在客户端使用浏览器打开 http://192.168.200.100/test.html ,不断刷新浏览器测试负载均衡效果

5.5 日志定义

默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。

[root@localhost ~]# vim /etc/haproxy/haproxy.cfg
global
	log /dev/log local0 info
	log /dev/log local0 notice
[root@localhost ~]# service haproxy restart

需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。

[root@localhost ~]# vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
  • 说明

这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。

[root@localhost ~]# systemctl restart rsyslog.service
[root@localhost ~]# tail -f /var/log/haproxy/haproxy-info.log		//查看haproxy的访问请求日志信息