Haproxy搭建Web群集日志及参数优化

690 阅读15分钟

1.常见的Web集群调度器

目前常见的web集群调度器分为软件和硬件

软件通常使用开源的LVS、Haproxy、Nginx

LVS性能最好,但是搭建相对复杂;Nginx的upstream模块支持集群功能,但是对集群节点健康检查功能不强,高并发没有Haproxy好

硬件一般使用的比较多的是F5,也有很多人使用梭子鱼、绿盟等国内产品

2、Haproxy应用分析

LVS在企业应用中抗负载能力很强,但存在不足

LVS不支持正则处理,不能实现动静分离

对于大型网站,LVS的实施配置复杂,维护成本相对较高

Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件

适用于负载大的web站点

运行在硬件上可支持数万计的并发连接的连接请求

3、Haproxy调度算法原理

1、RR (Round Robin)

RR算法是最简单最常用的一种算法,即轮询调度

理解举例:

有三个节点 A、B、C

第一个用户访问会指派到节点A

第二个用户访问会指派到节点B

第三个用户访问会指派到节点C

第四个访问继续指派到节点A,轮询分配访问请求实现负载均衡效果

2、static-rr

加权轮询,表示根据Web服务器的权重来分配前端请求

为web服务器设置不同权重,哪台服务器配置好,权重就多一点

类似于Nginx负载均衡算法的ip_hash

3、LC(Least Connections)

最小连接数算法,根据后端的节点连接数大小动态分配前端请求

理解举例

有三个节点A、B、C,各节点的连接数分别为A:4、B:5、C:6

第一个用户连接请求,会指派到A上,连接数变为A:5、B:5、C:6

第二个用户请求会继续分配到A上,连接数变为A:6、B:5、C:6,再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端

由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况

此算法相比较rr算法有很大改进,是目前用到比较多的一种算法

4、SH(Source Hashing)

基于来源访问调度算法,用于一些有Session会话记录在服务器的场景,可以基于来源IP、Cookie等做集群调度

理解举例:

有三个节点A B C ,第一个用户第一次访问被指派到A,第二个用户第一次访问被指派到B

当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依据会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会指派到B,实现集群的调度

此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不平衡,部分节点访问量超大,影响业务的使用

5、uri

目的地址哈希,表示根据用户的请求的URL做hash,做cdn时需要使用(cdn:内容分发网络,边缘网络缓存加速)

urI_bash根据虚拟主机名称后面的目录

6、urI_param

表示根据请求的URl参数'balance url_ param' requires an URL parameter name

7、hdr(name)

表示根据HTTP请求头来锁定每一次HTTP请求

8、rdp-cookie(name)

表示根据cookie (name)来锁定并哈希每一次TCP请求

4.Haproxy核心功能

负载均衡:L4和L7两种模式,支持RR/蓝色RR/LC/IP Hash/URI Hash/URL_PARAM Hash/HTTP_HEADER Hash等重点的负载均衡算法

健康检查:支持TCP和HTTP两种健康检查模式

会话保持:对于未实现会话共享的应用程序,可通过插入Cookie/重写Cookie/Prefix Cookie,以及上述的多种Hash方式实现会话保持

SSL:HAProxy可以解析HTTPS协议,并能够将请求端口为HTTP后向传输

HTTP请求重建与目的

监控与统计:HAProxy提供了基于Web的统计信息页面、状态状态和流量数据。基于此功能,用户可以开发监控程序来监控HAProxy的状态

5.Haproxy的特性

Haproxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。Haproxy非常适用于并发大(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理,Haproxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上

Haproxy的主要特性

可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美

最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数位20000个,最大处理能力可达10Git/s

支持多达8种负载均衡算法

支持Session会话保持,Cookie的引导

支持通过获取指定的url来检查后端服务器 的状态

支持虚拟主机的功能,从而实现web负载均衡更加灵活

支持连接拒绝、全透明代理等独特的功能

拥有强大的ACL支持,用于访问控制

支持TCP协议的负载均衡转发

支持客户端的keepalived功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成

LVS、Nginx、Haproxy的区别

Nginx的优点

工作在网络的7层之上,可以针对http应用做一些分流的策略,比如针对域名、目录结构,Nginx正则规则比Haproxy更加强大和灵活

Nginx对网络稳定性的依赖非常小,理论上能ping通就能进行负载功能,LVS对 网络稳定性依赖比较大,稳定要求相对更高

Nginx安装和配置、测试比较简单、方便,有清晰的日志用于排查和管理,LVS的配置、测试就要花比较长的时间

可以承担高负载压力且稳定,一般能支撑几万次的并发量,负载度比LVS相对小些

Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等

Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,他同时也是功能强大的web应用服务器

Nginx作为web正向加速缓存越来越成熟,速度比传统的Squid服务器更快,很多场景下都将其作为代理加速器

Nginx作为静态网页和图片服务器,这方面的性能非常优秀,同时第三方模块也很多

Nginx的缺点

Nginx仅能支持http、https和Email协议,这样在适用范围上面小些

对后端服务器的健康检查,只支持通过端口来检测,不支持通过url来检测

不支持Session的直接保持,需要通过ip_hash和cookie的引导来解决

LVS的优点

抗负载能力强,是工作在网络4层之上仅作分发之用,没有流量的产生,因此负载均衡软件里的性能最强的,对内存和CPU资源消耗比较低

LVS工作稳定,因为其本身抗负载能力更强,自身有完整的双击热备方案

无流量,LVS只分发请求,而流量并不会它本身出去,这点保证均衡器IO的性能不会收到大流量的影响

应用范围较广,因为LVS工作在4层,所以它几乎可对所有应用做负载均衡,包括http、数据库等

LVS的缺点

软件本身不支持正则表达式处理,不能做动静处理,相对来说,Nginx/Haproxy+Keepalived则具有明显的优势

如果是网站应用比较庞大的话,LVS/DR+keepalived实施起来就比较复杂了,相对来说,Nginx/Haproxy+keepalived就简单多了

Haproxy的优点

Haproxy也是支持虚拟主机的

Haproxy支持8种负载均衡策略

Haproxy的优点能够补充Nginx的一些缺点,比如支持Session的保持,Cookie的引导,同时支持通过获取指定的url来检测后端服务器的状态

Haproxy跟LVS类似,本身就只是一款负载均衡软件,单纯从效率上来讲Haproxy会比Nginx有更出色的负载均衡速度,在并发处理上也是由于Nginxd

Haproxy支持TCP协议的负载均衡转发

区别:

  • LVS基于Linux操作系统内核实现软负载均衡,而Haproxy和Nginx是基于第三方应用实现的软负载均衡
  • LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发,而Haproxy和Nginx都可以实现4层和7层技术,Haproxy可提供TCP和HTTP应用的负载综合解决方案
  • LVS因为工作在ISO模型的第四层,其状态检测功能单一,而Haproxy在状态检测功能更丰富、强大、可支持端口、URL、脚本等多种状态检测方式
  • HAProxy功能强大,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡; Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好

总结:

负载均衡性能: LVS最好 > Haproxy 其次 > Nginx 弱于其他两种

基于什么实现的负载均衡? LVS基于系统内核,Nginx和Haproxy基于应用程序

支持的代理类型 LVS只能实现4层代理转发(不支持正则),Nginx和Haproxy都能实现4层和7层的代理转发(支持正则)

对节点的健康检查 LVS只能对端口进行检查(主动的),Nginx只能被动的对端口进行检查,Haproxy支持端口、url、脚本等多种检查

Haproxy搭建Web群集

实验所需安装包

haproxy-1.5.19.tar.gz nginx-1.12.0.tar.gz

环境配置

主机IP地址
Haproxy192.168.46.20
Nginx1192.168.46.30
Nginx2192.168.46.40
客户端192.168.46.155

1.部署Haproxy服务器(192.168.46.20)

##关闭防火墙,将安装Haproxy需要的安装包放在/opt目录下
systemctl stop firewalld
setenforce 0
​
cd /opt
haproxy-1.5.19.tar.gz

Snipaste_2022-10-17_17-21-55.png

###编译安装Haproxy
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
uname -r ##查看内核参数
tar xf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19
make TARGET=linux2628 ARCH=x86_64
make install
​
###参数说明#####
TARGET=linux2628 ARCH=x86_64
内核版本  系统位数   64位系统
是由uname -r查看内核,ru:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628

Snipaste_2022-10-17_17-23-44.png

Snipaste_2022-10-17_17-25-54.png

Snipaste_2022-10-17_17-26-41.png

Haproxy服务器配置

mkdir /etc/haproxy  ##创建配置文件的目录
cp examples/haproxy.cfg /etc/haproxy ##将模板文件复制到配置文件目录cd /etc/haproxy/
vim haproxy.cfg  ##修改配置文件
global   ##全局配置,主要用于定义全区参数,属于进程级的配置,通常和操作系统配置有关
​
--4~5行--修改,定义haproxy日志输出设备和日志级别,local0为日志设备,默认存放到系统日志
         log /dev/log   local0 info       #修改
         log /dev/log   local0 notice     #修改
         #log loghost    local0 info
         maxconn 4096     #每个进程最大连接数,需考虑"ulimit -n"限制,推荐使用10240
         
 --8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉。
         #chroot /usr/share/haproxy
         uid 99      #用户UID
         gid 99      #用户GID
         daemon      #守护进程模式
         nbproc 1    #添加,设置并发进程数,建议与当前服务器CPU核数相等或为其2倍
 
 defaults    #配置默认参数,这些参数可以被用到Listen,frontend,backend组件     
         log     global         #引入global定义的日志格式
          mode    tcp               #模式为tcp(7层代理http,4层代理tcp)
        option  http-keep-alive #使用keepAlive连接
        option forwardfor       #记录客户端IP在X-Forwarded-For头域中
        option  httplog         #开启httplog,HAProxy会记录更丰富的请求信息
        option  dontlognull     #不记录健康检查日志信息
        retries 3               #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch              #当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000            #最大连接数,“defaults”中的值不能超过“global”段中的定义
        #contimeout 5000        #设置连接超时时间,默认单位是毫秒
        #clitimeout 50000       #设置客户端超时时间,默认单位是毫秒
        #srvtimeout 50000       #设置服务器超时时间,默认单位是毫秒
        timeout http-request 10s    #默认http请求超时时间,从连接创建开始到从后端服务器读取完整HTTP请求的超时时间,用于避免类DoS攻击
        timeout queue 1m        #默认队列超时时间
        timeout connect 10s     #默认连接超时时间,新版本中替代contimeout,该参数向后兼容
        timeout client 1m       #默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
        timeout server 1m       #默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
        timeout http-keep-alive 10s     #默认持久连接超时时间
        timeout check 10s       #设置心跳检查超时时间
​
 
 
  --删除下面所有listen项--,之后添加
 listen webcluster 0.0.0.0:80  #haproxy实例状态监控部分配置,定义一个名为webcluster的应用
        option httpchk GET /index.html  #检查服务器的index.html文件。option指定健康检查的方式为 httpchk, 发送http的GET请求检查index.html文件,返回2xx、3xx表示正常;返回4xx/5xx表示异常,则会将该web服务器隔离起来,不会将访问请求分配给它。
        balance roundrobin    #负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.46.30:80 check inter 2000 rise 2 fall 3   #定义在线节点
        server inst2 192.168.46.40:80 check inter 2000 rise 2 fall 3   #定义在线节点
        #server inst2 192.168.46.50:80 check inter 2000 rise 2 fall 3 backup  #定义备份节点
        
        
 #######  参数说明  ##################
 balance roundrobin :指定负载均衡调度算法为rr轮询
 #轮询算法: roundrobin; 
 #最小连接数算法: leastconn;
 #来源访问调度算法: source,源地址哈希,类似于nginx的ip_hash 
 
 instl :为服务器名称,可以自定义,可以使用主机名或域名来管理。
 
 check inter 2000 :表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒。
 
 rise 2 : 表示连续2次检测成功后,则会认为server UP,恢复该节点。
 因为默认为2次,这一项可以省略不设置。(隔离节点后也会进行健康检查,连续2次检测成功后就会恢复)
 
 fall 3 :表示连续三次检测不到心跳频率则认为该节点失效。
 若节点配置后带有"backup"表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带"backup",表示为主节点,和其它在线节点共同提供服务。
Snipaste_2022-10-17_17-41-08.png Snipaste_2022-10-17_17-47-50.png Snipaste_2022-10-17_19-42-40.png Snipaste_2022-10-17_19-47-04.png

添加Haproxy系统服务(将haproxy加入系统服务管理)

##做个软链接,将haproxy的可执行文件放入环境PATH的目录下
ln -s /usr/local/sbin/haproxy /usr/sbin
​
##将haproxy.init文件复制到/etc/init.d/目录下,并改名为haproxy
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d/
chmod +x haproxy  ##增加文件的执行权限
chkconfig --add /etc/init.d/haproxy  ##把haproxy加入系统服务管理中##启动haproxy
service haproxy start 或 /etc/init.d/haproxy start
Snipaste_2022-10-17_19-51-52.png

2.部署2台web服务器

第一台nginx服务器(192.168.46.30/24)

##关闭防火墙
systemctl stop firewalld
setenforce 0
​
##配置nginx的yum仓库在线源
vim /etc/yum.repos.d/nginx.repo
[nginx-stable]
name=nginx-stable
baseurl=http://nginx.org/packages/centos/7/$basearch/
gpgcheck=0
enabled=1
​
##yum安装nginx,查看nginx版本
yum install -y nginx
nginx -v
​
##查看配置文件,找到站点目录位置
vim /etc/nginx/nginx.conf ##查看nginx配置文件
include /etc/nginx/conf.d/*.conf;     ##可以看到在/etc/nginx/conf.d/目录下还有配置文件
 
vim /etc/nginx/conf.d/default.conf  ##该文件是Nginx的默认配置
location / {
         root   /usr/share/nginx/html;     ##站点目录,即首页文件的默认存放目录
         index  index.html index.htm;
     }
     
##切换到站点目录,编写站点文件
vim  /usr/share/nginx/html/index.html
<html>
<body>
<h1>this is meme web</h1>
</html>
</body>
​
##启动nginx服务
systemctl start nginx
​
##浏览器访问http://192.168.46.30
Snipaste_2022-10-17_17-03-38.png Snipaste_2022-10-17_17-08-06.png Snipaste_2022-10-17_17-10-12.png Snipaste_2022-10-17_17-14-56.png Snipaste_2022-10-17_17-16-21.png Snipaste_2022-10-17_17-17-33.png

第二台nginx服务器(192.168.46.40/24)

##关闭防火墙
systemctl stop firewalld
setenforce 0
​
##配置nginx的yum仓库在线源
vim /etc/yum.repos.d/nginx.repo
[nginx-stable]
name=nginx-stable
baseurl=http://nginx.org/packages/centos/7/$basearch/
gpgcheck=0
enabled=1##yum安装nginx,查看nginx版本
yum install -y nginx
nginx -v
​
##切换到站点目录,编写站点文件
vim  /usr/share/nginx/html/index.html
<html>
<body>
<h1>this is benet web</h1>
</html>
</body>
​
##启动nginx服务
systemctl start nginx
​
##浏览器访问http://192.168.46.40
Snipaste_2022-10-17_17-20-05.png

客户端访问测试

客户端:192.168.46.155

浏览器输入Haproxy负载调度器地址:192.168.46.20

第一次访问

Snipaste_2022-10-17_20-38-44.png

第二次访问

Snipaste_2022-10-17_17-20-05.png

日志管理

#默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。

##修改配置文件
vim /etc/haproxy/haproxy.cfg
global
    log /dev/log local0 info ##修改这两行,定义haproxy日志输出设备和日志级别
    log /dev/log local0 notice
​
service haproxy restart  #重启haproxy服务

Snipaste_2022-10-17_20-42-52.png

#需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。

vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
​
#说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
systemctl restart rsyslog.service
​
tail -f /var/log/haproxy/haproxy-info.log       #查看haproxy的访问请求日志信息

Snipaste_2022-10-17_20-46-47.png

Snipaste_2022-10-17_20-48-53.png