一、Redis持久化
RDB快照(snapshot)
默认情况下, Redis 将内存数据库快照保存在名字为 dump.rdb 的二进制文件中。可以对 Redis 进行设置(save N M),让它在“ N 秒内数据集至少有 M 个改动 ”这一条件被满足时,自动保存一次数据集(当前时刻的整个内存)为 RDB 文件。也可以进入 Redis 客户端,手动执行命令 save 或 bgsave 立即生成 dump.rdb 快照文件(默认存放路径为 dump.rdb)。如果需要关闭 RDB 快照,只需要将 redis.conf 文件的 save 60 10000 等配置注释即可
- save 生成 RDB 快照时,会阻塞正在进行 Redis 操作命令
- bgsave 默认的持久化文件机制写时复制(COW)机制,不会阻塞正在进行 Redis 操作命令。 Redis 借助操作系统提供的写时复制技术(Copy-On-Write, COW),在生成快照的同时,依然可以正常处理写命令。bgsave 子进程是由主线程 fork 生成的,可以共享主线程的所有内存数据,子进程开始读取内存数据并写入 RDB 文件后,此时,如果有新的操作命令,会进行在内存中执行,然后会生成一块新的该数据的副本数据写入到 RDB 文件中。这个过程中主线程依旧可以修改原来的数据。
| 命令 | save | bgsave |
|---|---|---|
| IO类型 | 同步 | 异步 |
| 是否阻塞redis其它命令 | 是 | 否(在生成子进程执行调用fork函数时会有短暂阻塞) |
| 复杂度 | O(n) | O(n) |
| 优点 | 不会消耗额外内存 | 不阻塞客户端命令 |
| 缺点 | 阻塞客户端命令 | 需要fork子进程,消耗内存 |
- RDB 快照的优点: 文件体积小,恢复数据速度快
- RDB 快照的缺点: 如果 Redis 因为某些原因而造成故障停机, 那么服务器将丢失最近写入、且仍未保存到快照中的那些数据
AOF 持久化(append-only file)
AOF 持久化就是将修改的每一条指令记录追加进文件 appendonly.aof 中(先写入os cache,每隔一段时间 fsync 到 磁盘) 。在 redis.conf 中配置(appendonly yes、appendfilename "appendonly.aof"),和 RDB 快照一样,默认存放路径为 /data/3306/appendonly.aof
该操作有三个配置项:
appendfsync always:每次有新命令追加到 AOF 文件时就执行一次 fsync ,非常慢,也非常安全
appendfsync everysec:每秒 fsync 一次,足够快,并且在故障时只会丢失 1 秒钟的数据
appendfsync no:从不 fsync ,将数据交给操作系统来处理。更快,也更不安全的选择
推荐(并且也是默认)的措施为每秒 fsync 一次, 这种 fsync 策略可以兼顾速度和安全性
AOF 重写: AOF 中有些命令是没有用的,比如累加某一个数据项,不需要将每次累加的记录,AOF 可以自动重写为最后一条 SET 命令,AOF 也有两个默认配置
# aof文件至少要达到64M才会自动重写,文件太小恢复速度本来就 很快,重写的意义不大
# auto‐aof‐rewrite‐min‐size 64mb
# aof文件自上一次重写后文件大小增长了100%则再次触发重写
# auto‐aof‐rewrite‐percentage 100
- AOF 的优点: 数据安全性比 RDB 高
- AOF 的缺点: 命令过多时体积过大,恢复数据速度慢,安全性根据策略决定
| 命令 | RDB | AOF |
|---|---|---|
| 启动优先级 | 低 | 高 (更安全) |
| 文件体积 | 小 | 大 |
| 恢复速度 | 快 | 慢 |
| 数据安全性 | 容易丢失数据 | 由策略决定 |
Redis 4.0 混合持久化
AOF在重写时,不再是单纯将内存数据转换为 RESP 命令写入 AOF 文件,而是将重写这一刻之前的内存做 RDB 快照处理,并且将 RDB 快照内容和增量的 AOF 修改内存数据的命令存在一起,都写入新的 AOF 文件,新的文件一开始不叫 appendonly.aof,等到重写完新的 AOF 文件才会进行改名,覆盖原有的 AOF 文件,完成新旧两个 AOF 文件的替换。开启配置命令如下(必须先开启 AOF):
# aof‐use‐rdb‐preamble yes
Redis 数据备份策略
- 写 crontab 定时调度脚本,每小时都 copy 一份 rdb 或 aof 的备份到一个目录中去,仅仅保留最近 48 小时的备份
- 每天都保留一份当日的数据备份到一个目录中去,可以保留最近1个月的备份
- 每次 copy 备份的时候,删除太旧的备份
- 每天晚上将当前机器上的备份复制一份到其他机器上,以防机器损坏
注意: 停掉 Redis 之前会自动做一次持久化文件,当 Redis 重启时,如果目录下存在 RDB 或 AOF 文件,就会自动将数据恢复到 Redis 中
二、Redis 主从架构
主节点写数据,从节点备份数据,也可以进行一些读操作,缓解主节点压力。主从架构需要自己写代码将读、写操作分配到对应的主节点与从节点,如果是哨兵或者集群架构可以自动分发。
主从架构搭建步骤:
1、复制一份主节点的 redis.conf 文件
2.修改 redis.conf 相关配置
port 6380 #从节点使用端口
pidfile /var/run/redis_6380.pid #把pid进程号写入pidfile配置的文件
logfile "6380.log" #日志文件
dir /usr/local/redis‐5.0.1/data/6380 #指定数据存放目录
protected-mode no #关闭保护模式,开启仅本机可访问
# 注释掉 bind,它绑定当前及其ip,表示客户端运行哪些网卡ip去访问,内网一般不需要配置
# bind 127.0.0.1
3.配置主从复制
replicaof 192.168.56.10 6379 #从本机6379的redis复制数据,Redis 5.0之前使用slaveof
replica‐read‐only yes # 配置从节点只读
4.启动从节点
redis‐server redis.conf
5.连接从节点
redis‐cli ‐p 6380
#如果需要配置更多的从节点,可以继续复制一份配置文件,添加即可
主从复制原理:
主从复制风暴: 主从复制过程中可能出现从节点较多,多个从节点同时从主节点进行复制,造成主节点压力过大,可以让将部分从节点搭建到从节点上,使其从从节点同步数据
三、Redis 哨兵高可用架构
客户端连接哨兵,第一次访问时从哨兵找出 Redis 的主节点,后续就直接访问 Redis 的主节点。哨兵动态监听所有的节点,主节点挂了,哨兵自动选举新的主节点,并把新的主节点推送给客户端(Redis 的 client 端一般都实现了订阅功能,订阅sentinel发布的节点变动消息)。
哨兵架构缺点:
- 主节点挂掉后,重新选举会有几秒甚至十几秒的不可用
- 只有一个节点作为写节点,并发量最大也就 10W左右
- 最大内存推荐10个G,再大影响性能(持久化文件过大,影响数据恢复或主从同步的效率)
推荐三个哨兵,哨兵搭建好后,哨兵会主动写到配置文件,哨兵架构搭建步骤如下:
1、复制一份sentinel.conf文件
cp sentinel.conf sentinel‐6399.conf
2、修改setinel.conf文件相关配置
port 6399
daemonize yes #后台启动
pidfile "/var/run/redis‐sentinel‐6399.pid"
logfile "6399.log"
dir "/usr/local/redis‐5.0.3/data"
# sentinel monitor <master‐redis‐name> <master‐redis‐ip> <master‐redis‐port> <quorum>
# quorum是一个数字,指明当多少个sentinel认为一个master失效时,该master才算真正失效
# 该值一般为:sentinel总数/2 + 1
# masterName随便取
sentinel monitor [masterName] 192.168.56.10 6379 2
3、启动sentinel哨兵实例
src/redis‐sentinel sentinel‐26379.conf
sentinel 集群都启动完毕后,会将哨兵集群的元数据信息写入所有 sentinel 的配置文件里去,如果之前有配置过,最后一条最新的才是生效的配置
# 启动完成后,可以连接Redis后使用Info命令查看sentinel信息,配置多个,添加sentinel即可
src/redis‐cli ‐p 6399
info
#info命令执行后如下
#代表redis主节点的从节点信息
sentinel known‐replica masterTest 192.168.56.10 6380
#代表感知到的其它哨兵节点
sentinel known‐sentinel masterTest 192.168.56.10 6399 xxxxxxxx
SpringBoot 整合 Redis 并使用哨兵架构
1.引入依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring‐boot‐starter‐data‐redis</artifactId>
</dependency>
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons‐pool2</artifactId>
</dependency
2.配置文件
spring:
redis:
database: 0
timeout: 3000
sentinel: #哨兵模式
master: masterTest #主服务器所在集群名称
nodes: 192.168.56.10:6379,192.168.56.10:26380:26380,192.168.56.10:6381
lettuce:
pool: #连接池想信息
max-idle: 50
min-idle: 10
max-actice: 800
max-wait: 800
四、Redis 集群架构
前面已经了解了哨兵架构,哨兵架构已经能满足许多一般会互联网情况下的需求,但是它也存在一下缺点:主节点宕机后,重新选举期间的几秒甚至几十秒是不可用的,而且只有一个节点作为写节点,撑死最大并发也就 10W作用。并且Redis最大内存不宜过大(10G)否则影响性能。
那么什么是 Redis 集群呢?Redis 集群是一个由多个主从节点群组成的分布式服务器群,它具有复制、高可用和分片特性。Redis 集群不需要 sentinel 哨兵,也能完成节点移除和故障转移的功能。需要将每个节点设置成集群模式,这种集群模式没有中心节点,可水平扩展,据官方文档称可以线性扩展到上万个节点(官方推荐不超过1000个节点)。Redis 集群的性能和高可用性均优于之前版本的哨兵模式,且集群配置非常简单。
- 至少需要 3 个主节点
- 从节点仅用于数据备份,读写都从主节点进行
- 整个集群所有节点逻辑分片,16384 个 Hash 槽可以均匀分布给不同的节点
- 建议错峰连接(主节点可以和从节点不在一台机器),即使机器断开也不影响使用
- 不能批量操作(如MSET),key 值 Hash 出的槽位不同,导致存储机器不同(可以设计Key)
- 重启集群只需要重启单个节点
Redis 高可用集群的搭建
Redis 集群至少需要三个 master 节点,并且给每个 master 再搭建一个slave节点,总共 6 个 Redis 节点,这里演示用三台机器部署 6 个 Redis 实例,每台机器一主一从,搭建集群的步骤如下:
第一步:在第一台机器的/usr/local下创建文件夹redis-cluster,然后在其下面分别创建2个文件夾如下
(1)mkdir -p /usr/local/redis-cluster
(2)mkdir 8001 8004
第二步:把之前的redis.conf配置文件copy到8001下,修改如下内容:
(1)daemonize yes #后台运行
(2)port 8001(分别对每个机器的端口号进行设置)
(3)pidfile /var/run/redis_8001.pid # 把pid进程号写入pidfile配置的文件
(4)dir /usr/local/redis-cluster/8001/(指定数据文件存放位置,必须要指定不同的目录位置,不然会丢失数据)
(5)cluster-enabled yes(启动集群模式)
(6)cluster-config-file nodes-8001.conf(集群节点信息文件,这里800x最好和port对应上)
(7)cluster-node-timeout 10000
(8)# bind 127.0.0.1(bind绑定的是自己机器网卡的ip,如果有多块网卡可以配多个ip,代表允许客户端通过机器的哪些网卡ip去访问,内网一般可以不配置bind,注释掉即可)
(9)protected-mode no (关闭保护模式,包含模式下只运行本机访问)
(10)appendonly yes
如果要设置密码需要增加如下配置:
(11)requirepass password (设置redis访问密码)
(12)masterauth password (设置集群节点间访问密码,跟上面一致)
第三步:把修改后的配置文件,copy到8004,修改第2、3、4、6项里的端口号,可以用批量替换::%s/源字符串/目的字符串/g
第四步:另外两台机器也需要做上面几步操作,第二台机器用8002和8005,第三台机器用8003和8006
第五步:分别启动6个redis实例,然后检查是否启动成功
(1)/usr/local/redis-5.0.3/src/redis-server /usr/local/redis-cluster/800*/redis.conf
(2)ps -ef | grep redis 查看是否启动成功
第六步:用redis-cli创建整个redis集群(redis5以前的版本集群是依靠ruby脚本redis-trib.rb实现)
# 下面命令里的1代表为每个创建的主服务器节点创建一个从服务器节点
# 执行这条命令需要确认三台机器之间的redis实例要能相互访问,可以先简单把所有机器防火墙关掉
# 如果不关闭防火墙则需要打开redis服务端口和集群节点gossip通信端口16379
# 关闭防火墙
# systemctl stop firewalld # 临时关闭防火墙
# systemctl disable firewalld # 禁止开机启动
(1)/usr/local/redis-5.0.3/src/redis-cli -a password --cluster create --cluster-replicas 1 192.168.56.10:8001 192.168.56.11:8002 192.168.56.12:8003 192.168.56.10:8004 192.168.56.11:8005 192.168.56.12:8006
第七步:验证集群:
(1)连接任意一个客户端即可:./redis-cli -c -h -p (-a访问服务端密码,-c表示集群模式,指定ip地址和端口号)
如:/usr/local/redis-5.0.3/src/redis-cli -a password -c -h 192.168.56.10 -p 800*
(2)进行验证: cluster info(查看集群信息)、cluster nodes(查看节点列表)
(3)进行数据操作验证
(4)关闭集群则需要逐个进行关闭,使用命令:
/usr/local/redis-5.0.3/src/redis-cli -a password -c -h 192.168.56.10 -p 800* shutdown
SpringBoot 整合Redis集群
1.引入相关依赖
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<dependency>
<groupId>org.apache.commons</groupId>
<artifactId>commons-pool2</artifactId>
</dependency>
2.配置类
server:
port: 8080
spring:
redis:
database: 0
timeout: 3000
password: password
cluster:
nodes: 192.168.56.10:8001,192.168.56.11:8002,192.168.56.12:8003,192.168.56.10:8004,192.168.56.11:8005 192.168.56.12:8006
lettuce:
pool:
max-idle: 50
min-idle: 10
max-active: 100
max-wait: 1000
3.Java 代码访问
@Autowired
private StringRedisTemplate stringRedisTemplate;
@RequestMapping("/test")
public void testCluster() throws InterruptedException {
stringRedisTemplate.opsForValue().set("abc", "123");
System.out.println(stringRedisTemplate.opsForValue().get("abc"));
}
Redis 集群原理分析
Redis Cluster 将所有数据划分为 16384 个 slots(槽位) ,每个节点负责一部分槽位(可用自己分配)。槽位的信息存储于每个节点中。当 Redis Cluster 的客户端来连接集群时,它也会得到一份集群的槽位配置信息并将其缓存在客户端本地。这样当客户端要查找某个 key 时,可以直接定位到目标节点。同时因为槽位的信息可能会存在客户端与服务器不一致的情况,还需要纠正机制来实现槽位信息的校验调整。
槽位定位算法
Redis Cluster 默认会对 key 值使用 crc16 算法进行 Hash 得到一个整数值,然后用这个整数值对 16384 进行取模来得到具体槽位(位运算)。HASH_SLOT = CRC16(key) & (16384 - 1) 。
跳转重定位
当客户端向一个错误的节点发出了指令,该节点会发现指令的 key 所在的槽位并不归自己管理,这时它会向客户端发送一个特殊的跳转指令携带目标操作的节点地址,告诉客户端去这个节点去获取数据。客户端收到指令后除了跳转到正确的节点上去操作,还会同步更新纠正本地的槽位映射表缓存,后续所有 key 将使用新的槽位映射表。【例如在某活动大促期间,增加了 Redis 集群服务器台数,将槽位分发给了这几个节点,将导致客户端缓存的槽位映射表不正确,从而指令错误】
# 跳转重定位
> set name zhangsan
> Redirected to slot [1638] located at 192.168.56.12:8004 OK
Redis集群节点间的通信机制
Redis集群节点采取 gossip协议 进行通信,维护集群的元数据(集群节点信息,主从角色,节点数量,各节点共享的数据等)有两种方式:集中式 和 gossip。
-
集中式
- 优点: 元数据的更新和读取,时效性非常好。一旦元数据出现变更立即就会更新到集中式的存储,其他节点读取的时候立即就可以立即感知到;
- 缺点: 所有的元数据的更新压力全部集中在一个地方,可能导致元数据的存储压力。 很多中间件都会借助 zookeeper 集中式存储元数据。
-
gossip
- 优点: 元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到所有节点上去更新,有一定的延时,降低了压力
- 缺点: 元数据更新有延时可能导致集群的一些操作会有一些滞后
gossip协议包含多种消息,包括 ping,pong,meet,fail 等等。
-
meet:某个节点发送meet给新加入的节点,让新节点加入集群中,然后新节点就会开始与其他节点进行通信;
-
ping:每个节点都会频繁给其他节点发送 ping,其中包含自己的状态还有自己维护的集群元数据,互相通过 ping 交换元数据(类似自己感知到的集群节点增加和移除,hash slot 信息等);
-
pong: 对 ping 和 meet 消息的返回,包含自己的状态和其他信息,也可以用于信息广播和更新;
-
fail: 某个节点判断另一个节点 fail 之后,就发送 fail 给其他节点,通知其他节点,指定的节点宕机了。
gossip通信的10000端口
每个节点都有一个专门用于节点间 gossip 通信的端口,就是自己提供服务的端口号 +10000,比如 7001,那么用于节点间通信的就是 17001 端口。 每个节点每隔一段时间都会往另外几个节点发送 ping 消息,同时其他几点接收到 ping 消息之后返回 pong 消息。
网络抖动
网络抖动--突然之间部分连接变得不可访问,然后很快又恢复正常。为解决这种问题,Redis Cluster 提供了一种选项 cluster-node-timeout,表示当某个节点持续 timeout 的时间失联时,才可以认定该节点出现故障,需要进行主从切换。如果没有这个选项,网络抖动会导致主从频繁切换 (数据的重新复制)。
Redis集群选举原理分析
当 slave 发现自己的 master 变为 FAIL 状态时,便尝试进行 Failover,以期成为新的 master。由于挂掉的 master 可能会有多个 slave,从而存在多个 slave 竞争成为 master 节点的过程, 其过程如下:
- slave 发现自己的 master 变为 FAIL
- 将自己记录的集群 currentEpoch 加 1,并广播 FAILOVER_AUTH_REQUEST 信息
- 其他节点收到该信息,只有 master 响应,判断请求者的合法性,并发送 FAILOVER_AUTH_ACK,对每一个 epoch 只发送一次 ack
- 尝试 failover 的 slave 收集 master 返回的 FAILOVER_AUTH_ACK
- slave 收到超过半数 master 的 ack 后变成新 Master(集群为什么至少需要三个主节点,如果只有两个,当其中一个挂了,只剩一个主节点是不能选举成功的)
- slave 广播 Pong 消息通知其他集群节点。
从节点并不是在主节点一进入 FAIL 状态就马上尝试发起选举,而是有一定延迟,一定的延迟确保我们等待 FAIL状态在集群中传播,slave 如果立即尝试选举,其它 masters 或许尚未意识到 FAIL 状态,可能会拒绝投票。
延迟计算公式: DELAY = 500ms + random(0 ~ 500ms) + SLAVE_RANK * 1000ms
SLAVE_RANK 表示此 slave 已经从 master 复制数据的总量的 Rank。Rank 越小代表已复制的数据越新。这种方式下,持有最新数据的slave将会首先发起选举(理论上)。
集群脑裂数据丢失问题
Redis 集群没有过半机制会有脑裂问题,网络分区导致脑裂后多个主节点对外提供写服务,一旦网络分区恢复,会将其中一个主节点变为从节点,这时会有大量数据丢失。规避方法可以在 Redis 配置里加上参数(这种方法不可能百分百避免数据丢失,参考集群 leader 选举机制):
min-replicas-to-write 1 // 写数据成功最少同步的slave数量,这个数量可以模仿大于半数机制配置,比如集群总共三个节点可以配置1,加上leader就是2,超过了半数
注意:这个配置在一定程度上会影响集群的可用性,比如 slave 要是少于1个,这个集群就算 leader 正常也不能提供服务了,需要具体场景权衡选择。
集群是否完整才能对外提供服务
当 redis.conf 的配置 cluster-require-full-coverage 为 no 时,表示当负责一个插槽的主库下线且没有相应的从库进行故障恢复时,集群仍然可用,如果为 yes 则集群不可用。
Redis集群为什么至少需要三个master节点,并且推荐节点数为奇数?
因为新 master 的选举需要大于半数的集群 master 节点同意才能选举成功,如果只有两个 master 节点,当其中一个挂了,是达不到选举新 master 的条件的。奇数个 master 节点可以在满足选举该条件的基础上节省一个节点,比如三个 master 节点和四个 master 节点的集群相比,大家如果都挂了一个 master 节点都能选举新 master 节点,如果都挂了两个 master 节点都没法选举新 master 节点了,所以奇数的 master 节点更多的是从节省机器资源角度出发说的。
Redis集群对批量操作命令的支持
对于类似 mset,mget 这样的多个 key 的原生批量操作命令,redis 集群只支持所有 key 落在同一 slot 的情况,如果有多个 key 一定要用 mset 命令在 redis 集群上操作,则可以在 key 的前面加上 {XX},这样参数数据分片 hash 计算的只会是大括号里的值,这样能确保不同的 key 能落到同一 slot 里去,示例如下:
mset {user1}:1:name zhuge {user1}:1:age 18
假设 name 和 age 计算的 hash slot 值不一样,但是这条命令在集群下执行,Redis 只会用大括号里的 user1 做 hash slot 计算,所以算出来的slot值肯定相同,最后都能落在同一slot。