这是我参与「第五届青训营」伴学笔记创作活动的第 12 天
为什么需要Redis
- 数据从单表,演进出了分库分表
- MySQL从单机演进出了集群
- 数据量增长
- 读写数据压力的不断增加
在应用中,数据通常分为冷热数据
热数据:经常被查询的数据
将热数据存入内存中减少数据库压力
Redis原理
- 数据从内存中读写
- 数据保存到硬盘上防止重启数据丢失
- 增量数据保存到AOF文件
- 全量数据RDB文件
- 单线程处理所有操作命令
Redis应用案例
连续签到
-
掘金每日连续签到
-
用户每日有一次签到的机会,如果断签,连续签到计数将归0。 连续签到的定义:每天必须在23:59:59前签到
-
数据定义:
Key: CC uid 1165894833417101 value: 252 expireAt:后天的0点
当key过期时则视为断签
redis的string所使用的底层数据结构为动态字符串sds
- 可以存储字符串、数字、二进制数据
- 通常和expire配合使用
- 场景:存储计数、Session
消息通知
使用list作为队列进行消息推送,同时结合redis的pub/sub模式进行使用
例如当文章更新时,将更新后的文章推送到ES,用户就能搜索到最新的文章数据
而list在redis底层由QuickList进行实现:Quicklist由一个双向链表和listpack实现
计数
一个用户有多项计数要求时,可通过hash进行实现
hash在底层采用dict数据结构:
在扩容时有以下两种策略
- rehash: rehash操作 是将ht[0]中的数据,全部迁移到ht[1]中。数据量小的场景下,直接将数据从ht[0]拷贝到ht[1]速度是较快的。数据量大的场景,例如存有.上百万的KV时,迁移过程将会明显阻塞用户请求。
- 渐进式rehash:为避免出现这种情况,使用了rehash方案。基本原理就是,每次用户访问时都会迁移少量数据。将整个迁移过程,平摊到所有的访问用不请求过程中。
排行榜
因为数据更新时,排名要实时更新,所以使用zset相关数据储存(有序集合)
zset底层zskiplist结构:
查找数字7的路径,head,3,3,7结合dict后,可实现通过key操作跳表的功能
- Z INCRBY myzset 2” Alex"
- ZSCORE myzset "Alex"
限流
维护一个计数器,每次访问使用incr指令自增一次,当超过限定访问次数时拒绝访问
需求: 要求1秒内放行的请求为N,超过N则禁止访问
- Key: comment freq_ limit 1671356046
- 每次访问对这个Key调用incr,超过限制N则禁止访问
1671356046是当前时间戳
分布式锁
并发场景,要求一次只能有一个协程执行。 执行完成后,其它等待中的协程才能执行。 可以使用redis的setnx实现,利用了两个特性:
- Redis是单线程执行命令
- setnx只有未设置过才能执行成功
在写成使用完后应该将锁进行释放(删除),避免死锁发生,同时也应设置过期时间,防止服务超时
使用注意事项
大key
当出现大key时,可以采用以下方法进行大key的消除:
-
将大key拆分为多个key
-
压缩
将value压缩后写入redis,读取时解压后再使用。压缩算法可以是gzip、snappy、 lz4等。通常情况下,一个压缩算法压缩率高、则解压耗时就长。需要对实际数据进行测试后,选择一个合适的算法。如果存储的是JSON字符串,可以考虑使用MessagePack进行序列化。
-
集合类结构hash、list、set、set
- 拆分:可以用hash取余、位掩码的方式决定放在哪个key中
- 区分冷热:如榜单列表场景使用zset,只缓存前10页数据,后续数据走db
热key
用户访问一个Key的QPS特别高,导致Server实例出现CPU负载突增或者不均的情况。 热key没有明确的标准,QPS 超过500就有可能被识别为热Key
而在热key出现时,我们也应将其进行处理
-
在访问Redis前,在业务服务侧设置Localcache,降低访问Redis的QPS。LocalCache 中缓存过期或未命中,则从Redis中将数据更新到L ocalCache。Java的Guava、 Golang的Bigcache就是 这类IocalCache
-
拆分
将key:value这一个热Key复制写入多份,例如key1:value,key2:value, 访问的时候访问多个key,但value是同一 个以此将qps分散到不同实例上,降低负载。代价是,更新时需要更新多个key,存在数据短暂不一致的风险(不具备强一致性)
-
使用redis代理
字节跳动的Redis访问代理就具备热Key承载能力。本质上是结合了“热Key发现”、"LocalCache' 两个功能
在服务端与redis间增加了一层服务
慢查询场景
- 批量操作一 次性传入过多的key/value, 如mset/hmset/sadd/zadd等O(n)操作建议单批次不要超过100,超过100之后性能下降明显。
- zset大部分命令都是O(log(n)),当大小超过5k以上时,简单的zadd/zrem也可能导致慢查询
- 操作的单个value过大, 超过10KB。 也即,避免使用大Key
- 对大key的delete/expire操作也可能导致慢查询,Redis4.0之前不支持异步删除unlink, 大key删除会阻塞Redis
缓存穿透
缓存穿透:热点数据查询绕过缓存,直接查询数据库 缓存穿透的危害:
- 查询一个一定不存在的数据 通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击,那么容易导致db响应慢甚至宕机
- 缓存过期时 在高并发场景下,一个热key如果过期,会有大量请求同时击穿至db,容易影响db性能和稳定。同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢,甚至出现db无法响应新的查询
如何减少缓存穿透:
- 缓存空值 如一个不存在的userlD。这个id在缓存和数据库中都不存在。则可以缓存一个空值,下次再查缓存直 接反空值
- 布隆过滤器 通过bloomfilter算法来存储合法Key,得益于该算法超高的压缩率,只需占用极小的空间就能存储大量key值
缓存雪崩
缓存 雪崩是指大量缓存中的key同时过期
- 随机设置过期时间 将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间,可以设置为10分1秒过期,10分23秒过期, 10分8秒过期。 单位秒部分就是随机时间,这样过期时间就分散了对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些 。
- 使用缓存集群,避免单机宕机造成的缓存雪崩。