这是我参与「第五届青训营 」伴学笔记创作活动的第 6 天
为什么需要Redis:
- 数据从单表,演进到分库分表
- 数据分冷热:将热数据存储到内存中
Redis基本工作原理
- 数据从内存中读写
- 数据保存到硬盘上防止重启数据丢失: 1.增量数据保存到AOF文件 2.全量数据RDB文件 3.单线程处理所有操作命令
Redis应用案例
1.连续签到
GO的String数据结构不同于其他语言
- 可以存储 字符串、数字、二进制数据
- 通常和expire配合使用
- 场景:存储技术、Session
2.消息通知
用list作为消息队列
- 使用场景:消息通知 List数据结构Quicklist:由一个双向链表和listpack实现
3.计数
Hash数据结构dict rehash: rehash操 作是将ht[0]中的数据,全部迁移到ht[1]中。数据量小的场景下,直接将数据从ht[0]拷贝到ht[1]速度是较快的。数据量大的场景,例如存有上百万的KV时,迁移过程将会明显阻塞用户请求。 渐进式rehash:为避免出现这种情况,使用了rehash方案。基本原理就是,每次用户访问时都会迁移少量数据。将整个迁移过程,平摊到所有的访问用户不请求过程中。
4.排行榜
积分变化时,排名实时变更 zset数据结构zskiplist 结合dict后,可实现通过key操作跳表的功能
5.限流
要求1秒内放行的请求为N,超过N则禁止访问 调用redis的key、对 key的访问次数
6.分布式锁
并发场景,要求一次只能由一个协程执行。执行完成后,其他等待中的协程才能执行。 可以使用redis的setnx实现,利用了两个特性: 1.redis是单线程执行 2.setnx只有未设置过才能执行成功
Redis使用注意事项
1.大Key、热Key
大Key的危害:读取 成本高、容易导致慢查询(过期、删除)、主从复制异常,服务阻塞无法正常响应请求。
业务侧使用大Key的表现:请求Redis超时报错。
消除大Key的方法:
- 拆分:将大Key拆分为多个小Key(类似于网络通信的分片)。
- 压缩:将value压缩后写入redis,读取时解压后再使用。如果存储的是JSON字符串,可以考虑使用MessagePack进行序列化。
热Key的定义:用户访问一个Key的QPS特别高,导 致Server实例出现CPU负载突增或者不均的情况。热key没有明确的标准,QPS超过500就有可能被识别为热Key
解决热Key的方法:
- 设置Localcache:在访问Redis前,在业务服务侧设置L ocalcache,降低访问Redis的QPS。LocalCache中 缓存过期或未命中, 则从Redis中将数据更新到LocalCache。Java的Guava、 Golang的Bigcache就是这类LocalCache。
- 拆分:将key : value这一个热Key复制写入多 份,例如key1 :value, key2: value,访问的时候访问多个key,但value是同一个,以此将qps分散到不同实例上,降低负载。代价是,更新时需要更新多个key,存在数据短暂不一致的风险。
- 使用Redis代理的热Key承载能力:字节跳动的Redis访问代理就具备热Key承载能力。本质上是结合了“热Key发现"、"LocalCache" 两个功能。
2.慢查询场景
容易导致redis慢查询的操作:
- 批量操作一次性传入过多的key/ value,如mset/ hmset/ sadd/ zadd等0(n)操作,建议单批次不要超过100,超过100之后性能下降明显。
- zset大部分命令都是0(log(n)),当大小超过5k以上时,简单的zadd/zrem也可能导致慢查询。
- 操作的单个value过大,超过10KB。也即,避免使用大Key。
- 对大key的delete/ expire操作也可能导致慢查询,Redis4 .0之前不支持异步删除unlink,大key 删除会阻塞Redis。
3.缓存穿透、缓存雪崩
缓存穿透:热点数据查询绕过缓存,直接查询数据库 缓存雪崩:大量缓存同时过期 缓存穿透的危害
(1)查询一个一定不存在的数据
通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击, 那么容易导致db响应慢甚至宕机
(2)缓存过期时
在高并发场景下,一个热key如果过期,会有大量请求同时击穿至db,容易影响db性能和稳定。 同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢,甚至出现db无法响应新的查询
如何减少缓存穿透
(1)缓存空值
如一个不存在的userlD。这个id在缓存和数据库中都不存在。则可以缓存一一个空值,下次再查缓存直接反空值。
(2)布隆过滤器
通过bloom filter算 法来存储合法Key,得益于该算法超高的压缩率,只需占用极小的空间就能存储大量key值
如何避免缓存雪崩:
- 缓存空值 将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间, 可以设置为10分1秒过期,10分23秒过期,10分8秒过期。单位秒部分就是随机时间,这样过期时间就分散了。 对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些。
- 使用缓存集群,避免单机宕机造成的缓存雪崩。