Redis - 大厂程序员是怎么用的 | 青训营笔记

59 阅读8分钟

这是我参与「第五届青训营 」伴学笔记创作活动的第 17 天

Redis 是什么

为什么需要 Redis

  • 数据从单表,演进出了分库分表

  • MySQL 从单机演进出了集群

    • 数据量增长
    • 读写数据压力的不断增加
  • 数据分冷热

    • 热数据:经常被访问到的数据
  • 将热数据存储到内存中

Redis 基本工作原理

  • 数据从内存中读写

  • 数据保存到硬盘上防止重启数据丢失

    • 增量数据保存到AOF文件

    • 全量数据RDB文件

  • 单线程处理所有操作命令(但是 RDB 备份操作时会 fork,也正是因为这个原因 RDB 不能实现秒级的备份,fork 是一个重操作)

启动后会优先读取 AOF!这两篇文章讲的不错:

Redis进阶 - 持久化:RDB和AOF机制详解

redis系列之--数据持久化(RDB和AOF)

Redis 数据结构

Redis进阶 - 数据结构:底层数据结构详解

String 数据结构

数据结构 sds

  • 可以存储字符串、数字、二进制数据
  • 通常和expire配合使用
  • 场景:存储计数、Session

List 数据结构 Quicklist

Quicklist 由一个双向链表和 listpack 实现

Hash 数据结构 dict

  • rehash:rehash操作是将ht[0]中的数据全部迁移到ht[1]中。数据量小的场景下,直接将数据从ht[0]拷贝到ht[1]速度是较快的。数据量大的场景,例如存有上百万的KV时,迁移过程将会明显阻塞用户请求。
  • 渐进式 rehash:为避免出现这种情况,使用了渐进式 rehash 方案。基本原理就是,每次用户访问时都会迁移少量数据。将整个迁移过程,平摊到所有的访问用户请求过程中。(在进行迁移时,仍然使用旧表,只是将一部分数据复制到新表)

zset 数据结构 zskiplist

查找数字 7 的路径,head,3,3,7

  • 结合 dict 后,可实现通过 key操 作跳表的功能

    • ZINCRBY myzset 2 "Alex"
    • ZSCORE myzset "Alex"

实际 redis 中,zset 的实现不仅使用了跳表,为了找到其对应的数据还结合了哈希表进行存储

Redis 为什么用跳表而不用平衡树? - 掘金

Redis 应用案例

连续签到

用户每日有一次签到的机会,如果断签,连续签到计数将归0。连续签到的定义:每天必须在23:59:59前签到

  • 设置过期,期限为后天零点
  • 进行 INCR 操作,将连续签到天数加一

消息通知

可以使用 list 或者 pub/sub 实现

用 list 作为消息队列

  • 使用场景:消息通知。

    例如当文章更新时将更新后的文章推送到 ES,用户就能搜索到最新的文章数据

计数

一个用户有多项计数需求,可通过 hash 结构存储

hash 有多个字段和对应的值,可以方便地打包一整块数据

排行榜

积分发生变化时,排名要实时变更

  • 结合dict后,可实现通过key操作跳表的功能

    • ZINCRBY myzset 2 "Alex"
    • ZSCORE myzset "Alex"

限流

要求 1 秒内放行的请求为 N,超过 N 则禁止访问

Key:comment_freq_limit_1671356046

对这个 Key 调用 incr,超过限制N则禁止访问1671356046是当前时间戳

分布式锁

并发场景,要求一次只能有一个协程执行。执行完成后.其它等待中的协程才能执行。

可以使用 redis 的 setnx 实现,利用了两个特性

  • Redis 是单线程执行命令
  • setnx 只有未设置过才能执行成功

只是体验SetNX的特性,不是高可用的分布式锁实现

该实现存在的问颗:

  1. 业务超时解锁,导致并发问题。业务执行时间超过锁超时时间
  2. redis主备切换临界点问题。主备切换后,A 持有的锁还未同步到新的主节点时,B 可在新主节点获取锁,导致并发问题
  3. redis集群脑裂,导致出现多个主节

Redis 使用注意事项

大 Key、热 Key

大 Key 的定义

数据类型大 Key 标准
String类型value的字节数大于10KB即为大key
Hash/Set/Zset/list等复杂数据结构类型元素个数大于5000个或总value字节数大于10MB即为大key

大 Key 的危害

  • 读取成本高
  • 容易导致慢查询(过期、删除)
  • 主从复制异常,服务阻塞无法正常响应请求

业务侧使用大 Key 的表现

  • 请求 Redis 超时报错

消除大 Key 的方法

  1. 拆分

    将大key拆分为小key。例如一个String拆分成多个String

  2. 压缩

    将value压缩后写入redis,读取时解压后再使用。压缩算法可以是gzip、snappy、lz4等。通常情况下,一个压缩算法压缩率高、则解压耗时就长。需要对实际数据进行测试后,选择一个合适的算法。如果存储的是JSON字符串,可以考虑使用MessagePack进行序列化。

  3. 集合类结构hash、list、set、zset

    • 拆分:可以用hash取余、位掩码的方式决定放在哪个key中
    • 区分冷热:如榜单列表场景使用zset,只缓存前10页数据,后续数据走db

热 Key 的定义

用户访问一个Key的QPS特别高,导致Server实例出现CPU负载突增或者不均的情况。热key没有明确的标准,QPS 超过500 就有可能被识别为热Key

解决热 Key 的方法

  1. 设置 Localcache

    在访问Redis前,在业务服务侧设置Localcache,降低访问Redis的QPS。LocalCache中缓存过期或未命中,则从Redis中将数据更新到LocalCache。Java的Guava、Golang的Bigcache就是这类LocalCache

  2. 拆分

    将key : value这一个热Key复制写入多份,例如key1 : value ,key2 : value,访问的时候访问多个key,但value是同一个,以此将qps分散到不同实例上,降低负载。代价是,更新时需要更新多个key,存在数据短暂不一致的风险

  3. 使用Redis代理的热Key承载能力

    字节跳动的Redis访问代理就具备热Key承载能力。本质上是结合了"热Key发现"、"LocalCache"两个功能

慢查询场景

  1. 批量操作一次性传入过多的key/value,如mset/hmset/sadd/zadd等o(n)操作 建议单批次不要超过100,超过100之后性能下降明显。
  2. zset大部分命令都是o(log(n)),当大小超过5k以上时,简单的zadd/zrem也可能导致慢查询
  3. 操作的单个value过大,超过10KB。也即,避免使用大 Key
  4. 对大key的delete/ expire操作也可能导致慢查询,Redis4.0之前不支持异步删除unlink,大key删除会阻塞Redis

缓存穿透、缓存雪崩

缓存穿透:热点数据查询绕过缓存,直接查询数据库

缓存雪崩:大量缓存同时过期

缓存穿透的危害

  • 查询一个一定不存在的数据

    通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击,那么容易导致db响应慢甚至宕机

  • 缓存过期时

    在高并发场景下,一个热key如果过期.会有大量请求同时击穿至db,容易影响db性能和稳定。

    同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢.甚至出现db无法响应新的查询

如何减少缓存穿透

  • 缓存空值

    如一个不存在的userID。这个id在缓存和数据库中都不存在。则可以缓存一个空值,下次再查缓存直接反空值。

  • 布隆过滤器

    通过bloom filter算法来存储合法Key,得益于该算法超高的压缩率,只需占用极小的空间就能存储大量key值

    5 分钟搞懂布隆过滤器,亿级数据过滤算法你值得拥有!

如何避免缓存雪崩

  • 分散缓存失效时间

    将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间

    可以设置为10分1秒过期,10分23秒过期,10分8秒过期。单位秒部分就是随机时间。这样过期时间就分散了对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些。

  • 使用缓存集群

    避免单机宕机造成的缓存雪崩。