Redis 介绍和注意事项 | 青训营

127 阅读7分钟

前言

  首先在上本节课之前,你需要配置好电脑的环境,并且安装好 Redis​ 和 课程的源代码

1.Redis 是什么

为什么我们需要 Redis?

  • 数据从单表,演进出了分库分表

  • MySQL 从单机演进出了集群

    导致出现

    1. 数据量的增加
    2. 读写数据压力的不断增加
    3. MySQL 做实时查询,在高QPS性能受限,导致在需要高QPS的业务环境(秒杀活动),MySQL不能胜任
  • 数据分冷热

    • 热数据:经常被访问的数据

      将热数据存储进内存中,使用 Redis

    • 冷数据:与热数据相反,是不经常访问的数据,适合使用 MySQL 进行存储

  从这我们也不难看出 MySQL​ 和 Redis​ 之间的区别

  1、Mysql​ 是关系型数据库,主要用于存放持久数据,将数据存放在硬盘中,读取速度相对较慢。

  2、Redis​ 是NOSQL数据库,即非关系型数据库,也是缓存数据库,即将数据存储在内存中,缓存的读取速度快,能够大大的提高运行效率,但是保存时间有限。

  那么 Redis​ 很快,但是他把数据存储在内存中,而我们又知道,内存有着断电后数据不会保存的缺点。

  那怎么样才能使得 Redis 保存的数据时间更久呢?(Redis​ 持久化)这就需要我们了解Redis​的基本工作原理。

Redis 的基本工作原理?

  • 数据从内存中读写

  • 数据保存到硬盘上防止重启数据丢失,有俩种方式实现

    • 增量数据保存到 AOF - appendonly.aof 文件

      Redis-Sever​ 会在服务进程读写时产生一条日志

    • 全量数据 RDB 文件,保存当前 Redis 实例的所有命令

      RDB 是 Redis​​的一种数据持久化到磁盘的策略,是一种以内存快照形式保存Redis数据的方式。所谓快照,就是把某一时刻的状态以文件的形式进行全量备份到磁盘,这个快照文件就称为RDB文件,其中RDB是Redis DataBase的缩写。

  • 单线程处理所有操作命令

    Redis​服务器发送命令 eg: GET KEY 1​ 和 GEY KEY 2​ ,在之前的并发课程中我们有聊过,单线程处理执行命令讲究顺序执行,谁先到达 Redis​ 服务器先执行哪个。

2.Redis 使用注意事项

  那么学习完 Redis​的基本原理,我们也需要知道在业务环境中使用 Redis​ 有哪些是想着值得我们关注

大 Key

什么是大 Key?

  按照数据类型

  1. String​ 类型 value的字节数大于10KB 即为大key
  2. Hash​ / Set​ / Zset​ / list​ 等 复杂数据结构类型元素个数大于5000个总value字节数大于10MB ​即为大key

大 Key 有什么危害?

  • 读取成本高
  • 容易导致慢查询(过期、删除)
  • 主从复制异常,服务阻塞无法正常响应请求
  • 业务侧使用大Key的表现:请求 Redis 超时报错

消除大 Key 的方法

  1. 拆分

    将大 KEY 拆分为 小 KEY。例如一个 string​​ 拆分成多个 string​​

  2. 压缩

    将value压缩后写入redis,读取时解压后再使用。压缩算法可以是gzip、snappy、Iz4等。通常情况下
    一个压缩算法压缩率高、则解压耗时就长。需要对实际数据进行测试后,选择一个合适的算法。
    如果存储的是JSON字符串,可以考虑使用MessagePack进行序列化

    ​​

  3. 集合类结构 hash​​、list​​、set​​

    • 拆分:可以用 hash​​ 取余、位掩码的方式决定放在哪个 key 中
    • 区分冷热:如榜单列表场景使用 zest​​ ,只缓存观众经常观看的前10页榜单数据,后续数据走 db​​

热 Key

什么是热 Key?

  用户访问一个 Key 的 QPS 特别高,导致 Server 实例出现 CPU负载突增或者不均的情况。

  热 Key 并没有明确的判断标准,QPS 超过500就有可能被识别为 热 Key

解决方法

  1. 设置 Localcache

    这种方法Redis​的性能无法满足需要时使用。

    操作原理是在访问 Redis​ 前,在业务服务侧设置一个本地缓存 Localcache​ ,以此来降低访问 Redis​ 的 QPS。

    如果 Localcache​ 中缓存过期或未命中,则从 Redis​ 中将数据更新到 Localcache​。Java 的 Guava、Golang 的 Bigcache 就是这一类 ​Localcache

    • 如果 lcalcache​ 中的数据 和 Redis​ 的数据冲突怎么办?

      需要我们是用缓存过期管理,在缓存过期之后再从 Redis​中读取数据进行缓存

  2. 拆分

    将KV对 (Key:Value​)这一个 热 Key 复制写入多份,例如 Key1:Value​ 、Key2:Value​,访问的时候访问多个 key,但value是同一个,以此将QPS分散到不同实例上,降低负载

    Warning:这样做的代价是,更新一个数据时需要更新多个KV对,存在数据短暂不一致的风险,需要保证拆分后KV对更新成功。

  3. 使用 Redis​ 代理的 热key 承载能力

    对于多业务环境,使用 设置 Localcache​ 的方法并无现实,需要操作的步骤较多。如果能够及时的发现 热 Key ,再及时的对其进行处理 Localcache

慢查询场景

  容易导致 Redis​ 慢查询的操作

  1. 批量操作一次性传入过多的key​/value​,如mset​/hmset​/sadd/zadd等O(n)操作

    建议单批次不要超过100,超过100之后性能下降明显。

  2. zset​大部分命令都是O(log(n)),当大小超过 5 k 以上时,简单的 zadd​/zrem​ 也可能导致慢查询

  3. 操作的单个value过大,超过10KB。也即,避免使用大Key

  4. 对大key的 delete/expire​ 操作也可能导致慢查询,Redis​ 4.0之前不支持异步删除 unlink​,大key删除会阻塞 Redis

缓存穿透、缓存雪崩

名词定义

缓存穿透:热点数据查询绕过缓存,直接查询数据库

缓存雪崩:大量缓存在同时过期,导致很多请求落在数据库上

  • 缓存穿透和缓存雪崩的危害

    1. 查询一个一定不存在的数据

      通过查询通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击,那么容易导致db响应慢甚至岩机

    2. 批量缓存过期时

      在高并发场景下,一个热key如果过期,会有大量请求同时击穿至db,容易影响db性能和稳定。
      同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢,甚至出现db无法响应新的查询

解决方案

  • 如何减少缓存穿透

    1. 缓存空值

      如一个不存在的userlID。这个id在缓存和数据库中都不存在。则可以缓存一个空值,下次再查缓存直接反空值。

    2. 布隆过滤器

      通过 bloom filter​ 算法来存储合法Key,得益于该算法超高的压缩率,只需占用极小的空间就能存储大量key值

  • 如何避免缓存雪崩

    1. 缓存空值

      将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间。

      可以设置为10分1秒过期,10分23秒过期,10分8秒过期。单位秒部分就是随机时间,这样过期时间就分散了

      对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些。

    2. 使用缓存集群,避免单机岩机造成的缓存雪崩。

  ‍