10 Redis| 青训营

102 阅读11分钟

10 Redis

1 Redis 简介

传统的关系型数据库如Mysql已经不能适用所有的场景了,比如秒杀的库存扣减,APP首页的访问流量高峰等等,都很容易把数据库打崩,所以引入了缓存中间件

  • 缓存系统,减轻主数据库(MySQL)的压力。
  • 计数场景,比如微博、抖音中的关注数和粉丝数。
  • 热门排行榜,需要排序的场景特别适合使用ZSET。
  • 利用LIST可以实现队列的功能。

缓存系统(“热点”数据:高频读、低频写)、计数器、消息队列系统、排行榜、社交网络和实时系统。

1.1 背景

  • 数据从单表,演进出了分库分表 2023-08-08-15-15-28.png
  • MySoL从单机演进出了集群
    • 数据量增长
    • 读写数据压力的不断增加
    • 高QPS下MYSQL支撑不住
  • 数据分冷热
    • 热数据:经常被访问到的数据
    • 将热数据存储到内存中

2023-08-08-15-18-10.png

1.2 Redis 基本原理

2023-08-08-15-23-44.png

  • 数据从内存中读写
  • 数据保存到硬盘上防止重启数据丢失
    • 增量数据保存到AOF文件 Appendonly.aof.incr.aof
    • 全量数据RDB文件 dump.rdb
  • 单线程处理所有操作命令
    2023-08-08-15-31-38.png

2 Redis 应用案例

2.1 数据结构

command

类型简介特性场景
String(字符串)二进制安全可以包含任何数据,比如jpg图片或者序列化的对象,一个键最大能存储512M单值缓存 对象缓存 计数器 分布式锁
Hash(字典)键值对集合,即编程语言中的Map类型适合存储对象,并且可以像数据库中update一个属性一样只修改某一项属性值(Memcached中需要取出整个字符串反序列化成对象修改完再序列化存回去)存储、读取、修改用户属性 缓存对象信息(帖子标题、摘要、作者信息) 记录帖子的点赞数、评论数和点击数 电商购物车
List(列表)链表(双向链表)增删快,提供了操作某一段元素的API1,最新消息排行等功能(比如朋友圈的时间线) 2,消息队列 3.文章列表 微博和微信公众号消息
Set(集合)哈希表实现,元素不重复1、添加、删除,查找的复杂度都是O(1) 2、为集合提供了求交集、并集、差集等操作1、共同好友 2、利用唯一性,统计访问网站的所有独立ip 3、好友推荐时,根据tag求交集,大于某个阈值就可以推荐 4 抽奖
Sorted Set(有序集合)将Set中的元素增加一个权重参数score,元素按score有序排列数据插入集合时,已经进行天然排序1、排行榜 2、带权重的消息队列 博客社区本周热议

string

数据结构-sds

不同于语言中的string,二进制安全(redis的string 可以包含任何数据) 节省空间 读写迅速

  • 可以存储字符串、数字、二进制数据
  • 通常和expire配合使用
  • 场景:存储计数、Session

2023-08-08-15-57-04.png 元信息:alue长度 分配空间长度 value类型

list数据结构 - quicklist

一个每个子元素都是 string 类型的双向链表,主要功能是push、pop、获取一个范围的所有值等。 增删快,提供了操作某一段元素的API

Quicklist由一个双向链表和listpack实现 2023-08-08-16-14-52.png 2023-08-08-16-22-38.png

hash数据结构 - dict

hash是一个string类型的field和value的映射表 rehash:扩容

  • rehash: rehash操作是将ht[0]中的数据.全部迁移到ht[1]中。数据量小的场景下,直接将数据从ht[0]拷贝到ht[1]速度是较快的。数据量大的场景,例如存有上百万的KV时,迁移过程将会明显阻塞用户请求。
  • 渐进式rehash(数据拷贝时不阻塞用户 ):为避免出现这种情况,使用了rehash方案。基本原理就是,每次用户访问时都会迁移少量数据。将整个迁移过程,平摊到所有的访问用户请求过程中。

2023-08-08-16-47-24.png

zset数据结构 - zskiplist

  • 查找数字7的路径,head,3,3,7
  • 结合dict后,可实现通过key操作跳表的功能 ZINCRBY myzset 2 "Alex" ZSCORE myzset "Alex"

2023-08-08-16-56-17.png 2023-08-08-16-59-06.png

2.2 实际应用场景

source

连续签到

用户每日有一次签到的机会,如果断签,连续签到计数将归0。

连续签到的定义:每天必须在23:59:59前签到

  • String
  • Key: cc_uid_1165894833417101
  • value: 252
  • expireAt:后天的0点(利用过期来清空连续签到)
// Ex01 连续签到天数
func Ex01(ctx context.Context, params []string) {
	if userID, err := strconv.ParseInt(params[0], 10, 64); err == nil {
		addContinuesDays(ctx, userID)
	} else {
		fmt.Printf("参数错误, params=%v, error: %v\n", params, err)
	}
}

// addContinuesDays 为用户签到续期
func addContinuesDays(ctx context.Context, userID int64) {
    key := fmt.Sprintf(continuesCheckKey, userID)
	// 1. 连续签到数+1
	err := RedisClient.Incr(ctx, key).Err()
	if err != nil {
        fmt.Errorf("用户[%d]连续签到失败", userID)
	} else {
		expAt := beginningOfDay().Add(48 * time.Hour)
		// 2. 设置签到记录在后天的0点到期
		if err := RedisClient.ExpireAt(ctx, key, expAt).Err(); err != nil {
			panic(err)
		} else {
			// 3. 打印用户续签后的连续签到天数
			day, err := getUserCheckInDays(ctx, userID)
			if err != nil {
				panic(err)
			}
			fmt.Printf("用户[%d]连续签到:%d(天), 过期时间:%s", userID, day, expAt.Format("2006-01-02 15:04:05"))
		}
	}
}

消息通知

  • 用list作为消息队列

  • 场景:消息通知。

    例如当文章更新时,将更新后的文章推送到ES,用户就能搜索到最新的文章数据

2023-08-08-16-04-56.png

计数

一个用户有多项计数需求,可通过hash结构存储 2023-08-08-16-24-29.png

排行榜

积分变化时,排名要实时变更;

同时大批量访问排序

跳列表 hash 2023-08-08-17-01-26.png

限流

要求1秒内放行的请求为N,超过N则禁止访问

  • Key: comment_freq_limit_1671356046
  • 对这个Key调用incr,超过限制N则禁止访问
  • 1671356046是当前时间戳

2023-08-08-17-03-46.png

分布式锁

并发场景,要求一次只能有一个协程执行。执行完成后,其它等待中的协程才能执行。(eg.秒杀)

可以使用redis的setnx实现,利用了两个特性:

  • Redis是单线程执行命令
  • setnx只有未设置过才能执行成功

2023-08-08-17-11-13.png

const resourceKey = "syncKey"      // 分布式锁的key
const exp = 800 * time.Millisecond // 锁的过期时间,避免死锁

// EventLog 搜集日志的结构
type EventLog struct {
	eventTime time.Time
	log       string
}

// Ex02Params Ex02的自定义函数
type Ex02Params struct {
}

// Ex02 只是体验SetNX的特性,不是高可用的分布式锁实现
// 该实现存在的问题:
// (1) 业务超时解锁,导致并发问题。业务执行时间超过锁超时时间
// (2) redis主备切换临界点问题。主备切换后,A持有的锁还未同步到新的主节点时,B可在新主节点获取锁,导致并发问题。
// (3) redis集群脑裂,导致出现多个主节点
func Ex02(ctx context.Context) {
	eventLogger := &common.ConcurrentEventLogger{}
	// new一个并发执行器
	cInst := common.NewConcurrentRoutine(10, eventLogger)
	// 并发执行用户自定义函数work
	cInst.Run(ctx, Ex02Params{}, ex02Work)
	// 按日志时间正序打印日志
	eventLogger.PrintLogs()
}

func ex02Work(ctx context.Context, cInstParam common.CInstParams) {
	routine := cInstParam.Routine
	eventLogger := cInstParam.ConcurrentEventLogger
	defer ex02ReleaseLock(ctx, routine, eventLogger)
	for {
		// 1. 尝试获取锁
		// exp - 锁过期设置,避免异常死锁
		acquired, err := RedisClient.SetNX(ctx, resourceKey, routine, exp).Result() // 尝试获取锁
		if err != nil {
			eventLogger.Append(common.EventLog{
				EventTime: time.Now(), Log: fmt.Sprintf("[%s] error routine[%d], %v", time.Now().Format(time.RFC3339Nano), routine, err),
			})
			panic(err)
		}
		if acquired {
			// 2. 成功获取锁
			eventLogger.Append(common.EventLog{
				EventTime: time.Now(), Log: fmt.Sprintf("[%s] routine[%d] 获取锁", time.Now().Format(time.RFC3339Nano), routine),
			})
			// 3. sleep 模拟业务逻辑耗时
			time.Sleep(10 * time.Millisecond)
			eventLogger.Append(common.EventLog{
				EventTime: time.Now(), Log: fmt.Sprintf("[%s] routine[%d] 完成业务逻辑", time.Now().Format(time.RFC3339Nano), routine),
			})
			return
		} else {
			// 没有获得锁,等待后重试
			time.Sleep(100 * time.Millisecond)
		}
	}
}

func ex02ReleaseLock(ctx context.Context, routine int, eventLogger *common.ConcurrentEventLogger) {
	routineMark, _ := RedisClient.Get(ctx, resourceKey).Result()
	if strconv.FormatInt(int64(routine), 10) != routineMark {
		// 其它协程误删lock
		panic(fmt.Sprintf("del err lock[%s] can not del by [%d]", routineMark, routine))
	}
	set, err := RedisClient.Del(ctx, resourceKey).Result()
	if set == 1 {
		eventLogger.Append(common.EventLog{
			EventTime: time.Now(), Log: fmt.Sprintf("[%s] routine[%d] 释放锁", time.Now().Format(time.RFC3339Nano), routine),
		})
	} else {
		eventLogger.Append(common.EventLog{
			EventTime: time.Now(), Log: fmt.Sprintf("[%s] routine[%d] no lock to del", time.Now().Format(time.RFC3339Nano), routine),
		})
	}
	if err != nil {
		fmt.Errorf("[%s] error routine=%d, %v", time.Now().Format(time.RFC3339Nano), routine, err)
		panic(err)
	}
}

该实现存在的问题:

(1) 业务超时解锁,导致并发问题。业务执行时间超过锁超时时间

(2) redis主备切换临界点问题。主备切换后,A持有的锁还未同步到新的主节点时,B可在新主节点获取锁,导致并发问题。

(3) redis集群脑裂,导致出现多个主节点

3 Redis 使用的注意事项

3.1 大key

2023-08-08-17-24-34.png

  • 大Key的危害
    • 读取成本高
    • 容易导致慢查询(过期、删除 释放也很耗时)
    • 主从复制异常,服务阻塞,无法正常响应请求
  • 业务侧使用大Key的表现: 请求Redis超时报错

2023-08-08-17-26-27.png

消除大key的方法

  • 拆分

    将大key拆分为小key。例如一个String拆分成多个String(业务逻辑复杂 解析耗时) 2023-08-08-17-33-02.png

  • 压缩(优先)

    将value压缩后写入redis,读取时解压后再使用。压缩算法可以是gzip、snappy、lz4等。通常情况下,一个压缩算法压缩率高、则解压耗时就长。需要对实际数据进行测试后,选择一个合适的算法

    如果存储的是JSON字符串,可以考虑使用MessagePack进行序列化(较少对齐浪费的空间?)

  • 集合类结构hash、list、set、set

    拆分:可以用hash取余、位掩码的方式决定放在哪个Key中

    区分冷热:如榜单列表场景使用zset,只缓存前10页数据,后续数据走db

3.2 热key

热Key的定义: 用户访问一个Key的QPS特别高,导致对应Server实例出现CPU负载突增或者不均的情况。热key没有明确的标准,QPS超过500就有可能被识别为热Key 2023-08-08-17-40-27.png

解决热Key的方法

  • 设置Localcache

    在访问Redis前,在业务服务侧设置Localcache,降低访问Redis的QPS。LocalCache中缓存过期或未命中,则从Redis中将数据更新到LocalCache。Java的Guava、Golang的Bigcache就是这类LocalCache
    2023-08-08-17-42-01.png

  • 拆分

    将keyvalue这一个热Key复制写入多份,例如key1.value,key2:value,访问的时候访问多个key,但value是同一个.以此将qps分散到不同实例上,降低负载。代价是,更新时需要更新多个key,存在数据短暂不一致的风险 2023-08-08-17-43-52.png

  • 使用Redis代理的热Key承载能力

    字节跳动的Redis访问代理就具备热Key承载能力。本质上是结合了"热Key发现"、"LocalCache"两个功能 2023-08-08-17-45-01.png

3.3 慢查询

容易导致redis慢查询的操作:

  • 批量操作一次性传入过多的key/value,如mset/hmset/sadd/zadd等O(n)操作 建议单批次不要超过100,超过100之后性能下降明显。
  • zset大部分命令都是O(log(n))、当大小超过5k以上时,简单的zadd/zrem也可能导致慢查询
  • 操作的单个value过大,超过10KB。也即,避免使用大Key
  • 对大key的delete/expire操作也可能导致慢查询,Redis4.0之前不支持异步删除unlink,大key删除会阻塞Redis

3.4 缓存穿透、缓存雪崩

  • 缓存穿透:热点数据查询绕过缓存,直接查询数据库
  • 缓存雪崩:大量缓存同时过期

缓存穿透的危害

  • 查询一个一定不存在的数据 通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击,那么容易导致db响应慢甚至宕机
  • 缓存过期时 批量缓存过期导致缓存穿透 在高并发场景下,一个热key如果过期,会有大量请求同时击穿至db,容易影响db性能和稳定。 同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢,甚至出现db无法响应新的查询

如何减少缓存穿透

  • 缓存空值 如一个不存在的userlD。这个id在缓存和数据库中都不存在。则可以缓存一个空值,下次再查缓存直接反空值。
  • 布隆过滤器 通过bloom filter算法来存储合法Key,得益于该算法超高的压缩率,只需占用极小的空间就能存储大量key值。对于请求,先访问过滤器查询key是否存在

如何避免缓存雪崩

  • 缓存空值 将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间,可以设置为10分1秒过期,10分23秒过期,10分8秒过期。单位秒部分就是随机时间,这样过期时间就分散了。 对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些。
  • 使用缓存集群,避免单机宕机造成的缓存雪崩。