Redis实现分布式锁

522 阅读3分钟

​ 本文已参与【新人创作礼】活动,一起开启掘金创作之路。

目录

一、问题描述

二、实现方式

三、优化之设置锁的过期时间

四、优化之 UUID 防误删

五、优化之 LUA 脚本保证删除的原子性 

六、总结 


一、问题描述

随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的 Java API 并不能提供分布式锁的能力。为了解决这个问题就需要一种跨 JVM 的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!

分布式锁主流的实现方案:

  1. 基于数据库实现分布式锁
  2. 基于缓存(Redis 等)
  3. 基于 Zookeeper

每一种分布式锁解决方案都有各自的优缺点:

  1. 性能:redis 最高
  2. 可靠性:zookeeper 最高

二、实现方式

  • EX second :设置键的过期时间为 second 秒。
  • SET key value EX second 效果等同于SETEX key second value 。
  • NX :只在键不存在时,才对键进行设置操作。
  • SET key value NX 效果等同于 SETNX key value 。

​编辑

  1. 多个客户端同时获取锁(setnx)
  2. 获取成功,执行业务逻辑{从 db 获取数据,放入缓存},执行完成释放锁(del)
  3. 其他客户端等待重试 
@GetMapping("testLock")
public void testLock(){
    //1 获取锁,setne
    Boolean lock =  redisTemplate.opsForValue().setIfAbsent( "lock",  "111");

    //2 获取锁成功、查询 num 的值
    if(lock){
        Object value =  redisTemplate.opsForValue().get( "num");
        int num = Integer.parseInt(value+ "");
        redisTemplate.opsForValue().set("num", ++num);
        //释放锁
        redisTemplate.delete( "lock");
    } else{
    //3 获取锁失败、每隔 0.1 秒再获取
        try {
            Thread. sleep (100);
            testLock();
        }  catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

重启,服务集群,通过redis自带的网关压力测试:

ab -n 1000 -c 100 http://192.168.140.1:8080/test/testLock

-n 1000次

-c 100个并发 

​编辑

查看 redis 中 num 的值: 

​编辑

问题:setnx 刚好获取到锁,业务逻辑出现异常,导致锁无法释放

三、优化之设置锁的过期时间

设置过期时间有两种方式:

  1. 首先想到通过 expire 设置过期时间(缺乏原子性:如果在 setnx 和 expire 之间出现异常,锁也无法释放)
setnx k1 v1
expire k1 100

  1. 在 set 时指定过期时间(推荐)
set k1 v1 EX 100 NX

 ​编辑

​编辑 场景:如果业务逻辑的执行时间是 7s。执行流程如下

  1. index1 业务逻辑没执行完,3 秒后锁被自动释放。
  2. index2 获取到锁,执行业务逻辑,3 秒后锁被自动释放。
  3. index3 获取到锁,执行业务逻辑
  4. index1 业务逻辑执行完成,开始调用 del 释放锁,这时释放的是 index3 的锁,

导致 index3 的业务只执行 1s 就被别人释放。最终等于没锁的情况。

四、优化之 UUID 防误删

​编辑

​编辑

场景:

  1. index1 执行删除时,查询到的 lock 值确实和 uuid 相等
  2. index1 执行删除前,lock 刚好过期时间已到,被 redis 自动释放
  3. index2 获取了 lock
  4. index1 执行删除,此时会把 index2 的 lock 删除

问题:删除操作缺乏原子性。

五、优化之 LUA 脚本保证删除的原子性 

@GetMapping( "testLockLua")
public void testLockLua() {
    String uuid = UUID. randomUUID ().toString();
    //定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
    String skuId =  "25";  // 访问 skuId 为 25 号的商品 100008348542
    String locKey =  "lock:" + skuId;  // 锁住的是每个商品的数据
    Boolean lock =  redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit. SECONDS );
    if (lock) {
        Object value =  redisTemplate.opsForValue().get( "num");
        int num = Integer. parseInt (value +  "");
        redisTemplate.opsForValue().set( "num", String. valueOf (++num));
        // 定义 lua 脚本
        String script =  "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
        // 使用 redis 执行 lua 执行
        DefaultRedisScript<Long> redisScript =  new DefaultRedisScript<>();
        redisScript.setScriptText(script);
        // 设置一下返回值类型 为 Long
        // 因为删除判断的时候,返回的 0,给其封装为数据类型。如果不封装那么默认返回 String 类型,
        // 那么返回字符串与 0 会有发生错误。
        redisScript.setResultType(Long. class);
        // 第一个script 脚本 ,第二个是 key,第三个就是 key 所对应的值。
        redisTemplate.execute(redisScript, Arrays.asList (locKey), uuid);
    }  else {
        try {
            Thread. sleep (1000);
            testLockLua();
        }  catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

Lua 脚本详解:  

​编辑

六、总结 

三步骤

  1. 加锁
  2. 使用 lua 释放锁
  3. 失败重试

为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件

  • 互斥性。在任意时刻,只有一个客户端能持有锁。
  • 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁。
  • 加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了。
  • 加锁和解锁必须具有原子性。