Dubbo源码---集群容错之LoadBalance

93 阅读9分钟

简介

LoadBalance 中文意思为负载均衡,它的职责是将网络请求,或者其他形式的负载“均摊”到不同的机器上。避免集群中部分服务器压力过大,而另一些服务器比较空闲的情况。通过负载均衡,可以让每台服务器获取到适合自己处理能力的负载。在为高负载服务器分流的同时,还可以避免资源浪费,一举两得。负载均衡可分为软件负载均衡和硬件负载均衡。在我们日常开发中,一般很难接触到硬件负载均衡。但软件负载均衡还是可以接触到的,比如 Nginx。在 Dubbo 中,也有负载均衡的概念和相应的实现。Dubbo 需要对服务消费者的调用请求进行分配,避免少数服务提供者负载过大。服务提供者负载过大,会导致部分请求超时。因此将负载均衡到每个服务提供者上,是非常必要的。Dubbo 提供了4种负载均衡实现,分别是基于权重随机算法的 RandomLoadBalance、基于最少活跃调用数算法的 LeastActiveLoadBalance、基于 hash 一致性的 ConsistentHashLoadBalance,以及基于加权轮询算法的 RoundRobinLoadBalance。

源码

先来看下LoadBalace的继承体系

image.png

从上面的继承图可知,LoadBalance#select方法在AbstractLoadBalance中实现,而其子类则实现了其doSelect方法,先来看下AbstractLoadBalance:

public <T> Invoker<T> select(List<Invoker<T>> invokers, URL url, Invocation invocation) {
    // 判空
    if (CollectionUtils.isEmpty(invokers)) {
        return null;
    }
    // 只有一个provider直接返回
    if (invokers.size() == 1) {
        return invokers.get(0);
    }
    // 执行doSelect逻辑,此方法由子类实现
    return doSelect(invokers, url, invocation);
}
​
protected abstract <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation);

AbstractLoadBalance#select方法首先是进行了判空处理,之后判断是否只有一个provider,是的话直接返回,否则继续执行doSelect方法,有子类实现。AbstractLoadBalance除了select方法外,例外还有getWeight方法,用于获取provider的权重:

int getWeight(Invoker<?> invoker, Invocation invocation) {
    int weight;
    URL url = invoker.getUrl();
    // 多注册中心场景,多个注册中心之间的负载平衡。
    if (REGISTRY_SERVICE_REFERENCE_PATH.equals(url.getServiceInterface())) {
        weight = url.getParameter(REGISTRY_KEY + "." + WEIGHT_KEY, DEFAULT_WEIGHT);
    } else {
        // 从 url 中获取权重 weight 配置值
        weight = url.getMethodParameter(invocation.getMethodName(), WEIGHT_KEY, DEFAULT_WEIGHT);
        if (weight > 0) {
            // 获取服务提供者启动时间戳
            long timestamp = invoker.getUrl().getParameter(TIMESTAMP_KEY, 0L);
            if (timestamp > 0L) {
                // 计算服务提供者运行时长
                long uptime = System.currentTimeMillis() - timestamp;
                if (uptime < 0) {
                    return 1;
                }
                // 获取服务预热时间,默认为10分钟
                int warmup = invoker.getUrl().getParameter(WARMUP_KEY, DEFAULT_WARMUP);
                // 如果服务运行时间小于预热时间,则重新计算服务权重,即降权
                if (uptime > 0 && uptime < warmup) {
                    // 重新计算服务权重
                    weight = calculateWarmupWeight((int)uptime, warmup, weight);
                }
            }
        }
    }
    return Math.max(weight, 0);
}

上面是权重的计算过程,该过程主要用于保证当服务运行时长小于服务预热时间时,对服务进行降权,避免让服务在启动之初就处于高负载状态。服务预热是一个优化手段,与此类似的还有 JVM 预热。主要目的是让服务启动后“低功率”运行一段时间,使其效率慢慢提升至最佳状态,此方法做了以下几件事:

  1. 如果为多注册中心,获取invoker#ur#parametersl中key为“registry.weight”的值,即为该provider的权重(默认为100)并返回

  2. 通过invoker#url#methodNumbers中方法名为Invocation#methodName的参数,并获取该参数中key为“weight”的值,即为该provider的权重(默认为100)

    1. 如果上面获取的权重大于0,执行以下操作:

      1. 获取provider启动的时间戳
      2. 计算该provider的运行时长,如果小于0,直接返回权重为1
      3. 获取服务预热时间,默认为10,可通过URL#params修改其值
      4. 如果服务运行时间小于预热时间,重新计算服务权重

权重计算规则规则如下:

static int calculateWarmupWeight(int uptime, int warmup, int weight) {
    int ww = (int) ( uptime / ((float) warmup / weight));
    return ww < 1 ? 1 : (Math.min(ww, weight));
}

翻译计算公式:ww=服务运行时长/(服务预热时间/服务权重),如果ww小于1返回1,否则返回ww和服务权重中的小值。

  1. provider-a权重设置为100,其服务预热时间为10分钟,运行时长为20分钟,则provider-a最终的权重为100
  2. provider-a权重设置为100,其服务预热时间为10分钟,运行时长为5分钟,则provider-b最终的权重为5/(10/100)=50。
  3. provider-c权重设置为100,其服务预热时间为10分钟,运行时长为0分钟,则provider-c最终的权重为0/(10/100)<1,取1
  4. Provider-d权重设置为100,其服务预热时间为10分钟,运行时长小于0分钟,该情况会出现在provider与consumer所在的服务的时间不一致,该情况下provider-d最终的权重为1

由上面的分析可看吹,当provider的运行时长小于服务预热时间时,运行时长越长,其权重越大;当运行时长大于或等于服务预热时间时,其权重为provider设置的权重,下面我们具体来看下各子类的实现

RandomLoadBalance

RandomLoadBalance 是加权随机算法的具体实现,它的算法思想很简单。假设我们有一组服务器 servers = [A, B, C],他们对应的权重为 weights = [5, 3, 2],权重总和为10。现在把这些权重值平铺在一维坐标值上,[0, 5) 区间属于服务器 A,[5, 8) 区间属于服务器 B,[8, 10) 区间属于服务器 C。接下来通过随机数生成器生成一个范围在 [0, 10) 之间的随机数,然后计算这个随机数会落到哪个区间上。比如数字3会落到服务器 A 对应的区间上,此时返回服务器 A 即可。权重越大的机器,在坐标轴上对应的区间范围就越大,因此随机数生成器生成的数字就会有更大的概率落到此区间内。只要随机数生成器产生的随机数分布性很好,在经过多次选择后,每个服务器被选中的次数比例接近其权重比例。比如,经过一万次选择后,服务器 A 被选中的次数大约为5000次,服务器 B 被选中的次数约为3000次,服务器 C 被选中的次数约为2000次。

以上就是 RandomLoadBalance 背后的算法思想,比较简单。下面开始分析源码:

protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) {
    // invoker的size
    int length = invokers.size();
    // 每个invoker是否具体相同的权重(weight)
    boolean sameWeight = true;
    // 每个invoker的权重数组
    int[] weights = new int[length];
    // 获取第一个invoker的权重
    int firstWeight = getWeight(invokers.get(0), invocation);
    weights[0] = firstWeight;
    // 所有invoker权重的和
    int totalWeight = firstWeight;
    for (int i = 1; i < length; i++) {
        // 获取invoker的权重
        int weight = getWeight(invokers.get(i), invocation);
        // 保存到数组
        weights[i] = weight;
        // 权重和
        totalWeight += weight;
        // 判断每个invoker的权重是否相同
        if (sameWeight && weight != firstWeight) {
            sameWeight = false;
        }
    }
    // 总权重大于0且每个invoker的权重不同
    if (totalWeight > 0 && !sameWeight) {
        // If (not every invoker has the same weight & at least one invoker's weight>0), select randomly based on totalWeight.
        // 如果(不是每个调用者都有相同的权重&至少一个调用者的权重>0),根据totalWeight随机选择
        int offset = ThreadLocalRandom.current().nextInt(totalWeight);
        // 循环让 offset 数减去服务提供者权重值,当 offset 小于0时,返回相应的 Invoker。
        // 举例说明一下,我们有 servers = [A, B, C],weights = [5, 3, 2],offset = 7。
        // 第一次循环,offset - 5 = 2 > 0,即 offset > 5,
        // 表明其不会落在服务器 A 对应的区间上。
        // 第二次循环,offset - 3 = -1 < 0,即 5 < offset < 8,
        // 表明其会落在服务器 B 对应的区间上
        for (int i = 0; i < length; i++) {
            offset -= weights[i];
            if (offset < 0) {
                return invokers.get(i);
            }
        }
    }
    // 如果所有服务提供者权重值相同,此时直接随机返回一个即可
    return invokers.get(ThreadLocalRandom.current().nextInt(length));
}

RandomLoadBalance 的算法思想比较简单,在经过多次请求后,能够将调用请求按照权重值进行“均匀”分配。当然 RandomLoadBalance 也存在一定的缺点,当调用次数比较少时,Random 产生的随机数可能会比较集中,此时多数请求会落到同一台服务器上。这个缺点并不是很严重,多数情况下可以忽略。RandomLoadBalance 是一个简单,高效的负载均衡实现,因此 Dubbo 选择它作为缺省实现.

LeastActiveLoadBalance

LeastActiveLoadBalance 翻译过来是最小活跃数负载均衡。活跃调用数越小,表明该服务提供者效率越高,单位时间内可处理更多的请求。此时应优先将请求分配给该服务提供者。在具体实现中,每个服务提供者对应一个活跃数 active,初始情况下,所有服务提供者活跃数均为0。每收到一个请求,活跃数加1,完成请求后则将活跃数减1。在服务运行一段时间后,性能好的服务提供者处理请求的速度更快,因此活跃数下降的也越快,此时这样的服务提供者能够优先获取到新的服务请求、这就是最小活跃数负载均衡算法的基本思想。除了最小活跃数,LeastActiveLoadBalance 在实现上还引入了权重值。所以准确的来说,LeastActiveLoadBalance 是基于加权最小活跃数算法实现的。举个例子说明一下,在一个服务提供者集群中,有两个性能优异的服务提供者。某一时刻它们的活跃数相同,此时 Dubbo 会根据它们的权重去分配请求,权重越大,获取到新请求的概率就越大。如果两个服务提供者权重相同,此时随机选择一个即可。关于 LeastActiveLoadBalance 的背景知识就先介绍到这里,下面开始分析源码。

protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) {
    // invokers的数量
    int length = invokers.size();
    // 所有调用程序中最不活跃的值
    int leastActive = -1;
    // 具有相同“最小活跃数”的服务者提供者(以下用 Invoker 代称)数量
    int leastCount = 0;
    // leastIndexs 用于记录具有相同“最小活跃数”的 Invoker 在 invokers 列表中的下标信息
    int[] leastIndexes = new int[length];
    // 每个invoker的权重
    int[] weights = new int[length];
    // 所有最不活跃的调用者的预热权之和
    int totalWeight = 0;
    // 第一个最小活跃数的 Invoker 权重值,用于与其他具有相同最小活跃数的 Invoker 的权重进行对比,
    // 以检测是否“所有具有相同最小活跃数的 Invoker 的权重”均相等
    int firstWeight = 0;
    // 每个最不活跃的调用者都有相同的权重值?
    boolean sameWeight = true;
​
​
    // 过滤掉所有最不活跃的调用者
    for (int i = 0; i < length; i++) {
        Invoker<T> invoker = invokers.get(i);
        // 获取 Invoker 对应的活跃数
        int active = RpcStatus.getStatus(invoker.getUrl(), invocation.getMethodName()).getActive();
        // 获取调用者配置的权重。默认值为100。
        int afterWarmup = getWeight(invoker, invocation);
        // 保存以备以后使用
        weights[i] = afterWarmup;
        // 如果它是第一个调用者,或者调用者的活动数小于当前的最小活动数
        if (leastActive == -1 || active < leastActive) {
            // 将当前调用程序的活动数重置为最小的活动数
            leastActive = active;
            // 重置活动最少的调用程序的数量
            leastCount = 1;
            // 将第一个最不活跃的invoker放在least indexes中的第一个位置
            leastIndexes[0] = i;
            // 重置totalWeight
            totalWeight = afterWarmup;
            // 记录第一个最不活跃的invoker的权重
            firstWeight = afterWarmup;
            // 每个调用都具有相同的权重(这里只有一个invoker)
            sameWeight = true;
            // 如果当前调用者的活动值等于leaseActive,则进行累积。
        } else if (active == leastActive) {
            // 按最小索引的顺序记录活动最少的invoker的索引
            leastIndexes[leastCount++] = i;
            // 累计活动最少的invoker的总权重
            totalWeight += afterWarmup;
            // 如果每个调用者权重不同
            if (sameWeight && afterWarmup != firstWeight) {
                sameWeight = false;
            }
        }
    }
    // 从所有最不活跃的调用程序中选择一个调用程序
    if (leastCount == 1) {
        // 如果我们恰好有一个调用者具有最少的活动值,则直接返回这个调用者.
        return invokers.get(leastIndexes[0]);
    }
    if (!sameWeight && totalWeight > 0) {
        // 如果(不是每个调用者都有相同的权重&至少一个调用者的权重>0),根据totalWeight随机选择。
        int offsetWeight = ThreadLocalRandom.current().nextInt(totalWeight);
        // 循环让随机数减去具有最小活跃数的 Invoker 的权重值,
        // 当 offset 小于等于0时,返回相应的 Invoker
        for (int i = 0; i < leastCount; i++) {
            int leastIndex = leastIndexes[i];
            // 获取权重值,并让随机数减去权重值
            offsetWeight -= weights[leastIndex];
            if (offsetWeight < 0) {
                return invokers.get(leastIndex);
            }
        }
    }
    // // 如果权重相同或权重为0时,随机返回一个 Invoker
    return invokers.get(leastIndexes[ThreadLocalRandom.current().nextInt(leastCount)]);
}

上面代码的逻辑比较多,我们在代码中写了大量的注释,有帮助大家理解代码逻辑。下面简单总结一下以上代码所做的事情,如下:

  1. 遍历 invokers 列表,寻找活跃数最小的 Invoker
  2. 如果有多个 Invoker 具有相同的最小活跃数,此时记录下这些 Invoker 在 invokers 集合中的下标,并累加它们的权重,比较它们的权重值是否相等
  3. 如果只有一个 Invoker 具有最小的活跃数,此时直接返回该 Invoker 即可
  4. 如果有多个 Invoker 具有最小活跃数,且它们的权重不相等,此时处理方式和 RandomLoadBalance 一致
  5. 如果有多个 Invoker 具有最小活跃数,但它们的权重相等,此时随机返回一个即可

ConsistentHashLoadBalance

一致性 hash 算法由麻省理工学院的 Karger 及其合作者于1997年提出的,算法提出之初是用于大规模缓存系统的负载均衡。它的工作过程是这样的,首先根据 ip 或者其他的信息为缓存节点生成一个 hash,并将这个 hash 投射到 [0, 232 - 1] 的圆环上。当有查询或写入请求时,则为缓存项的 key 生成一个 hash 值。然后查找第一个大于或等于该 hash 值的缓存节点,并到这个节点中查询或写入缓存项。如果当前节点挂了,则在下一次查询或写入缓存时,为缓存项查找另一个大于其 hash 值的缓存节点即可。大致效果如下图所示,每个缓存节点在圆环上占据一个位置。如果缓存项的 key 的 hash 值小于缓存节点 hash 值,则到该缓存节点中存储或读取缓存项。比如下面绿色点对应的缓存项将会被存储到 cache-2 节点中。由于 cache-3 挂了,原本应该存到该节点中的缓存项最终会存储到 cache-4 节点中。

img

下面来看看一致性 hash 在 Dubbo 中的应用。我们把上图的缓存节点替换成 Dubbo 的服务提供者,于是得到了下图:

img

这里相同颜色的节点均属于同一个服务提供者,比如 Invoker1-1,Invoker1-2,……, Invoker1-160。这样做的目的是通过引入虚拟节点,让 Invoker 在圆环上分散开来,避免数据倾斜问题。所谓数据倾斜是指,由于节点不够分散,导致大量请求落到了同一个节点上,而其他节点只会接收到了少量请求的情况。比如:

img

如上,由于 Invoker-1 和 Invoker-2 在圆环上分布不均,导致系统中75%的请求都会落到 Invoker-1 上,只有 25% 的请求会落到 Invoker-2 上。解决这个问题办法是引入虚拟节点,通过虚拟节点均衡各个节点的请求量。

到这里背景知识就普及完了,接下来开始分析源码。我们先从 ConsistentHashLoadBalance 的 doSelect 方法开始看起,如下:

private final ConcurrentMap<String, ConsistentHashSelector<?>> selectors = new ConcurrentHashMap<String, ConsistentHashSelector<?>>();
​
@SuppressWarnings("unchecked")
@Override
protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) {
    // 获取方法名
    String methodName = RpcUtils.getMethodName(invocation);
    String key = invokers.get(0).getUrl().getServiceKey() + "." + methodName;
    // 使用列表的哈希码计算哈希值时,只注意列表中的元素
    // 获取 invokers 原始的 hashcode
    int invokersHashCode = invokers.hashCode();
    ConsistentHashSelector<T> selector = (ConsistentHashSelector<T>) selectors.get(key);
    // 如果 invokers 是一个新的 List 对象,意味着服务提供者数量发生了变化,可能新增也可能减少了。
    // 此时 selector.identityHashCode != identityHashCode 条件成立
    if (selector == null || selector.identityHashCode != invokersHashCode) {
        // 创建新的 ConsistentHashSelector
        selectors.put(key, new ConsistentHashSelector<T>(invokers, methodName, invokersHashCode));
        selector = (ConsistentHashSelector<T>) selectors.get(key);
    }
    // 调用 ConsistentHashSelector 的 select 方法选择 Invoker
    return selector.select(invocation);
}

doSelect 方法主要做了一些前置工作,比如检测 invokers 列表是不是变动过,以及创建 ConsistentHashSelector。这些工作做完后,接下来开始调用 ConsistentHashSelector 的 select 方法执行负载均衡逻辑。在分析 select 方法之前,我们先来看一下一致性 hash 选择器 ConsistentHashSelector 的初始化过程,如下:

private static final class ConsistentHashSelector<T> {
    // 使用 TreeMap 存储 Invoker 虚拟节点
    private final TreeMap<Long, Invoker<T>> virtualInvokers;
​
    private final int replicaNumber;
​
    private final int identityHashCode;
​
    private final int[] argumentIndex;
​
    ConsistentHashSelector(List<Invoker<T>> invokers, String methodName, int identityHashCode) {
        this.virtualInvokers = new TreeMap<Long, Invoker<T>>();
        this.identityHashCode = identityHashCode;
        URL url = invokers.get(0).getUrl();
        // 获取虚拟节点数,默认为160
        this.replicaNumber = url.getMethodParameter(methodName, HASH_NODES, 160);
        // 获取参与 hash 计算的参数下标值,默认对第一个参数进行 hash 运算
        String[] index = COMMA_SPLIT_PATTERN.split(url.getMethodParameter(methodName, HASH_ARGUMENTS, "0"));
        argumentIndex = new int[index.length];
        for (int i = 0; i < index.length; i++) {
            argumentIndex[i] = Integer.parseInt(index[i]);
        }
        for (Invoker<T> invoker : invokers) {
            String address = invoker.getUrl().getAddress();
            for (int i = 0; i < replicaNumber / 4; i++) {
                // 对 address + i 进行 md5 运算,得到一个长度为16的字节数组
                byte[] digest = md5(address + i);
                // 对 digest 部分字节进行4次 hash 运算,得到四个不同的 long 型正整数
                for (int h = 0; h < 4; h++) {
                    // h = 0 时,取 digest 中下标为 0 ~ 34个字节进行位运算
                    // h = 1 时,取 digest 中下标为 4 ~ 74个字节进行位运算
                    // h = 2, h = 3 时过程同上
                    long m = hash(digest, h);
                    // 将 hash 到 invoker 的映射关系存储到 virtualInvokers 中,
                    // virtualInvokers 需要提供高效的查询操作,因此选用 TreeMap 作为存储结构
                    virtualInvokers.put(m, invoker);
                }
            }
        }
    }
 }

ConsistentHashSelector 的构造方法执行了一系列的初始化逻辑,比如从配置中获取虚拟节点数以及参与 hash 计算的参数下标,默认情况下只使用第一个参数进行 hash。需要特别说明的是,ConsistentHashLoadBalance 的负载均衡逻辑只受参数值影响,具有相同参数值的请求将会被分配给同一个服务提供者。ConsistentHashLoadBalance 不 关系权重,因此使用时需要注意一下。

在获取虚拟节点数和参数下标配置后,接下来要做的事情是计算虚拟节点 hash 值,并将虚拟节点存储到 TreeMap 中。到此,ConsistentHashSelector 初始化工作就完成了。接下来,我们来看看 select 方法的逻辑。

public Invoker<T> select(Invocation invocation) {
    // 将参数转为 key
    String key = toKey(invocation.getArguments());
    // 对参数 key 进行 md5 运算
    byte[] digest = md5(key);
    // 取 digest 数组的前四个字节进行 hash 运算,再将 hash 值传给 selectForKey 方法,
    // 寻找合适的 Invoker
    return selectForKey(hash(digest, 0));
}
​
private Invoker<T> selectForKey(long hash) {
    // 到 TreeMap 中查找第一个节点值大于或等于当前 hash 的 Invoker
    Map.Entry<Long, Invoker<T>> entry = virtualInvokers.ceilingEntry(hash);
    // 如果 hash 大于 Invoker 在圆环上最大的位置,此时 entry = null,
    // 需要将 TreeMap 的头节点赋值给 entry
    if (entry == null) {
        entry = virtualInvokers.firstEntry();
    }
    // 返回 Invoker
    return entry.getValue();
}

如上,选择的过程相对比较简单了。首先是对参数进行 md5 以及 hash 运算,得到一个 hash 值。然后再拿这个值到 TreeMap 中查找目标 Invoker 即可。

RoundRobinLoadBalance

我们来看一下 Dubbo 中加权轮询负载均衡的实现 RoundRobinLoadBalance。在详细分析源码前,我们先来了解一下什么是加权轮询。这里从最简单的轮询开始讲起,所谓轮询是指将请求轮流分配给每台服务器。举个例子,我们有三台服务器 A、B、C。我们将第一个请求分配给服务器 A,第二个请求分配给服务器 B,第三个请求分配给服务器 C,第四个请求再次分配给服务器 A。这个过程就叫做轮询。轮询是一种无状态负载均衡算法,实现简单,适用于每台服务器性能相近的场景下。但现实情况下,我们并不能保证每台服务器性能均相近。如果我们将等量的请求分配给性能较差的服务器,这显然是不合理的。因此,这个时候我们需要对轮询过程进行加权,以调控每台服务器的负载。经过加权后,每台服务器能够得到的请求数比例,接近或等于他们的权重比。比如服务器 A、B、C 权重比为 5:2:1。那么在8次请求中,服务器 A 将收到其中的5次请求,服务器 B 会收到其中的2次请求,服务器 C 则收到其中的1次请求。

以上就是加权轮询的算法思想,搞懂了这个思想,接下来我们就可以分析源码了。

protected <T> Invoker<T> doSelect(List<Invoker<T>> invokers, URL url, Invocation invocation) {
    // key = 全限定类名 + "." + 方法名,比如 com.xxx.DemoService.sayHello
    String key = invokers.get(0).getUrl().getServiceKey() + "." + invocation.getMethodName();
    ConcurrentMap<String, WeightedRoundRobin> map = methodWeightMap.computeIfAbsent(key, k -> new ConcurrentHashMap<>());
    // 权重总和
    int totalWeight = 0;
    // 最大逻辑标记值(可以理解为动态的权重,每次轮询都会重置,且都会更改),用于判断Invoker是否可选中选中的
    long maxCurrent = Long.MIN_VALUE;
    // 当前时间戳
    long now = System.currentTimeMillis();
    // 被选中的invoker
    Invoker<T> selectedInvoker = null;
    // 被选中的WeightedRoundRobin,在最后将更新WeightedRoundRobin#current的值
    WeightedRoundRobin selectedWRR = null;
    // 轮询
    for (Invoker<T> invoker : invokers) {
        // URL toString,map中到WeightedRoundRobin的映射
        String identifyString = invoker.getUrl().toIdentityString();
        // 获取权重
        int  weight = getWeight(invoker, invocation);
        // 不存在则创建WeightedRoundRobin
        WeightedRoundRobin weightedRoundRobin = map.computeIfAbsent(identifyString, k -> {
            WeightedRoundRobin wrr = new WeightedRoundRobin();
            wrr.setWeight(weight);
            return wrr;
        });
        // 权重发生了改变
        if (weight != weightedRoundRobin.getWeight()) {
            // 更新为最新权重
            weightedRoundRobin.setWeight(weight);
        }
        // 获取当前的逻辑标记值,current+weight
        long cur = weightedRoundRobin.increaseCurrent();
        // 设置最后修改时间
        weightedRoundRobin.setLastUpdate(now);
        // 判断当前逻辑标记值是否大于最大逻辑标记值(可以理解为动态的权重,每次轮询都会重置,且都会更改)
        if (cur > maxCurrent) {
            // 将当前逻辑标记值赋值给最大逻辑标记值
            maxCurrent = cur;
            // 设置选中的invoker
            selectedInvoker = invoker;
            // 设置选中的weightedRoundRobin
            selectedWRR = weightedRoundRobin;
        }
        // 累积总权重
        totalWeight += weight;
    }
    if (invokers.size() != map.size()) {
        // 删除map中最后修改时间到现在的时间大于循环周期的WeightedRoundRobin
        map.entrySet().removeIf(item -> now - item.getValue().getLastUpdate() > RECYCLE_PERIOD);
    }
    if (selectedInvoker != null) {
        // 重置methodWeight.entrySet()中key对应的invoker的WeightedRoundRobin中的current的值
        selectedWRR.sel(totalWeight);
        return selectedInvoker;
    }
    return invokers.get(0);
}

这段代码看起来不难,但是整体连接起来后,再来理解会有点绕,下面看看以下这几个变量及其意义:

  1. totalWeight:总权重,用于更新该轮询最终被选中的Invoker的动态权重(methodWeightMap#method#invokerUrl#current),计算公式为: -1 * totalWeight + current,最终目的是降低被选中Invoker的动态权重(current)
  2. maxCurrent:逻辑标记值,初始值为-2^63,用于判断该invoker是否满足被选中的条件,满足后将被重置为选中后的invoker的current值(也为代码中cur的值)
  3. selectedInvoker:被选中的invoker,在轮询过程中符合条件时将被重置
  4. selectedWRR:被选中的invoker的WeightedRoundRobin,在轮询过程中符合条件时将被重置

RoundRobinLoadBalance的代码就分析到此,对照上面的解析和备注,写几个测试demo本地调试会更清晰。