一致性哈希算法

196 阅读7分钟

  在分布式领域中各技术组件都有实现KV形式的存储,在实现各类工作能力的同时还简化了算法实现。以Raft分布式协议为例,它通过在领导者采用KV存储来简化算法实现和共识协商,但同时也限制所有写请求只能在领导者节点上进行处理,从而导致集群退化为单机模式。   没有什么是加一个中间层解决不了的问题,那么有那就再加一层。为实现既要又要的目的,可以通过分集群来突破单集群的性能限制,然后再各集群节点和客户端之间加一个哈希代理层进行路由。

简单的哈希算法

公式:m = hash(o) mod n

o:需要被哈希函数作用的对象值

n:集群中节点的个数

  假设集群中有A、B和C三个节点、对象值为1到10十个数据,经过简单哈希函数公式m = hash(o) mod n计算后得:

节点数据
节点A3、6、9
节点B1、4、7、10
节点C2、5、8

  如果增加一个D节点,那么此时公式中的n就由3变成了4。上述十个数据就得重新代入哈希函数计算一个新值,计算后得:

节点数据
节点A4、8
节点B1、5、9
节点C2、6、10
节点D3、7

  对比两组数据发现只有1和2经过哈希函数重新计算后没有被移动,当前还只有十个数据,如果当集群中数据量很大是,那么每次扩容和缩容带来的数据迁移成本可谓是相当巨大,更有甚者会导致宕机,由此可以使用一致性哈希来解决数据迁移成本高的问题。

一致性哈希算法

  一致性哈希算法是1997年发布的《Consistent Hashing and Random Trees》论文中提出的,使用此算法可以大幅度减少数据迁移量,它可以保证在进行扩容和缩容时,节点之间的数据迁移只限于两个节点之间,不会像上述简单的哈希函数那样造成大规模的数据迁移。

哈希环

  一致性哈希算法也用了取模运算,与普通哈希算法直接对节点的数量进行取模运算有所不同,一致性哈希算法是对232进行取模运算。即将数据映射到0~(232-1)的数字空间,将这些数字头尾相连可以组织成一个虚拟的圆环,也就是哈希环: image.png   上图所示哈希环的空间是按顺时针方向组织的,圆环的正上方的点代表原点0,0 点右侧的第一个点代表 1,以此类推,2、3、4、5、6……直到232-1,即0点左侧的第一个点代表232-1。

映射节点到哈希环

  在一致性哈希算法中,可以通过执行自定义的哈希算法将节点映射到哈希环上,那么每个节点就能确定其在哈希环上的位置了: image.png

映射数据到哈希环

  同理执行自定义的哈希算法计算出每个数据对应的key值,然后散列到哈希环上,hash(o1) = key1、hash(o2) = key2、hash(o3) = key3、hash(o4) = key4: image.png

存储数据到节点

  将节点和数据都映射到同一个哈希环上之后,然后以原点0为起点顺时针转动,在转动过程中数据遇到的第一个节点就是该数据的归属,然后读写数据的时候就可以按照此到对应的节点上去寻找。

节点数据
节点Akey1、key4
节点Bkey2
节点Ckey3

扩容和缩容

扩容

  扩容即向集群中增加一个节点D,节点D经过上述同样自定义的哈希函数后计算后,然后将其映射到哈希环上,如下图所示。 image.png   此时再根据顺时针存储的规则进行数据迁移:

节点数据
节点Akey1
节点Bkey2
节点Ckey3
节点Dkey4

  扩容之后发现只有key4从之前的节点A迁移到了节点D上,数据的移动仅发生在节点A和节点D之间,其他节点上的数据并未受到影响。

缩容

  缩容即向集群中减少一个节点C,先将节点C从哈希环上移除,然后再根据顺时针存储的规则进行数据的迁移: image.png

节点数据
节点Akey1、key3、key4
节点Bkey2

  缩容之后发现只是将节点C的所属的数据迁移到了节点A上,其他数据并未受到影响。   总的来说,使用了一致性哈希算法后,扩容或缩容的时候,都只需要重定位哈希环中的一小部分数据。也就是说,一致性哈希算法具有较好的容错性和可扩展性。

复杂度

  假设总数据条数是M,节点个数是N。

哈希函数时间复杂度

  • 传统哈希算法,以N为基数执行取模运算,时间复杂度为O(1)。
  • 一致性哈希算法,首先将关键字先转换为 32 位整型,然后采用二分法(所有节点在哈希环上是有序排列的)确定节点在哈希环上的处理范围,综合时间复杂度为O(logN) 。

数据迁移规模

  • 传统哈希算法,因为节点变化需要迁移的数据规模是不可控的,所以综合数据迁移规模为O(M)。
  • 一致性哈希算法,哈希环中各节点均匀分布的情况下,数据迁移规模为O(M/N)。

  综上数据条数 M 远大于主机节点数 N,而且数据迁移的成本很大,所以一致性哈希算法更划算。

数据倾斜

  一致性哈希算法虽然降低了数据的迁移量,但是也存在两个数据倾斜的问题

  1. 如果映射后哈希环中的数字分布不均匀,就会导致各节点处理的数据不均衡、各节点的负载不均衡。
  2. 容灾和扩容时哈希环上相邻节点会受到极大影响,极端情况下,假如节点A出现故障,存储在A上的数据要全部转移到B上,大量的数据导可能会导致节点B的崩溃,之后A和B上所有的数据向节点C迁移,导致节点C也崩溃,由此导致整个集群宕机,产生雪崩效应。

虚拟节点

  想要解决数据倾斜的问题,一来可以让集群中的节点尽可能的多,从而让各个节点均匀的分布在哈希空间中。但是在生产环境中机器的数量往往都是固定的,所以我们只能在物理节点和哈希环之间再加一层虚拟节点层。   假如集群中有4个节点,首先不是直接将哈希环分为4份,而是将均分地分为32份,每份对应一个虚拟节点共32个虚拟节点;然后再将这32个虚拟节点映射到4个物理节点上。 image.png   设置虚拟节点层后,为异构的服务器节点设置权重也更方便。只需要为权重高的真实节点,赋予更多的虚拟节点即可。虽然虚拟节点增多可以提升均衡性,但是也会消耗更多的内存与计算力。