字典
字典,即键值对的抽象数据结构。
由于 Redis 使用的 C 语言没有内置这种数据结构,因此 Redis 构建了自己的字典实现,和其它高级编程语言特性一样,字典中的每个键都是独一无二的。
字典在 Redis 中的应用相当广泛,比如 Redis 的数据库就是使用字典来作为底层实现的。
除此之外,字典还是哈希键的底层实现之一,当一个哈希键包含的键值对比较多,又或者键值对中的元素都比较长的字符串时,Redis 就会使用字典作为哈希键的底层实现。
字典的实现
Redis 的字典使用哈希表作为底层实现,一个哈希表里面可以有多个哈希表节点,而每个哈希表节点就保存了字典中的一个键值对。
哈希表
typedef struct dictht {
dictEntity **table;
unsigned long size;
unsigned long sizemask;
unsigned long used;
}
table: 是一个数组,数组中的每个元素都是一个指向dictEntity结构的指针,每个dictEntity结构保存着一个键值对。size: 记录了哈希表的大小,即table数组的大小sizemask: 哈希表大小掩码,用于计算索引值,总是等于size- 1,这个属性和哈希值一起决定一个键应该被放到table数组的哪个索引上面used: 记录了哈希表目前已有节点(键值对)的数量
哈希表节点
typedef struct dictEntity {
void *key;
union {
void *val;
uint64_t u64;
int64_t s64;
} v;
struct dictEntity *next;
} dictEntity;
key: 保存着键值对中的键v: 保存着键值对中的值,其中键值对的值可以是一个指针,或者是一个uint64_t整数,又或者是一个int64_t属性next: 指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一起,以此来解决键冲突的问题
字典
typedef struct dict {
dictType *type;
void *privdata;
dictht ht[2];
int trehashidx;
} dict;
-
type: 属性是一个指向dictType结构的指针,每个dictType结构保存了一簇用于操作特定类型键值对的函数,Redis 会为用途不同的字典设置不同的类型特定函数typedef struct dictType { // 计算哈希值的函数 unsigned int (*hashFunction) (const void *key); // 复制键的函数 void *(*keyDup) (void *privdata, const void *key); // 复制值的函数 void *(*valDup) (void *privdata, const void *obj); // 对比键的函数 int (*keyCompare) (void *privdata, const void *key1, const void *key2); // 销毁键的函数 void (*keyDestructor) (void *privdata, void *key); // 销毁值的函数 void (*valDestructor) (void *privdata, void *obj); } dictType; -
privdata: 保存了需要传给那些类型特定函数的可选参数 -
h2: 是一个包含两个项的数组,数组中的每个项都是一个哈希表,一般情况下,字典只使用ht[0]哈希表,h[1]哈希表只会在对h[0]哈希表进行rehash时使用 -
trehashidx: 记录了rehash目前的进度,当 rehash 不在进行时,值为 -1
哈希算法
当要将一个新的键值对添加到字典里面时,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希数组的指定索引上面。
Redis 分别使用 hashFunction 来计算哈希值,使用哈希表的 sizemask 和哈希值, 来计算索引值。
当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis 使用 MurmurHash 算法来计算键的哈希值。
MurmurHash 算法的优点在于,即使输入的键是有规律的,算法仍能给出一个很好的随机分布性,并且算法的计算速度也非常快。
解决键冲突
当有两个或以上数量的键被分配到了哈希表数组的同一索引上面时,称为键发生了冲突。
Redis 的哈希表使用链地址法来解决键冲突,每个哈希表节点都有一个 next 指针,多个哈希表节点可以用 next 指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突的问题。
因为哈希表节点(dictEntity)组成的链表没有指向链表表尾的指针,所以为了速度考虑,程序总是将新节点添加到链表的表头位置(时间复杂度为O(1))。
rehash
随着操作的不断执行,哈希表保存的键值对会逐渐地增多或者减少,为了让哈希表的负载因子(load factor)维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时,程序需要对哈希表的大小进行相应的扩展或者收缩。
扩展和收缩哈希表的工作可以通过执行 rehash (重新散列)操作来完成,步骤如下:
- 为字典的
ht[1]哈希表分配空间,这个哈希表的空间大小取决于要执行的操作,以及ht[0]当前包含的键值对数量,即ht[0].used属性的值。- 如果执行的是扩展操作,那么
ht[1]的大小为第一个大于等于ht[0].used * 2的 2n - 如果执行的是收缩操作,那么
ht[1]的大小为第一个大于等于ht[0].used的 2n
- 如果执行的是扩展操作,那么
- 将保存在
ht[0]中的所有键值对rehash到ht[1]上面,具体操作是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]哈希表的指定位置上 - 当
ht[0]包含的所有键值对都迁移到了ht[1]之后(此时ht[0]变为空表),释放ht[0],将ht[1]设置为ht[0],并在ht[1]新创建一个空白哈希表,为下一次rehash做准备
rehash 的时机
当以下条件中的任意一个被满足时,程序会自动开始对哈希表进行扩展操作
- 服务器目前没有在执行
BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于1 - 服务器目前正在执行
BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于 5
当哈希表的负载因子小于 0.1 时,程序自动开始对哈希表执行收缩操作。
其中,哈希表的负载因子可以通过公式:
load_factor = ht[0].used / ht[0].size
即:负载因子 = 哈希表已保存节点数量 / 哈希表大小
根据
BGSAVE或BGREWRITEAOF命令是否在执行,而采用不同的负载因子,这时因为在执行BGSAVE或BGREWRITEAOF命令的过程中,Redis 需要创建当前服务器进行的子进程,而大多数操作系统都采用写时复制技术来优化子进程的使用效率,所以在子进程存在期间,服务器会提高执行拓展操作所需的负载因子,从而尽可能地避免在子进程存在期间进行哈希表拓展操作,者可以避免不必要的内存写入,最大限度地节约内存。
渐进式 rehash
在进行 rehash 操作时,需要将 ht[0] 所有键值对 rehash 到 ht[1] 里面,如果 ht[0] 里面保存了特别多的键值对时,这个操作可能会导致服务器在一段时间内停止服务。
所以,为了解决这个问题,Redis 采用分多次、渐进式地完成 rehash 操作
以下是哈希表渐进式 rehash 的详细步骤:
- 为
ht[1]分配空间,让字典同时持有ht[0]和ht[1]两个哈希表; - 在字典中维持一个索引计数器变量
rehashidx,并将它的值设置为 0,表示rehash工作正式开始; - 在
rehash进行时,每次对字典进行添加、删除、查找或者更新操作时,程序除了执行指定的操作以外,还会顺带将ht[0]哈希表在rehashidx索引上的所有键值对rehash到ht[1],当rehash工作完成之后,程序将rehashidx属性的值增一; - 随着字典操作的不断执行,最终在某个时间点上,
ht[0]的所有键值对都会被rehash到ht[1],这时程序将rehashidx属性的值设为 -1,表示rehash操作已完成。
渐进式 rehash 的好处在于它采取分而治之的方式,将 rehash 键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式 rehash 而带来的庞大计算量
同时,也会带来一个问题,如何确定要操作的值在 ht[0] 和 ht[1] ?
Redis 在删除、查找、更新等操作时,会先在 ht[0] 里面进行查找,如果没有找到,会再到 ht[1] 中进行查找;在新增操作时,一律被保存到 ht[1] 里面。这样是,即保证了 ht[0] 包含的键值对数量会只减不增,并随着 rehash 操作的执行而最终变成空表