概述
什么是Hash
哈希:英文是Hash,也称为散列 基本原理就是把任意长度输入,转化为固定长度输出 这个映射的规则就是Hash算法,而原始数据映射的二进制串就是Hash值
Hash的特点
- 1.从Hash值不可以反向推导出原始数据
- 2.输入数据的微小变化会得到完全不同的Hash值相同的数据一定可以得到相同的值
- 3.哈希算法的执行效率要高效,长的文本也能快速计算Hash值
- 4.Hash算法的冲突概率要小
由于Hash原理就是将输入空间映射成Hash空间,而Hash空间远远小于输入空间,根据抽屉原理,一定存在不同输出有相同的映射
抽屉原理 :桌子上有10个苹果,将其放在9个抽屉里面,那必有一个抽屉不少于2个苹果
HashMap原理讲解
HashMap的继承体系
HashMap继承了AbstractMap,实现了Cloneable接口、Serializable接口、Map<K,V>接口
public class HashMap<K,V> extends AbstractMap<K,V>
implements Map<K,V>, Cloneable, Serializable {
}
静态内部类Node
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
}
底层数据结构
put方法底层源码
什么是Hash碰撞
假如我有存储一个元素,发现其Key的Hash值还是1122,那么经过扰动之后,其位置还是2,所以此时,就有冲突,这个时候就要解决冲突。
解决Hash碰撞的方法
- 开放寻址法
- 拉链法 [HashMap就是使用了此方法]
什么是链化
在JDK1.7之前,假如数据量很大,那么碰撞的概率也很大,此时,拉链法的链子就会很长,那么就会降低查找速度,所以在JDK1.8之后引入红黑树
HashMap的扩容原理
因为当数据表很多的时候,碰撞使得冲突和查找速度都上升,此时就要扩容
手撕源码
常量
/**
* HashMap中的数组默认大小为16
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* HashMap中的数组长度的最大值为2^30
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 负载因子,比如初始数组的容量为16,如果数组中的元素数量超过16*0.75=12时就会扩容
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 树化阈值,链表长度超过该值时就会升级为红黑树
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 树=链表化阈值,链表长度小于该值时就会退化为链表
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 当HashMap中的元素个数达到64个以上之后,对应槽位的链表元素个数超过8时,才能升级为红黑树
*/
static final int MIN_TREEIFY_CAPACITY = 64;
属性
/* ---------------- Fields -------------- */
/**
* Hash表
* 什么时候初始化呢?
*/
transient Node<K,V>[] table;
/**
* 不重要属性
*/
transient Set<Map.Entry<K,V>> entrySet;
/**
* 当前Hash表中的元素个数
*/
transient int size;
/**
* 当前Hash表被修改次数,比如往Hash表中插入元素或者删除元素,但是修改即覆盖元素值不算
*/
transient int modCount;
/**
* The next size value at which to resize (capacity * load factor).
* 扩容阈值,当你的Hash表中的元素个数超过阈值时,就会触发扩容,为什么要扩容?
* 如果不扩容的话,就会导致Hash表查找效率降低(链表长度太长,或者树的结构的元素太多),
*/
int threshold;
/**
* 负载因子
* threshold = capcity * loadFactor
*/
final float loadFactor;
构造方法
public HashMap(int initialCapacity, float loadFactor) {
/**
* 其实就是做了一些校验,initialCapacity必须大于0,最大值只能是MAXIMUM_CAPACITY,即2的30次幂
*/
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
//loadFactor必须大于0
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
/**
* 因为Hash表的桶位只能是2的次幂个数,由于传进来的初始化桶位可能是随意的,比如7
* 这就需要这里做一些处理,最终的扩容阈值必须是2的次方数,
* 即如果initialCapacity传进来为7 =》 threshold = 8
* 如果initialCapacity传进来为9 =》 threshold = 16
* Hash表中的数组的长度必须是2的次方数
*/
this.threshold = tableSizeFor(initialCapacity);
}
/**
* 作用:返回一个大于等于当前传入的cap的数字,并且这个数字一定是2的次方数
* cap = 10
* n = 10 - 1 = 9
* 0b1001 | 0b0100 => 0b1101 n |= n >>> 1;
* 0b1101 | 0b0011 => 0b1111 n |= n >>> 2;
* 0b1111 | 0b0000 => 0b1111 n |= n >>> 4;
* ... 最终n = 1111 => 15
*
* 为什么这里将传进来的cap减一?
* 以cap = 16,并且不进行减一,即n = 16
* 0b10000 | 0b01000 => 0b11000 n |= n >>> 1;
* 0b11000 | 0b00110 => 0b11110 n |= n >>> 2;
* 0b11110 | 0b00001 => 0b11111 n |= n >>> 4;
* ...最终n = 0b11111 = 31
* return 31 + 1 = 32
* 传进来的初始化容量是16,但是返回32这是不合理的
*/
static final int tableSizeFor(int cap) {
//为什么这里将传进来的cap减一?
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
//n = 15,不小于0,并且不大于MAXIMUM_CAPACITY(2的30次方),最终走n + 1=16
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
为什么 table 的长度 一定是2的幂
-
计算Hash值得算法,实际就是取模,hash % length,
-
计算机中直接求余效率不如位移运算,源码中做了优化hash & (length - 1)
-
要想保证hash % length == hash & (length - 1),那么length必须是2的n次方;
hash方法
/**
* 扰动函数:为了减少冲突和碰撞
* 作用:让key的hash值的高16位也参与路由运算(hash数组长度 - 1)& hash(key)
* 路由算法:(hash数组长度 - 1)& hash(key),得到就是对应hash数组中的Index桶位的位置
*
* key = null的时候,即put(null,value)该值会存放在hash数组中桶位为0的位置
*
* 假设 一个key的hashCode的值为 h = 0b 0010 0101 1010 1100 0011 1111 0010 1110
* h = 0b 0010 0101 1010 1100 0011 1111 0010 1110
* 0b 0010 0101 1010 1100 0011 1111 0010 1110
* ^(异或操作,相同为0,不同则为1)
* 0b 0000 0000 0000 0000 0010 0101 1010 1100
* => 0010 0101 1010 1100 0001 1010 1000 0010
*
* 一般来说hash数组的长度一开始比较小,比如16,那你要想让key的hashCode的高16位也参与到路由算法的计算中来的话
* 那么通过下面的异或操作之后得到的结果是高16位数参与的结果,(本质是高16位与低16位异或的结果)
* 即让key的hash值的高16位也参与了路由运算
*
*/
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
高16位参与运算的原因,
(h = key.hashCode()) ^ (h >>> 16)
当数组的长度很短时,只有低位数的hashcode值能参与运算。而让高16位参与运算可以更好的均匀散列,减少碰撞,进一步降低hash冲突的几率。并且使得高16位和低16位的信息都被保留了。
举个简单的例子:
上面提到的数组长度很小的时候,即桶的数量,假设当前为16。
我们知道,计算桶位置的时候是用的hash值与上(n-1),即16-1=15。转换成2进制0000 1111。用竖式表示一下:
操作数1:一个随机的32位hash值 & 操作数2(即上面提到的15):
前面都是0,只有后四位是1的值,发现没有,这时候如果真的做与运算的话,只有最后四位才是有意义的!!前面无论你拿什么与都是0。那么,如果,这时候随机出来的hash值,大部分数值都是大于16,我们假设为32,64,128等等2的幂次方数,那么转换成二进制后,后四位都是0,这时候与运算,不都跑进第一个桶了嘛… (仔细想想,后四位为0的32位二进制数,可表示的数字不少吧…)
put方法
/**
* Implements Map.put and related methods
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent 如果插入的key已经存在,则不需要新增,只需要修改,该值在putIfAbsent方法中直接传入true
* @param evict if false, the table is in creation mode.
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
//tab:引用当前hashMap的散列表
// p: 表示当前散列表的元素
// n: 表示散列表数组的长度
// i:表示当前key路由云寻址的结果
Node<K,V>[] tab; Node<K,V> p; int n, i;
//延迟初始化,为什么叫做延迟呢?因为如果你只是编写了Map<String,String> map = new HashMap<>()
//不会初始化hash中数组的长度,也就是不会占用内存,而是等到你put第一个元素,调用putVal方法时,才会
//调用下面的n = (tab = resize()).length;代码初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//(n - 1) & hash就是路由算法,算出当前要插入的key对应hash数组中的下标,n:hash数组的长度
//假设n = 16 ,那么15 & hash(key)就是当前要插入的key对应hash数组中的下标
//如果算出的下表对应的hash数组元素为null,那就说明该位置没有数据,直接把的当前数组放进去即可
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
//e:不为null的时候,
//k:表示临时的一个key
Node<K,V> e; K k;
//当前想要插入的元素的key与当前桶位key的hash值一样,并且key一样,将该桶位的元素赋值给e
//表示需要进行替换操作
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//当前桶位已经形成了红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//链表的情况,而且链表的头元素与我们要插入的key不一致
//总体思路;遍历链表,依次比较链表元素与当前想要插入的Key是否一样,如果一样则替换
//当遍历到最后一个元素都不一样的时候,则将当前想要插入的元素插入到链表的末尾
for (int binCount = 0; ; ++binCount) {
//表示已经遍历到链表的末尾,没有找到元素与当前key一样的
//则只需要将当前想要插入的元素加入到链表末尾即可
if ((e = p.next) == null) {
//将当前想要插入的元素加入到链表末尾
p.next = newNode(hash, key, value, null);
//为什么这里判断树化阈值,即链表升级为红黑树阈值减一了呢?
//是因为上面刚刚在当前链表插入一个元素
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
//链表升级为红黑树
treeifyBin(tab, hash);
break;
}
//找到了链表的元素与当前想要插入的key一样的情况,需要替换操作
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//e不等于null,条件成立说明,找到了一个与你插入元素key完全一致的数据,需要进行替换
if (e != null) { // existing mapping for key
V oldValue = e.value;
//传进去的onlyIfAbsent为false,会进入if
if (!onlyIfAbsent || oldValue == null)
//替换操作
e.value = value;
afterNodeAccess(e);
//直接返回旧值
return oldValue;
}
}
//modCount:表示散列表结构被修改的次数,上面的替换操作,即将Node元素的value替换,不会执行该操作
++modCount;
//size:表示当前散列表额元素个数,即Node节点的个数
//插入新元素,size自增,如果自增之后的值大于扩容阈值threshold,则触发扩容
if (++size > threshold)
//扩容
resize();
afterNodeInsertion(evict);
return null;
}
resize方法
/**
* 为什么需要扩容?总结:为了解决hash冲突导致的链化,影响查询效率的问题,扩容会缓解该问题
* 当hash表中的元素个数很多,即链表或者红黑树长度很长的时候,
* 通过get()方法查找元素可能从之前的O(1)时间变成O(N)
*/
final Node<K,V>[] resize() {
//oldTab:引用扩容前的哈希表
Node<K,V>[] oldTab = table;
//oldCap:表示扩容之前的table数组的长度
int oldCap = (oldTab == null) ? 0 : oldTab.length;
//oldThr:表示扩容之前的扩容阈值,出发本次扩容的阈值
int oldThr = threshold;
//newCap:扩容之后table数组的大小
//newThr:扩容之后,下次再次触发扩容的条件
int newCap, newThr = 0;
//条件如果成立说明 hashMap中的散列表已经初始化过了,这是一次正常的扩容操作
if (oldCap > 0) {
//扩容之前的table数组大小已经达到最大阈值之后,则不扩容,并且设置扩容条件为int最大值
//这种情况甚少
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//oldCap左移一位实现数值翻倍,即乘以2,并赋值给newCap,newCap小于数组的最大限制 且扩容之前的数组长度 >=16
//这种情况下,则下一次扩容的阈值等于当前阈值的两倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//则下一次扩容的阈值等于当前阈值的两倍
newThr = oldThr << 1; // double threshold
}
}
//oldCap =0 说明hashmap中的散列表是null
//当调用以下构造方法时,oldThr会大于0
//1.new HashMap(initCap, loadFactor);
//2.new HashMap(initCap);
//3.new HashMap(map);并且这个map有数据
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//oldCap = 0,oldThr = 0
//当调用new HashMap()时会出现
else { // zero initial threshold signifies using defaults
//赋值默认容量即16
newCap = DEFAULT_INITIAL_CAPACITY;
//赋值默认阈值即16 * 0.75 = 12
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//newThr为0时,通过newCap和loadFactor计算出一个newThr
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//赋值新额扩容阈值
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
//创建出一个更长,更大的数组
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//将hash数组引用替换为新的数组
table = newTab;
//说明,hashmap本次扩容之前,table不为null
//下面的代码总体就是将原来的元素复制到新的扩容之后的数组当中
if (oldTab != null) {
//遍历之前的hash数组
for (int j = 0; j < oldCap; ++j) {
//当前node节点
Node<K,V> e;
//说明当前桶位中有数据,但是数据具体是 单个数据,还是链表 还是红黑树,并不知道
if ((e = oldTab[j]) != null) {
//方便JVM GC时回收内存
oldTab[j] = null;
//第一种情况:当前桶位只有一个元素,从未发生过碰撞,直接计算出当前元素应该存放新数组中的索引位置
//然后存进去,还是使用同样的路由算法,就hash值 & (hash数组容量 - 1)
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//已经树化的情况
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
//第三种情况:桶位已经形成链表
//低位链表:存放在扩容之后的数组的下标位置,与当前数组的下标一致
Node<K,V> loHead = null, loTail = null;
//高位链表:存放在扩容之后的数组的下标位置为:与当前数组的下标 + 扩容之前数组的长度
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
//为什么要&oldCap?为了区分扩容之后的高位是1还是0
//比如开始oldCap为16,即0b10000
//在索引为15的桶位的两个元素
//一个的hash:.... 1 1111 ---》 即高位
//另一个hash:.... 0 1111 ---》 即低位
//跟&16之后第一个值为1,第二个值为0
//然后分别使用上面的低位链表和高位链表连接起来
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//将低位链表存储到新的数组中,索引不变
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//将高位链表存储到新的数组中,索引变了
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
对于扩容方法中低位链表和高位链表的解释如下:
如上图所示,原来hash数组的容量为16,在第15个桶位,说明都是二进制末尾四位1111,因为hash值 & (16 - 1) => hash值 & (1111),但是第五位可能有些元素是1,有些元素是0,第五位是0的元素,hash值与新的hash数组的容量进行路由,即.......0 1111 & (32 - 1) ,
-
即 .......0 1111 & .......11111,求出的新的桶位索引还是15,这样的元素叫做低位链表的元素
-
而 .......1 1111 & .......11111,求出的新的桶位索引为11111即31,这样的元素叫做高位链表的元素
get方法
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
//tab:引用当前hashMap的散列表
//first:桶位中的头元素
//e:临时node元素
//n:table数组长度
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//第一种情况:定位出来的桶位元素,即为咱们要get的数据
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
//说明当前桶位不止一个元素,可能是链表,也可能是红黑树
if ((e = first.next) != null) {
//第二种:桶位升级为红黑树的情况
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
//桶位是链表的情况,遍历链表,挨个元素比较
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
remove方法
// 移除元素的方法
public V remove(Object key) {
Node<K,V> e;
// 调用hash方法,获得哈希值,然后调用removeNode
return (e = removeNode(hash(key), key, null, false, true)) == null ?
null : e.value;
}
// 核心方法 removeNode
// hash:hash值
// key:key
// value:value 如果matchValue则匹配的值,否则忽略
// matchValue:如果为true,则仅在值相等时删除
// movable:如果删除虚假不动其他节点
final Node<K,V> removeNode(int hash, Object key, Object value,
boolean matchValue, boolean movable) {
// tab:引用当前hashMap的散列表
// p:当前node元素
// n:表示散列表数组长度
// index:表示寻址结果
Node<K,V>[] tab; Node<K,V> p; int n, index;
// 判断 table 是否为空,是否长度为0,且对应的hash值在数组里面存在,才继续向下走
if ((tab = table) != null && (n = tab.length) > 0 &&
(p = tab[index = (n - 1) & hash]) != null) {
// 说明桶位是由数据的,需要进行查找操作,并且删除
// node:查找到的结果
// e:当前Node的下一个元素
Node<K,V> node = null, e; K k; V v;
// 判断头元素是不是要删除的元素,如果是就放进去node
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
node = p;
// 桶的第一个不是
else if ((e = p.next) != null) {
// 树化结构
if (p instanceof TreeNode)
// 调用树化的结果
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
// 链表结构 循环遍历得到结构
do {
if (e.hash == hash &&
((k = e.key) == key ||
(key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 判断是否得到了目标要删除的节点
if (node != null && (!matchValue || (v = node.value) == value ||
(value != null && value.equals(v)))) {
// 如果是树节点,调用树的删除操作
if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
// 如果node = p 表示是第一个数据
else if (node == p)
// 更新地址为下一个数据,放到桶
tab[index] = node.next;
else
// 如果node 不等于 p 那就直接指向链表的下一个元素地址
p.next = node.next;
// 修改次数增加
++modCount;
// 大小减1
--size;
afterNodeRemoval(node);
// 返回删除的node
return node;
}
}
// 如果都没有执行,那么就返回null
return null;
}
replace方法
// 根据 k 和 v 替换
@Override
public V replace(K key, V value) {
Node<K,V> e;
if ((e = getNode(hash(key), key)) != null) {
V oldValue = e.value;
e.value = value;
afterNodeAccess(e);
return oldValue;
}
return null;
}
// 根据 k oldValue newValue 替换
@Override
public boolean replace(K key, V oldValue, V newValue) {
Node<K,V> e; V v;
if ((e = getNode(hash(key), key)) != null &&
((v = e.value) == oldValue || (v != null && v.equals(oldValue)))) {
e.value = newValue;
afterNodeAccess(e);
return true;
}
return false;
}