说在前面:HashMap底层原理是非常容易理解的,但是细究会有很多细枝末节很难理顺,也许我们都会说数组+链表+红黑树,默认容量为16,但是到底在哪个节点转换为红黑树呢?在哪个节点退化为链表呢?负载因子为什么是0.75呢?容量为什么要保持在2的n次方呢?扩容机制是什么呢?hash碰撞如何解决呢?我现在也不能完完全全答出上面的问题,所以我还是建议你沉下心来,花多点时间研究透彻,不要害怕浪费时间,付出会给你最好的回报!写在开头的原因是我当初希望能够走捷径,希望看看别人的博客就想着能掌握HashMap了,并不是的,有些东西别人总结了的是别人的,不属于自己,每个人都有自己的想法和理解,如果这篇开头对你有帮助,你的点赞是对我最大的鼓励和支持!
HashMap底层是如何实现的
在JDK1.7中,HashMap是以数组+链表
组成的,在JDK1.8以后,HashMap中新增了一种叫红黑树
的数据结构,当链表的数量大于8
时,链表结构会转化为红黑树结构,当红黑树的结点个数小于6
时,红黑树结构又会转化为链表结构,为什么是6
不是7
呢?这是因为隔一个数据7
,会减小因为频繁地插入和删除而导致结构的不断转换,消耗系统资源的影响。

HashMap的元素我们称之为哈希桶,它的结构如下:
static class Node<K,V> implements Map.Entry<K,V> {
//哈希值
final int hash;
//键
final K key;
//值
V value;
//表示链表的下一个结点
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key; }
public final V getValue() { return value; }
public final String toString() { return key + "=" + value; }
public final int hashCode() {
return Objects.hashCode(key) ^ Objects.hashCode(value);
}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {
if (o == this)
return true;
if (o instanceof Map.Entry) {
Map.Entry<?,?> e = (Map.Entry<?,?>)o;
if (Objects.equals(key, e.getKey()) &&
Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
JDK1.8中引入红黑树的原因是解决因链表过长时,查找元素的性能过慢,时间复杂度为
O(n)
,而引入红黑树这种数据结构,可以在O(logn)
时间复杂度内找到对应的结点元素。
HashMap底层源码分析
HashMap源码中含有以下属性:
//HashMap默认初始化容量为16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
//HashMap的最大容量
static final int MAXIMUM_CAPACITY = 1 << 30;
//HashMap的默认装载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//转换为红黑树的临界值,当链表的长度大于8时,链表结构将会转化为红黑树结构,在插入结点后马上转化
static final int TREEIFY_THRESHOLD = 8;
//转换为链表的临界值,当元素小于此值时,红黑树结构将会转化为链表结构,而且在删除操作后马上转化
static final int UNTREEIFY_THRESHOLD = 6;
/**
* The smallest table capacity for which bins may be treeified.
* (Otherwise the table is resized if too many nodes in a bin.)
* Should be at least 4 * TREEIFY_THRESHOLD to avoid conflicts
* between resizing and treeification thresholds.
*/
//最小树容量,最小树容量与扩容之间的差值至少是4倍的TREEIFY_THRESHOLD,这样做的目的是
//为了避免扩容阈值和树化阈值之间产生矛盾
static final int MIN_TREEIFY_CAPACITY = 64;
加载因子为什么是0.75?
加载因子也叫扩容因子,用来判断什么时候进行扩容的,使用
0.75
是容量和性能平衡的结果:当加载因子设置比较大时,扩容的门槛会被提高,扩容发生的频率比较低,浪费的空间比较小,但此时发生Hash冲突的几率就会提升,此时对元素的操作会产生压力,插入时间变长,性能下降
而当加载因子设置比较小时,存储在HashMap中的元素位置相对来说较为稀疏,扩容的门槛较低,但浪费的空间就会变大,插入数据时发生哈希冲突的几率比较小,因此操作性能高
所以就从
0.5~1.0
之间选择一个中间值作为HashMap的加载因子
HashMap源码中有哪些重要的办法?
查询方法
public V get(Object key) {
Node<K,V> e;
//对查找元素的key进行hash映射到HashMap的哈希桶上,得到数组下标,然后将数组下标和key都传入getNode()方法
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
//tab代表哈希表,n代表哈希表的长度,first = tab[(n-1) & hash]是取hash值对应数组下标的首个元素
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//判断首个元素是否是待查找的元素
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
//判断是否有下一个元素
if ((e = first.next) != null) {
//判断第一个元素是不是一个树结点
if (first instanceof TreeNode)
//从红黑树中找目标元素
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
//头结点不是一个树结点,则是一条链表,遍历链表查找目标元素
do {
//目标元素的hash和key都等于传入的参数值,返回此结点
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
//找不到目标元素
return null;
}
从上面代码可以看出查找的这么一个流程:首先先判断HashMap是否已经被初始化且HashMap的长度是否为0,如果连这两个条件都不满足就说明
待查找的结点肯定不存在
;继而判断头结点是否为待查找的结点,如果是则直接返回头结点;接着判断头结点所在的桶是否还有后续结点,如果有则判断头结点是一棵树的结点还是一条链表结点
,如果是一棵树则强转为树结点往红黑树中查找元素,如果是一条链表就遍历链表查找元素。
新增方法
public V put(K key, V value) {
//计算出哈希桶的位置
return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//判断哈希表是否还没初始化
if ((tab = table) == null || (n = tab.length) == 0)
//哈希表扩容,并把新的哈希表长度赋值n,把扩容的哈希表返回给tab
n = (tab = resize()).length;
//判断哈希桶中是否空的
if ((p = tab[i = (n - 1) & hash]) == null)
//空的,放在桶的第一个位置上
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
//如果key已经存在且hash值相等则直接覆盖value
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//如果key不存在,则判断插入的结点是否是红黑树结点
else if (p instanceof TreeNode)
//往红黑树中插入结点
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
//遍历链表,binCount记录链表长度
for (int binCount = 0; ; ++binCount) {
//遍历到最后一个元素
if ((e = p.next) == null) {
//插入到尾部,JDK1.8的尾插法
p.next = newNode(hash, key, value, null);
//如果链表长度大于树化的阈值,则尝试转化为红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//如果存在相同的key且hash值相同,则覆盖value值
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//如果e存在则证明存在相同key,覆盖value值
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
//超过哈希表的最大容量则扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}

扩容方法
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//如果旧容量等于0则代表是第一次初始化
if (oldCap > 0) {
//太狠了,如果大于最大容量,直接将上限阈值调成int最大值,而且不再进行扩容
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//如果扩容两倍后依然小于最大容量且旧容量大于默认容量16
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
//扩容2倍
newThr = oldThr << 1; // double threshold
}
//扩容后的容量就是初始最小阈值16
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//如果哈希表没有初始化且最小容量阈值指定为0,则新的容量就是默认容量16,新的扩容阈值就是装载因子*默认容量
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//如果新的扩容阈值为0
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
//扩容操作,将新的哈希表赋值给table
table = newTab;
//如果原来的哈希表不为空
if (oldTab != null) {
//遍历哈希表中的元素
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//如果下标为j的哈希桶上存在元素,赋值给e
if ((e = oldTab[j]) != null) {
//去除哈希桶上的元素
oldTab[j] = null;
//如果只有一个元素则直接搬到新的桶中去
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//如果是一棵红黑树
else if (e instanceof TreeNode)
//红黑树大法搬移数据
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
//链表复制,jdk1.8优化
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
HashMap在JDK1.8是如何优化的
JDK1.8中HashMap扩容时做了哪些优化?
从以上源码可以看出,
JDK 1.8
在扩容时并没有像JDK 1.7
那样,重新计算每个元素的哈希值,而是通过高位运算(e.hash & oldCap
)来确定元素是否需要移动。
- key1.hash = 10 (0000 1010)
- oldCap = 16 (0001 1000)
key1.hash & oldCap = 0
,当结果为0
时,key1
的位置在扩容后与扩容前没有发生改变。相反,如果
key2.hash = 17(0001 0001)
,key2.hash & oldCap = 1
,当结果为1
时,表示元素在扩容时的位置发生了变化,新的下标位置等于原下标位置+数组长度
