Week2. JDK8 HashMap 源码分析

132 阅读9分钟

HashMap的底层结构其实在jdk8时进行了不少更新,这篇先分析JDK8之后版本的HashMap。

对java中HashMap有过了解的应该知道,HashMap底层由数组和链表构成的(在JDK1.8中,如果链表的长度超过8,java会自动将链表转化为红黑树,并且通过红黑树提高效率。红黑树好像也是面试中的一个难点,之后尽量学习吧。)其中数组一般被称为哈希桶,是一个Node的数组,而每一个桶中存放一个链表。而链表中的每一个节点就是HashMap的一个元素。

构造函数


    static final int MAXIMUM_CAPACITY = 1 << 30;

    static final float DEFAULT_LOAD_FACTOR = 0.75f;


	//有参数的构造函数,两个参数initialCapacity为默认容量,loadFactor是加载因子
	//HashMap中还有一个参数是threshold,它的值是哈希桶的长度*loadFactor
    public HashMap(int initialCapacity, float loadFactor) {
		//默认容量不能小于0
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
		//默认容量不能大于最大容量
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
		//loadFactor不能小于0
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

	//实际也是调用上一个有两个参数的构造函数。
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }


	//默认无参的构造函数,loadFactor为默认的0.75
    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }

	//将另一个Map中的元素加入HashMap中
    public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }

put操作

	//输入Key-Value对,将值放入HashMap中
    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

	//是之前构造函数调用的函数,用来将另一个Map的值放入HashMap中
	//注意这两个函数调用putVal时参数的不同,需要注意的是 boolean onlyIfAbsent和 boolean evict这两个参数
	//onlyIfAbsent如果为true,那么将覆盖相同key值的value
	//evict如果为false,则表示是在初始化HashMap时调用的
    final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
		//s为另一个Map的Value的数量
        int s = m.size();
        if (s > 0) {
			//如果当前表是空的
            if (table == null) { // pre-size
				//这一步是通过Map中元素的数量计算出阈值
                float ft = ((float)s / loadFactor) + 1.0F;
				//保证阈值小于MAXIMUM_CAPACITY
                int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                         (int)ft : MAXIMUM_CAPACITY);
				//如果阈值大于当前阈值,则根据阈值计算出table的大小
                if (t > threshold)
                    threshold = tableSizeFor(t);
            }
			//如果Map的元素个数大于阈值,那么我们需要resize当前表
            else if (s > threshold)
                resize();
			//遍历Map,将元素加入到HashMap中
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }

	
	//用来将应该元素加入HashMap中,后面两个布尔值的意义与putMapEntries相同,在此不做过多解释
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
		//如果当前HashMap是空的,那么就对tab进行扩容,并且将扩容后的哈希桶的长度给n
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
		//这里操作比较复杂,其实是判断是否发生了哈希碰撞
		// (n - 1) & hash]实际上是计算key所在哈希桶中的位置,这里使用按位与是为了增加性能,代替取模运算
		//计算完取模运算之后将对应的哈希桶里的值赋给p,并且判断是否为空,如果为空就表示没有发生哈希碰撞
		//就新建一个Node付给对应的桶。
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
			//进入else则表示发生了哈希碰撞
            Node<K,V> e; K k;
			//如果p的hash值和传入元素的hash值一样,key一样,并且都不为空
			//就进行覆盖操作
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
			//如果p的类型是红黑树,则将元素插入p中
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
				//如果既不是红黑树,也不是覆盖,则表示这是一般的哈希碰撞
				//遍历整个链表
                for (int binCount = 0; ; ++binCount) {
					//如果p的next为空,则表示遍历了整个链表都没有相同的key,这个元素是需要新插入的。
					//此时会在p.next上新建一个节点
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
						//插入节点结束之后,检查链表的长度是否>=8
						//如果>=8,则将链表转变为红黑树,之后break
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
					//如果hash值相同,并且key也相同,且不等于0,则表示该节点需要被覆盖,跳出循环进行操作
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
			//如果e非空,则表示需要有覆盖的节点
            if (e != null) { // existing mapping for key
				//覆盖节点,并且返回原节点的value
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
				//afterNodeAccess()是一个空函数,不知道啥用
                afterNodeAccess(e);
                return oldValue;
            }
        }
		//修改modCount
        ++modCount;
		//此时判断是否需要再次扩容
        if (++size > threshold)
            resize();
		//也是一个空函数
        afterNodeInsertion(evict);
        return null;
    }

resize

扩容函数,是重点! 如果当前HashMap是null,则分配一个符合当前阈值的哈希桶大小。 否则将当前HashMap的两倍。

    final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
		//如果原哈希桶是空的,就将0赋给oldCap,否则令oldCap等于原哈希桶的长度
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
		//oldThr等于原阈值
        int oldThr = threshold;
		//初始化新的阈值和容量
        int newCap, newThr = 0;
        if (oldCap > 0) {
			//如果原阈值大于MAXIMUM_CAPACITY(最大容量)
			//则将阈值设置为Integer的最大值,然后直接返回原HashMap,不再进行扩容
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            //如果新长度小于最大容量,并且原长度大于等于默认初始容量的话,则令新阈值设置为原阈值的两倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        //原长度和原阈值都等于0,此时使用默认的参数为新长度和新阈值赋值
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        //如果前一个if的判断语句没有为newThr(新阈值)赋值,那么通过计算得出新阈值的值,并且赋给他
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        //将原HashMap赋值给新HashMap的过程
        if (oldTab != null) {//只有在原HashMap不为空的时候才需要复制
            for (int j = 0; j < oldCap; ++j) {//探测每一个哈希桶上的位置
                //e = oldTab[j],即某一个哈希桶
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {//如果e不为空,就表示当前位置上有值,需要复制
                    //令原位置的引用变为空,方便JavaGC进行回收
                    oldTab[j] = null;
                    //如果e.next为空,则说明这个桶中只有一个key-value对,只需将这个对象放入新的HashMap中
                    if (e.next == null)
                        //e.hash & (newCap - 1)其实是取模
                        newTab[e.hash & (newCap - 1)] = e;
                    //如果e是一个TreeNode,就说明这个桶是一个红黑树,要通过split进行操作
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        //因为每次是将HashMap扩容2倍,所以在原HashMap中的元素既有可能会在原位置,也有可能会在
                        //原位置+oldCap的位置上(这两个也就是所谓的低位和高位),接下来就是进行判断,然后插入
                        //新位置了。
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            //e.hash & oldCap的解释见后面。
                            //如果e.hash & oldCap==0,就说明新位置为低位,对loTail进行操作
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            //此时表示新位置为高位
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);//e.next==null则退出循环
                        //分别将loTail和hiTail插入应该插入的位置
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

e.hash & oldCap == 0 解析

JDK1.7中,resize时,index取得时,全部采用重新hash的方式进行了。JDK1.8对这个进行了改善。

以前要确定index的时候用的是(e.hash & oldCap-1),是取模取余,而这里用到的是(e.hash & oldCap),它有两种结果,一个是0,一个是oldCap,

比如oldCap=8,hash是3111927时,(e.hash & oldCap)的结果是0808,这样319组成新的链表,index为3;而1127组成新的链表,新分配的index为3+8;

JDK1.7中重写hash是(e.hash & newCap-1),也就是311192716取余,也是311311,和上面的结果一样,但是index为3的链表是193,index为3+8的链表是

2711,也就是说1.7中经过resize后数据的顺序变成了倒叙,而1.8没有改变顺序。



原理:

我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。看下图可以明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。

img

元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

img

因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”,可以看看下图为16扩充为32的resize示意图:

这个设计确实非常的巧妙,既省去了重新计算hash值的时间,而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。这一块就是JDK1.8新增的优化点。有一点注意区别,JDK1.7中rehash的时候,旧链表迁移新链表的时候,如果在新表的数组索引位置相同,则链表元素会倒置,但是从上图可以看出,JDK1.8不会倒置。

get操作

get操作比较简单只是计算传入key的hash值并且找到相应的位置而已。

    public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (first = tab[(n - 1) & hash]) != null) {
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            if ((e = first.next) != null) {
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }