集合三件套之二-HashMap集合

374 阅读15分钟

1.HashMap集合简介

HashMap基于哈希表的Map接口实现,是以key-value存储形式存在,即主要用于来存放键值对,HashMap的实现不是同步的,这以为着他不是线程安全的,他的key,value都可以是null,此外,hashmap中的映射不是有序的

jdk1.8之前,hashmap由数组+链表组成的,数组是hashmap的主体,链表则是主要为了解决哈希冲突而存在的(拉链法解决冲突)当链表长度大于阈值(或者红黑树的边界值,默认为8)并且当数组长度大于64时,此时索引位置上的所有数据改为使用红黑树存储

补充:将链表转换成红黑树前会判断,即使阈值大于8,但是数组长度小于64,此时并不会将链表变成红黑树,而是选择数组扩容。

这样做的目的是因为数组比较小,尽量避开红黑树结构,这种情况下变为红黑树结构,反而会降低效率,因为红黑树需要进行左旋,右旋,变色这些操作来保持平衡,同时数组长度小于64时,搜索时间相对要快些,所以综上所述为了提高性能和减少搜索时间,底层在阈值大于8并且数组长度大于64时,链表才转换为红黑树,具体可以参考treeifybin方法

当然虽然增了红黑树作为底层数据结构,结构变得复杂了,但是阈值大于8并且数组长度大于64时,链表转换为红黑树时,效率也会变得更高

小结,特点:

  • 存取无序的

  • 键和值的位置都可以是null,但是键位置只能是一个null

  • 键位置是唯一的,底层的数据结构控制键的

  • jdk1.8之前的数据结构是:链表+数组 jdk1.8之后是链表+数组+红黑树

  • 阈值(边界值)>8并且数组长度大于64,才将链表转换为红黑树,变为红黑树的目的是为了高效的查询

2.HashMap集合底层的数据结构

2.1数据结构的概念

数据结构是计算机存储,组织数据的方式,数据结构是指相互之间存在一种或多种特点关系的数据元素的集合,通常情况下,精心选择的数据结构可以带来更高的运行或者存储效率,数据结构往往同高效的检索算法和索引技术有关

数据结构:就是存储数据的一种方式,ArrayList LinkedList

在jdk1.8之前 HashMap由数组+链表数据结构组成的

在JDK1.8之后 HashMap由数组+链表+红黑树数据结构组成

1.HashMap<String,Integer> hm = new HashMap<>();当创建HashMap集合对象的时候,在jdk8前,构造方法中创建一个一个长度是16的Entry[] table 用于存储键值对数据的,在jdk1.8之后不是在hashmap的构造方法底层创建数组了,是在第一次调用put方法时创建的数组,Node[] table 用来存储键值对数据的2.假设向哈希表中存储 柳岩-18数据,根据柳岩调用String类中重写之后的hashcode()方法计算出值,然后结合数组长度采用某种算法计算出node数组中存储数据的空间索引值,如果计算出的索引空间没有数据,则直接将柳岩-18存储到数组中,举例:计算出的索引值是33.向哈希表中存储数据刘德华-40,假设刘德华计算出的hashcode方法结合数组长度计算出的索引值也是3,那么此时数组空间不是null,此时底层会比较柳岩和刘德华的hash值是否一致,如果不一致,则在此空间上划出一个节点来存储键值对数据刘德华-40,这种方式叫做拉链法

面试题:哈希表底层采用何种算法计算hash值,还有哪些算法可以计算出hash值?

底层采用kay的hashcode方法的值结合数组长度进行无符号右移(>>>)按位异或(^)

按位与计算出索引,还可以采用:取余数,伪随机数法

假设向哈希表中存储数据柳岩-20,那么首先根据柳岩调用hashcode方法结合数组长度计算出索引肯定是3,此时比较后存储的数据柳岩和已经存在的数据的hash值是否相等,如果hash值相等,此时发生哈希碰撞,那么底层会调用柳岩所属类String中的equals方法来比较两个内容是否相等:相等:则将后添加的数据的value覆盖之前的value,不相等:那么继续向下和其他数据的kay进行比较,如果都不相等,则划出一个节点存储数据,如果节点长度即链表长度大于阈值8并且数组长度大于64则将链表变为红黑树

1.HashMap中的hash函数是怎么实现的?还有哪些hash函数的实现方式?

对于key的hashcode做hash操作,无符号右移16位然后异或运算。还有伪随机数法和取余数法,这两种效率都比较低,而无符号右移16位或异或运算效率是最高的,基于底层是如何计算的我们之后看源码讲解

2.面试题2:当两个对象的hashcode相等时会怎么样

会产生哈希碰撞,若key值内容相同则替换旧的value,不然连接到链表后面,链表长度超过阈值8table长度超过64转化为红黑树存储

3.面试题3:何时发生哈希碰撞和什么是哈希碰撞,如何解决哈希碰撞

只要两个元素的key计算的哈希值相同就会发生哈希碰撞,jdk8之前使用链表解决哈希碰撞,jdk8之后使用链表+红黑树解决哈希碰撞

4.面试题4:如果两个键的hashcode相同,如何存储键值对

hashcode相同,通过equals比较内容是否相同相同:则新的value覆盖之前的value不相同:则将新的键值对添加到哈希表中

5.在不断添加数据的过程中,会涉及到扩容问题,当超出临界值时,扩容:默认的扩容方式:扩容为原来容量的2倍,并且将原有的数据复制过来

6.通过上述的描述,当位于一个链表中的元素较多,即hash值相等但是内容不相等的元素较多时,通过key值一次查找的效率较低,而jdk1.8之后,哈希表存储采用数组+链表+红黑树实现,当链表长度阈值超多8并且table长度大于64时,将链表转换为红黑树,这样大大减少了查找时间,jdk1,8在哈希表中引入红黑树的原因也就是为了提高查询效率

但是问题来了,传统的hashmap的缺点,1.8为什么引入了红黑树?这样结构的话不是更麻烦了吗,为何阈值大于8转换成红黑树?

jdk1.8以前hashmap的实现是数组+链表,即使哈希函数取得再好,也很难达到百分百的均匀分布,当hashmap中有大量的元素都存放到一个桶中时,这个桶下有一条长长的链表,这个时候hahsmap就相当于一个单链表,假如单链表中有n个元素,完全失去了他的优势,针对这种情况,jdk1.8之后引入了红黑树来优化这个问题,当链表长度很小的时候,即使遍历,速度也非常快,但是当链表长度不断变长,肯定会对查询性能有一定的影响,所以才需要转成树

说明:

  • size表示hashmap中key-value的实时数量,注意这个不等于数组的长度

  • threshold(临界值)=容量*加载因子,这个值是当前已占用数组长度的最大值,size超过这个临界值就重新进行resize(扩容),扩容后的hashmap容量是之前容量的2倍

3.hashmap继承关系

  • cloneable接口,表示可以克隆,创建并返回hashmap对象的一个副本

  • serializable序列化接口,属性标记性接口,hashmap对象可以被序列化和反序列化

  • abstractmap父类提供了map实现接口,以最大限度减少实现此接口所需的工作

4.hashmap集合类的成员

成员变量

1.集合的初始化容量(必须是2的n次幂)

static final int DEFAULT_INITIAL_CAPACITY=1<<4

问:为什么必须是2的n次幂?如果输入值不是2的幂比如10会怎么样?

hashmap构造方法还可以指定集合的初始化容量大小

当向hashmap中添加一个元素的时候,可以根据key值计算hash值,去确定其在数组中的具体位置,hashmap为了存取高效,要尽量减少碰撞,就是要尽量把数据分配均匀,每个链表长度大致相同,这个实现就在把数据存到哪个链表中的算法

这个算法实际上是取模,hash%length,计算机中直接求余效率远不如位运算,所以源码中做了优化,使用hash&(length-1),而实际上hash%length等于hash&(length-1)的前提是length是2的n次

1.默认的负载因子,默认值是0.75

static final float DEFAULT_LOAD_FACTOR=0.75f;

2.集合的最大容量

static final int MAXIMUM_CAPACITY=1<<30

为什么map桶中的节点个数超过8才转换为红黑树?

8这个阈值定义在hashmap中,针对这个成员变量,在源码注释中只说明了8是bin从链表转换成树的阈值,但是并没有说为什么是8,因为树的大小约是普通节点的2倍,所以我们只在箱子包含足够的节点时才使用树节点,当他们变得太小时,就会被转换回普通的桶,在使用分布良好的用户的hashcode时,很少使用树箱,理想情况下,在随机哈希吗下,箱子中的节点的频率服从泊松分布

treenodes占用空间是普通node的两倍,所以只有当链表过长才会转化为红黑树,链表长度达到8时会转换为红黑树,长度降到6时,则会变成普通的链表

5.小总结

概括的说,HashMap 是一个关联数组、哈希表,它是线程不安全的,允许key为null,value为null。遍历时无序。 其底层数据结构是数组称之为哈希桶,每个桶里面放的是链表,链表中的每个节点,就是哈希表中的每个元素。 在JDK8中,当链表长度达到8,会转化成红黑树,以提升它的查询、插入效率,它实现了Map, Cloneable, Serializable接口。

因其底层哈希桶的数据结构是数组,所以也会涉及到扩容的问题。

HashMap的容量达到threshold域值时,就会触发扩容。扩容前后,哈希桶的长度一定会是2的次方。 这样在根据key的hash值寻找对应的哈希桶时,可以用位运算替代取余操作更加高效

而key的hash值,并不仅仅只是key对象的hashCode()方法的返回值,还会经过扰动函数的扰动,以使hash值更加均衡。 因为hashCode()int类型,取值范围是40多亿,只要哈希函数映射的比较均匀松散,碰撞几率是很小的。 但就算原本的hashCode()取得很好,每个key的hashCode()不同,但是由于HashMap的哈希桶的长度远比hash取值范围小,默认是16,所以当对hash值以桶的长度取余,以找到存放该key的桶的下标时,由于取余是通过与操作完成的,会忽略hash值的高位。因此只有hashCode()的低位参加运算,发生不同的hash值,但是得到的index相同的情况的几率会大大增加,这种情况称之为hash碰撞。 即,碰撞率会增大。

扰动函数就是为了解决hash碰撞的。它会综合hash值高位和低位的特征,并存放在低位,因此在与运算时,相当于高低位一起参与了运算,以减少hash碰撞的概率。(在JDK8之前,扰动函数会扰动四次,JDK8简化了这个操作)

扩容操作时,会new一个新的Node数组作为哈希桶,然后将原哈希表中的所有数据(Node节点)移动到新的哈希桶中,相当于对原哈希表中所有的数据重新做了一个put操作。所以性能消耗很大,可想而知,在哈希表的容量越大时,性能消耗越明显。

扩容时,如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。 因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位= low位+原哈希桶容量 如果追加节点后,链表数量》=8,则转化为红黑树

由迭代器的实现可以看出,遍历HashMap时,顺序是按照哈希桶从低到高,链表从前往后,依次遍历的。属于无序集合。

整个HashMap示意图:图片来源于网络,侵删:

HashMap的源码中,充斥个各种位运算代替常规运算的地方,以提升效率:

  • 与运算替代模运算。用 hash & (table.length-1) 替代 hash % (table.length)

  • if ((e.hash & oldCap) == 0)判断扩容后,节点e处于低区还是高区。

6 链表节点Node

在开始之前,我们先看一下挂载在哈希表上的元素,链表的结构:

    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;//哈希值
        final K key;//key
        V value;//value
        Node<K,V> next;//链表后置节点

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }

        public final K getKey()        { return key; }
        public final V getValue()      { return value; }
        public final String toString() { return key + "=" + value; }

        //每一个节点的hash值,是将key的hashCode 和 value的hashCode 亦或得到的。
        public final int hashCode() {
            return Objects.hashCode(key) ^ Objects.hashCode(value);
        }
        //设置新的value 同时返回旧value
        public final V setValue(V newValue) {
            V oldValue = value;
            value = newValue;
            return oldValue;
        }

        public final boolean equals(Object o) {
            if (o == this)
                return true;
            if (o instanceof Map.Entry) {
                Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                if (Objects.equals(key, e.getKey()) &&
                    Objects.equals(value, e.getValue()))
                    return true;
            }
            return false;
        }
    }复制代码

由此可知,这是一个单链表~。 每一个节点的hash值,是将key的hashCode 和 value的hashCode 亦或得到的。

7.构造函数

    //最大容量 2的30次方
    static final int MAXIMUM_CAPACITY = 1 << 30;
    //默认的加载因子
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    //哈希桶,存放链表。 长度是2的N次方,或者初始化时为0.
    transient Node<K,V>[] table;

    //加载因子,用于计算哈希表元素数量的阈值。  threshold = 哈希桶.length * loadFactor;
    final float loadFactor;
    //哈希表内元素数量的阈值,当哈希表内元素数量超过阈值时,会发生扩容resize()。
    int threshold;

    public HashMap() {
        //默认构造函数,赋值加载因子为默认的0.75f
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }
    public HashMap(int initialCapacity) {
        //指定初始化容量的构造函数
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }
    //同时指定初始化容量 以及 加载因子, 用的很少,一般不会修改loadFactor
    public HashMap(int initialCapacity, float loadFactor) {
        //边界处理
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        //初始容量最大不能超过2的30次方
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        //显然加载因子不能为负数
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        //设置阈值为  》=初始化容量的 2的n次方的值
        this.threshold = tableSizeFor(initialCapacity);
    }
    //新建一个哈希表,同时将另一个map m 里的所有元素加入表中
    public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }复制代码
    //根据期望容量cap,返回2的n次方形式的 哈希桶的实际容量 length。 返回值一般会>=cap 
    static final int tableSizeFor(int cap) {
    //经过下面的 或 和位移 运算, n最终各位都是1。
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        //判断n是否越界,返回 2的n次方作为 table(哈希桶)的阈值
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }复制代码
    //将另一个Map的所有元素加入表中,参数evict初始化时为false,其他情况为true
    final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
        //拿到m的元素数量
        int s = m.size();
        //如果数量大于0
        if (s > 0) {
            //如果当前表是空的
            if (table == null) { // pre-size
                //根据m的元素数量和当前表的加载因子,计算出阈值
                float ft = ((float)s / loadFactor) + 1.0F;
                //修正阈值的边界 不能超过MAXIMUM_CAPACITY
                int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                         (int)ft : MAXIMUM_CAPACITY);
                //如果新的阈值大于当前阈值
                if (t > threshold)
                    //返回一个 》=新的阈值的 满足2的n次方的阈值
                    threshold = tableSizeFor(t);
            }
            //如果当前元素表不是空的,但是 m的元素数量大于阈值,说明一定要扩容。
            else if (s > threshold)
                resize();
            //遍历 m 依次将元素加入当前表中。
            for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                K key = e.getKey();
                V value = e.getValue();
                putVal(hash(key), key, value, false, evict);
            }
        }
    }复制代码

先看一下扩容函数: 这是一个重点!重点!重点! 初始化或加倍哈希桶大小。如果是当前哈希桶是null,分配符合当前阈值的初始容量目标。 否则,因为我们扩容成以前的两倍。 在扩容时,要注意区分以前在哈希桶相同index的节点,现在是在以前的index里,还是index+oldlength 里

final Node<K,V>[] resize() {
        //oldTab 为当前表的哈希桶
        Node<K,V>[] oldTab = table;
        //当前哈希桶的容量 length
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        //当前的阈值
        int oldThr = threshold;
        //初始化新的容量和阈值为0
        int newCap, newThr = 0;
        //如果当前容量大于0
        if (oldCap > 0) {
            //如果当前容量已经到达上限
            if (oldCap >= MAXIMUM_CAPACITY) {
                //则设置阈值是2的31次方-1
                threshold = Integer.MAX_VALUE;
                //同时返回当前的哈希桶,不再扩容
                return oldTab;
            }//否则新的容量为旧的容量的两倍。 
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)//如果旧的容量大于等于默认初始容量16
                //那么新的阈值也等于旧的阈值的两倍
                newThr = oldThr << 1; // double threshold
        }//如果当前表是空的,但是有阈值。代表是初始化时指定了容量、阈值的情况
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;//那么新表的容量就等于旧的阈值
        else {}//如果当前表是空的,而且也没有阈值。代表是初始化时没有任何容量/阈值参数的情况               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;//此时新表的容量为默认的容量 16
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//新的阈值为默认容量16 * 默认加载因子0.75f = 12
        }
        if (newThr == 0) {//如果新的阈值是0,对应的是  当前表是空的,但是有阈值的情况
            float ft = (float)newCap * loadFactor;//根据新表容量 和 加载因子 求出新的阈值
            //进行越界修复
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        //更新阈值 
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
        //根据新的容量 构建新的哈希桶
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        //更新哈希桶引用
        table = newTab;
        //如果以前的哈希桶中有元素
        //下面开始将当前哈希桶中的所有节点转移到新的哈希桶中
        if (oldTab != null) {
            //遍历老的哈希桶
            for (int j = 0; j < oldCap; ++j) {
                //取出当前的节点 e
                Node<K,V> e;
                //如果当前桶中有元素,则将链表赋值给e
                if ((e = oldTab[j]) != null) {
                    //将原哈希桶置空以便GC
                    oldTab[j] = null;
                    //如果当前链表中就一个元素,(没有发生哈希碰撞)
                    if (e.next == null)
                        //直接将这个元素放置在新的哈希桶里。
                        //注意这里取下标 是用 哈希值 与 桶的长度-1 。 由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但是效率更高
                        newTab[e.hash & (newCap - 1)] = e;
                        //如果发生过哈希碰撞 ,而且是节点数超过8个,转化成了红黑树(暂且不谈 避免过于复杂, 后续专门研究一下红黑树)
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    //如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。
                    else { // preserve order
                        //因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位=  low位+原哈希桶容量
                        //低位链表的头结点、尾节点
                        Node<K,V> loHead = null, loTail = null;
                        //高位链表的头节点、尾节点
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;//临时节点 存放e的下一个节点
                        do {
                            next = e.next;
                            //这里又是一个利用位运算 代替常规运算的高效点: 利用哈希值 与 旧的容量,可以得到哈希值去模后,是大于等于oldCap还是小于oldCap,等于0代表小于oldCap,应该存放在低位,否则存放在高位
                            if ((e.hash & oldCap) == 0) {
                                //给头尾节点指针赋值
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }//高位也是相同的逻辑
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }//循环直到链表结束
                        } while ((e = next) != null);
                        //将低位链表存放在原index处,
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        //将高位链表存放在新index处
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }复制代码

再看一下 往哈希表里插入一个节点的putVal函数,如果参数onlyIfAbsent是true,那么不会覆盖相同key的值value。如果evict是false。那么表示是在初始化时调用的

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        //tab存放 当前的哈希桶, p用作临时链表节点  
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //如果当前哈希表是空的,代表是初始化
        if ((tab = table) == null || (n = tab.length) == 0)
            //那么直接去扩容哈希表,并且将扩容后的哈希桶长度赋值给n
            n = (tab = resize()).length;
        //如果当前index的节点是空的,表示没有发生哈希碰撞。 直接构建一个新节点Node,挂载在index处即可。
        //这里再啰嗦一下,index 是利用 哈希值 & 哈希桶的长度-1,替代模运算
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {//否则 发生了哈希冲突。
            //e
            Node<K,V> e; K k;
            //如果哈希值相等,key也相等,则是覆盖value操作
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;//将当前节点引用赋值给e
            else if (p instanceof TreeNode)//红黑树暂且不谈
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {//不是覆盖操作,则插入一个普通链表节点
                //遍历链表
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {//遍历到尾部,追加新节点到尾部
                        p.next = newNode(hash, key, value, null);
                        //如果追加节点后,链表数量》=8,则转化为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    //如果找到了要覆盖的节点
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            //如果e不是null,说明有需要覆盖的节点,
            if (e != null) { // existing mapping for key
                //则覆盖节点值,并返回原oldValue
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                //这是一个空实现的函数,用作LinkedHashMap重写使用。
                afterNodeAccess(e);
                return oldValue;
            }
        }
        //如果执行到了这里,说明插入了一个新的节点,所以会修改modCount,以及返回null。

        //修改modCount
        ++modCount;
        //更新size,并判断是否需要扩容。
        if (++size > threshold)
            resize();
        //这是一个空实现的函数,用作LinkedHashMap重写使用。
        afterNodeInsertion(evict);
        return null;
    }复制代码

newNode如下:构建一个链表节点

    // Create a regular (non-tree) node
    Node<K,V> newNode(int hash, K key, V value, Node<K,V> next) {
        return new Node<>(hash, key, value, next);
    }复制代码
    // Callbacks to allow LinkedHashMap post-actions
    void afterNodeAccess(Node<K,V> p) { }
    void afterNodeInsertion(boolean evict) { }复制代码

小结:

  • 运算尽量都用位运算代替**,更高效**。

  • 对于扩容导致需要新建数组存放更多元素时,除了要将老数组中的元素迁移过来,也记得将老数组中的引用置null,以便GC

  • 取下标 是用 哈希值 与运算 (桶的长度-1) i = (n - 1) & hash。 由于桶的长度是2的n次方,这么做其实是等于 一个模运算。但是效率更高

  • 扩容时,如果发生过哈希碰撞,节点数小于8个。则要根据链表上每个节点的哈希值,依次放入新哈希桶对应下标位置。

  • 因为扩容是容量翻倍,所以原链表上的每个节点,现在可能存放在原来的下标,即low位, 或者扩容后的下标,即high位。 high位= low位+原哈希桶容量

  • 利用哈希值 与运算 旧的容量if ((e.hash & oldCap) == 0),可以得到哈希值去模后,是大于等于oldCap还是小于oldCap,等于0代表小于oldCap,应该存放在低位,否则存放在高位。这里又是一个利用位运算 代替常规运算的高效点

  • 如果追加节点后,链表数量》=8,则转化为红黑树

  • 插入节点操作时,有一些空实现的函数,用作LinkedHashMap重写使用。

8 与HashTable的区别

  • 与之相比HashTable是线程安全的,且不允许key、value是null。

  • HashTable默认容量是11。

  • HashTable是直接使用key的hashCode(key.hashCode())作为hash值,不像HashMap内部使用static final int hash(Object key)扰动函数对key的hashCode进行扰动后作为hash值。

  • HashTable取哈希桶下标是直接用模运算%.(因为其默认容量也不是2的n次方。所以也无法用位运算替代模运算)

  • 扩容时,新容量是原来的2倍+1。int newCapacity = (oldCapacity << 1) + 1;

  • HashtableDictionary的子类同时也实现了Map接口,HashMapMap接口的一个实现类