ConcurrentHashMap

65 阅读6分钟

和Map的区别在于 在put操作的时候进行了同步操作。get操作还是一样

总的数据结构是一个大的Segment套一堆HashEntry。

JDK1.7版本:ReentrantLock+Segment+HashEntry
JDK1.8版本:synchronized+CAS+HashEntry+红黑树

可以看出到了jdk1.8 锁的粒度进一步细化,那么为什么能够进一步细化并且使用synchronized替换1.7中的ReentrantLock,还是因为,synchronized锁升级的优化,使得锁在更细粒度下仍然有更好的表现


1.锁结构不同

在JDK1.7中,ConcurrentHashMap基于Segment+HashEntry数组实现的。Segment是Reentrant的子类,而其内部也维护了一个Entry数组,这个Entry数组和HashMap中的Entry数组是一样的。所以说Segment其实是一个锁,可以锁住一段哈希表结构,而ConcurrentHashMap中维护了一个Segment数组,所以是基于分段锁实现的。 而JDK1.8中,ConcurrentHashMap摒弃了Segment,而是采用synchronized+CAS+红黑树来实现的。锁的粒度也从段锁缩小为结点锁.

2.put()的执行流程有所不同

JDK1.7

ConcurrentHashMap要进行两次定位,先对Segment进行定位,再对其内部的数组下标进行定位。定位之后会采用自旋锁+锁膨胀的机制进行加锁,也就是自旋获取锁,当自旋次数超过64时,会发生膨胀,直接陷入阻塞状态,等待唤醒。并且在整个put操作期间都持有锁。

JDK1.8

只需要一次定位,并且采用CAS+synchronized的机制。如果对应下标处没有结点,说明没有发生哈希冲突,此时直接通过CAS进行插入,若成功,直接返回。若失败,则使用synchronized进行加锁插入。如果存在扩容,那么就去协助扩容,加完数据之后,再判断是否还需要扩容。

数据结构:synchronized+CAS+红黑树+数组+链表,因为synchronized进行了锁优化,性能提升了很多,直接使用Node数组来保存数据,以达到减少并发冲突概率,引入红黑树结构减低时间复杂度。

 /** Implementation for put and putIfAbsent */
    final V putVal(K key, V value, boolean onlyIfAbsent) {
        //不能存储为null的元素
        if (key == null || value == null) throw new NullPointerException();
        //进行hash运算
        int hash = spread(key.hashCode());
        //用来标记链表长度
        int binCount = 0;
        //自旋,当出现锁竞争不断自旋
        for (Node<K,V>[] tab = table;;) {
            Node<K,V> f; int n, i, fh;
            //进行初始化扩容
            if (tab == null || (n = tab.length) == 0)
    // 默认创建长度为16的数组长度,加载因子为0.75的Map
                tab = initTable();
                //通过hash得到下标索引,以 volatile 读的方式来读取 table 数
                //组中的元素,保证每次拿到的数据都是最新的
            else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            //槽位为null 创建一个新结点,通过cas插入node,如果cas失败,则代表出现锁竞争,进行自旋
如果插入成功,则修改addCount,检查是否需要扩容
                if (casTabAt(tab, i, null,
                             new Node<K,V>(hash, key, value, null)))
                    break;                   // no lock when adding to empty bin
            }
            //其他线程在扩容
            else if ((fh = f.hash) == MOVED)
            //进行一起扩容
                tab = helpTransfer(tab, f);
            //添加元素
            else {
                V oldVal = null;
                synchronized (f) {
                //定位下标索引
                    if (tabAt(tab, i) == f) {
                        if (fh >= 0) {
                            binCount1;
                            for (Node<K,V> e = f;; ++binCount) {
                                K ek;
                                //当前元素与之前的元素相等(未链化)
                                if (e.hash == hash &&
                                    ((ek = e.key) == key ||
                                     (ek != null && key.equals(ek)))) {
                                    oldVal = e.val;
                                    if (!onlyIfAbsent)
                                    //替换老元素
                                        e.val = value;
                                    break;
                                }
                                //出现链化情况
                                Node<K,V> pred = e;
                                if ((e = e.next) == null) {
                                    pred.next = new Node<K,V>(hash, key,
                                                              value, null);
                                    break;
                                }
                            }
                        }
                        //是否为树结点
                        else if (f instanceof TreeBin) {
                            Node<K,V> p;
                            binCount2;
                            if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,
                                                           value)) != null) {
                                oldVal = p.val;
                                if (!onlyIfAbsent)
                                    p.val = value;
                            }
                        }
                    }
                }
                if (binCount != 0) {
                //是否满足树化条件(链表.length>8 && 容量>64)
                    if (binCount >= TREEIFY_THRESHOLD)
                        treeifyBin(tab, i);
                    if (oldVal != null)
                        return oldVal;
                    break;
                }
            }
        }
        //计数
        addCount(1L, binCount);
        return null;
    }


 private final Node<K,V>[] initTable() {
        Node<K,V>[] tab; int sc;
        while ((tab = table) == null || tab.length == 0) {
        //其他线程抢到资源,正在进行初始化扩容
            if ((sc = sizeCtl) < 0)
                Thread.yield(); // lost initialization race; just spin
                //另一线程放弃该操作,进行自旋
                
                //进行cas操作 将SIZECTL更新为-1,标识当前线程抢到了初始化资格
            else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            
                try {
                    if ((tab = table) == null || tab.length == 0) {
                    //进行默认扩容
                        int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                        @SuppressWarnings("unchecked")
                        Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                        table = tab = nt;
                        //计算下一次的扩容长度 实际加载因子0.75 不像hashMap乘以0.75这里是右移
                        sc = n - (n >>> 2);
                    }
                } finally {
                //假设容量为16 16*0.75 = 12
                    sizeCtl = sc;
                }
                break;
            }
        }
        return tab;
    }


sizeCtl该变量是一个标记符,-1代表正在初始化 -N代表有线程正在扩容 0代表Node数组没有初始化。

3.get()操作

1.7

ConcurrentHashMap的get操作跟HashMap类似,只是ConcurrentHashMap第一次需要经过一次hash定位到Segment的位置,然后再hash定位到指定的HashEntry,遍历该HashEntry下的链表进行对比,成功就返回,不成功就返回null 我们发现整个get过程中使用了大量的volatile关键字,其实就是保证了可见性(加锁也可以,但是降低了性能),get只是读取操作,所以我们只需要保证读取的是最新的数据即可..

1.8

据计算出来的 hashcode 寻址,如果就在桶上那么直接返回值。
如果正在扩容,且当前节点已经扩容完成,那么根据ForwardingNode查找扩容后的table上的对应数据
如果是红黑树那就按照树的方式获取值。如果不满足那就按照链表的方式遍历获取值。

4.size操作

1.7

计算ConcurrentHashMap的元素大小是一个有趣的问题,因为他是并发操作的,就是在你计算size的时候,他还在并发的插入数据,可能会导致你计算出来的size和你实际的size有相差(在你return size的时候,插入了多个数据),要解决这个问题,JDK1.7版本用两种方案

1、第一种方案他会使用不加锁的模式去尝试多次计算ConcurrentHashMap的size,最多三次,比较前后两次计算的结果,结果一致就认为当前没有元素加入,计算的结果是准确的

2、第二种方案是如果第一种方案不符合,他就会给每个Segment加上锁,然后计算ConcurrentHashMap的size返回(美团面试官的问题,多个线程下如何确定size)

1.8

在JDK1.8版本中,对于size的计算,在扩容和addCount()方法就已经有处理了,可以注意一下Put函数,里面就有addCount()函数,早就计算好的,然后你size的时候直接给你。JDK1.7是在调用size()方法才去计算,其实在并发集合中去计算size是没有多大的意义的,因为size是实时在变的,只能计算某一刻的大小,但是某一刻太快了,人的感知是一个时间段,所以并不是很精确


put是时候如果看到 move = -1 代表正在扩容,此时会放弃任务去帮助迁移。helpTransfer,怎么帮,我会给他16个槽位。