jdk1.7的ConcurrentHashMap
jdk1.7采用的是Segment+HashEntry数组+链表来实现的
ConcurrentHashMap初始化时有16个Segment,每个Segment中又包含了HashEntry数组,每个HashEntry又是一个链表,可以看出,Segment的结构和HashMap类似,你可以这样理解:ConcurrentHashMap由多个HashMap组成。
线程安全的实现原理
ConcurrentHashMap中的Segment在实现上继承了ReentrantLock,这样就实现了分段锁的功能。下面我们通过put()方法来看看它是如何保证线程安全的。
public V put(K key, V value) { Segment<K,V> s; // value不能为null if (value == null) throw new NullPointerException(); // 计算key的hash值 int hash = hash(key); // 定位到哪个Segment int j = (hash >>> segmentShift) & segmentMask; if ((s = (Segment<K,V>)UNSAFE.getObject (segments, (j << SSHIFT) + SBASE)) == null) // 如果此Segment为null,则初始化Segment s = ensureSegment(j); // 往Segment中put值 return s.put(key, hash, value, false);}
final V put(K key, int hash, V value, boolean onlyIfAbsent) { // 尝试获取锁,如果获取不到,则进入scanAndLockForPut方法 // scanAndLockForPut中会再次tryLock,如果还是获取不到,则lock()挂起线程 HashEntry<K,V> node = tryLock() ? null : scanAndLockForPut(key, hash, value); V oldValue; try { // table通过volatile修饰,保证拿到的都是最新的table HashEntry<K,V>[] tab = table; // 得到数组下标,&取模作用,详细介绍可以看我写的jdk1.8HashMap文章 int index = (tab.length - 1) & hash; // 得到此下标下的HashEntry HashEntry<K,V> first = entryAt(tab, index); // 遍历链表 for (HashEntry<K,V> e = first;;) { if (e != null) { K k; // 如果key相同,则覆盖原值 if ((k = e.key) == key || (e.hash == hash && key.equals(k))) { oldValue = e.value; if (!onlyIfAbsent) { e.value = value; // 修改次数+1,用于限制遍历中删除 ++modCount; } break; } // 继续遍历下个值 e = e.next; } else { if (node != null) // 头插法(头插法的问题看我写的jdk1.7HashMap文章) node.setNext(first); else // new新的HashEntry,里面也是采用头插法 node = new HashEntry<K,V>(hash, key, value, first); int c = count + 1; // 如果大于阈值,开始扩容 if (c > threshold && tab.length < MAXIMUM_CAPACITY) rehash(node); else // 将链表放到数组下标处 setEntryAt(tab, index, node); ++modCount; count = c; oldValue = null; break; } } } finally { // 释放锁 unlock(); } return oldValue;}
通过上面源码可以看出jdk1.7的ConcurrentHashMap通过Segment的ReentrantLock锁来实现线程安全。要注意的是上锁操作是this.lock()
,也就是每个Segment的锁是分开的,其中一个上锁并不影响其他Segment操作,说明可以同时16个线程同时进来对不同Segment操作,这样可以有效的提高并发度。
这种Segment+ReentrantLock
看起来可以很好的解决并发问题了,那为什么jdk1.8又不继续使用此方法了呢?下面我们看看jdk1.8的ConcurrentHashMap
jdk1.8的ConcurrentHashMap
jdk1.8采用的是Node数组+链表/红黑树实现
jdk1.8的ConcurrentHashMap去除了外层的Segment,直接使用数组加链表或红黑树,数据结构和1.8的HashMap一样,不同之处在于使用了CAS+synchronized
保证了线程安全。
线程安全的实现原理
我们还是通过put()方法看看它是如何保证线程安全的
public V put(K key, V value) { return putVal(key, value, false);}final V putVal(K key, V value, boolean onlyIfAbsent) { // 同样value不能为null if (key == null || value == null) throw new NullPointerException(); // 新的hash算法,和1.7的不同 int hash = spread(key.hashCode()); int binCount = 0; for (Node<K,V>[] tab = table;;) { Node<K,V> f; int n, i, fh; if (tab == null || (n = tab.length) == 0) // 如果table为空,初始化 tab = initTable(); // f=此下标的头节点,i=下标 else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) { // 如果此下标节点为空,new新节点放在此节点下 if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null))) break; // no lock when adding to empty bin } // fh=头节点的hash值 else if ((fh = f.hash) == MOVED) // 协助扩容 tab = helpTransfer(tab, f); else { V oldVal = null; // 重点来了,synchronized锁当前node节点 synchronized (f) { if (tabAt(tab, i) == f) { // 头节点hash值大于0,说明是链表 if (fh >= 0) { // 链表长度 binCount = 1; // 遍历链表 for (Node<K,V> e = f;; ++binCount) { K ek; // key相同,覆盖原值 if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) { oldVal = e.val; if (!onlyIfAbsent) e.val = value; break; } Node<K,V> pred = e; // 到链表末端,new新node挂在末端 if ((e = e.next) == null) { pred.next = new Node<K,V>(hash, key,value, null); break; } } } // 红黑树逻辑 else if (f instanceof TreeBin) { Node<K,V> p; binCount = 2; if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,value)) != null) { oldVal = p.val; if (!onlyIfAbsent) p.val = value; } } } } if (binCount != 0) { // 如果链表长度超过阈值,转红黑树 if (binCount >= TREEIFY_THRESHOLD) treeifyBin(tab, i); if (oldVal != null) return oldVal; break; } } } addCount(1L, binCount); return null;}
通过上面源码可以看出,1.8的ConcurrentHashMap采用的是synchronized来实现线程安全。synchronized (f)
可以看出锁的是每一个Node对象,这样可以将锁细化,除非有多个线程同时操作同一个Node,否则不会出现争抢锁,这样锁也不会升级,就算出现争抢锁,也可以通过自旋来获取锁,达到一定次数才会升级为重量级锁,这种情况是很少的。那为什么1.7的ReentrantLock不细化到Node上呢?
如果1.7的ReentrantLock细化到Node上,它只会在线程没有抢到锁的时候,新建节点再尝试一次,如果还没抢到,不会自旋,而是直接挂起,这样就增加了线程上下文开销的代价。当然,ReentrantLock的tryLock()也是可以自旋的,但是确定不了tryLock的时间。
所以,在锁细化到如此程度的情况下,使用synchronized是最好的选择。
<center>扫一扫,关注我</center>