jdk1.7 hashmap的循环依赖问题是面试常常被问到的问题,如何答复不好,可能会被扣分。明天我就带大家一下梳理一下,这个问题是如何产生的,以及如何解决这个问题。
一、hashmap的数据结构
先一起看看jdk1.7 hashmap的数据结构
数组 + 链表
hashmap会给每个元素的key生成一个hash值,而后依据这个hash值计算一个在数组中的地位i。i不同的元素放在数组的不同地位,i雷同的元素放在链表上,最新的数据放在链表的头部。
往hashmap中保留元素会调用put办法,获取元素会调用get办法。接下来,咱们重点看看put办法。
二、put办法
重点看看put办法
public V put(K key, V value) { if (table == EMPTY_TABLE) { inflateTable(threshold); } if (key == null) return putForNullKey(value); //依据key获取hash int hash = hash(key); //计算在数组中的下表 int i = indexFor(hash, table.length); //变量汇合查问雷同key的数据,如果曾经存在则更新数据 for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); //返回已有数据 return oldValue; } } modCount++; //如果不存在雷同key的元素,则增加新元素 addEntry(hash, key, value, i); return null;}
再看看addEntry办法
void addEntry(int hash, K key, V value, int bucketIndex) { // 当数组的size >= 扩容阈值,触发扩容,size大小会在createEnty和removeEntry的时候扭转 if ((size >= threshold) && (null != table[bucketIndex])) { // 扩容到2倍大小,后边会跟进这个办法 resize(2 * table.length); // 扩容后从新计算hash和index hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } // 创立一个新的链表节点,点进去能够理解到是将新节点增加到了链表的头部 createEntry(hash, key, value, bucketIndex); }
看看resize是如何扩容的
void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } // 创立2倍大小的新数组 Entry[] newTable = new Entry[newCapacity]; // 将旧数组的链表转移到新数组,就是这个办法导致的hashMap不平安,等下咱们进去看一眼 transfer(newTable, initHashSeedAsNeeded(newCapacity)); table = newTable; // 从新计算扩容阈值(容量*加载因子) threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);}
出问题的就是这个transfer办法
void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; // 遍历旧数组 for (Entry<K,V> e : table) { // 遍历链表 while(null != e) { //获取下一个元素,记录到一个长期变量,以便前面应用 Entry<K,V> next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } // 计算节点在新数组中的下标 int i = indexFor(e.hash, newCapacity); // 将旧节点插入到新节点的头部 e.next = newTable[i]; //这行才是真正把数据插入新数组中,后面那行代码只是设置以后节点的next //这两行代码决定了倒序插入 //比方:以前同一个地位上是:3,7,前面可能变成了:7、3 newTable[i] = e; //将下一个元素赋值给以后元素,以便遍历下一个元素 e = next; } }}
我来给大家剖析一下,为什么这几个代码是头插法,网上很多技术文章都没有说分明。
三、头插法
咱们把眼光聚焦到这几行代码:
//获取下一个元素,记录到一个长期变量,以便前面应用 Entry<K,V> next = e.next; // 计算节点在新数组中的下标 int i = indexFor(e.hash, newCapacity); // 将旧节点插入到新节点的头部 e.next = newTable[i]; //这行才是真正把数据插入新数组中,后面那行代码只是设置以后节点的next newTable[i] = e; //将下一个元素赋值给以后元素,以便遍历下一个元素 e = next;
假如刚开始hashMap有这些数据
调用put办法须要进行一次扩容,刚开始会创立一个空的数组,大小是以前的2倍,如图所示:
开始第一轮循环:
//next= 7 e = 3 e.next = 7 Entry<K,V> next = e.next; // i=3 int i = indexFor(e.hash, newCapacity); //e.next = null ,刚初始化时新数组的元素为null e.next = newTable[i]; //给新数组i地位 赋值 3 newTable[i] = e; // e = 7 e = next;
执行完之后,第一轮循环之后数据变成这样的
再接着开始第二轮循环:
//next= 5 e = 7 e.next = 5 Entry<K,V> next = e.next; // i=3 int i = indexFor(e.hash, newCapacity); //e.next = 3 ,此时雷同地位上曾经有key=3的值了,将该值赋值给以后元素的next e.next = newTable[i]; //给新数组i地位 赋值 7 newTable[i] = e; // e = 5 e = next;
下面会形成一个新链表,连贯的程序正好反过来了。
因为第二次循环时,节点key=7的元素插到雷同地位上已有元素key=3的后面,所以说是采纳的头插法。
四、死循环的产生
接下来重点看看死循环是如何产生的?
假如数据跟元素数据统一,有两个线程:线程1 和 线程2,同时执行put办法,最初同时调用transfer办法。
线程1 先执行,到 Entry<K,V> next = e.next; 这一行,被挂起了。
//next= 7 e = 3 e.next = 7 Entry<K,V> next = e.next; int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next;
此时线程1 创立的数组会创立一个空数组
接下来,线程2开始执行,因为线程2运气比拟好,没有被中断过,执行结束了。
过一会儿,线程1被复原了,从新执行代码。
//next= 7 e = 3 e.next = 7 Entry<K,V> next = e.next; // i = 3 int i = indexFor(e.hash, newCapacity); // e.next = null,刚初始化时新数组的元素为null e.next = newTable[i]; // 给新数组i地位 赋值 3 newTable[i] = e; // e = 7 e = next;
这时候线程1的数组会变成这样的
再执行第二轮循环,此时的e=7
//next= 3 e = 7 e.next = 3 Entry<K,V> next = e.next; // i = 3 int i = indexFor(e.hash, newCapacity); // e.next = 3,此时雷同地位上曾经有key=3的值了,将该值赋值给以后元素的next e.next = newTable[i]; // 给新数组i地位 赋值 7 newTable[i] = e; // e = 3 e = next;
这里特地要阐明的是 此时e=7,而e.next为什么是3呢?
因为hashMap的数据是公共的,还记得线程2中的生成的数据吗?
此时e=7,那么e.next必定是3。
通过下面第二轮循环之后,线程1失去的数据如下:
此时因为循环判断还没有退出,判断条件是: while(null != e),所以要开始第三轮循环:
//next= null e = 3 e.next = null Entry<K,V> next = e.next; // i = 3 int i = indexFor(e.hash, newCapacity); // e.next = 7,要害的一步,因为第二次循环是 key:7 .next = key:3,当初key:3.next = key:7 e.next = newTable[i]; // 给新数组i地位 赋值 3 newTable[i] = e; // e = null e = next;
因为e=null,此时会退出循环,最终线程1的数据会是这种构造:
key:3 和 key:7又复原了刚开始的程序,然而他们的next会互相援用,形成环形援用。
留神,此时调用hashmap的get办法获取数据时,如果只是获取循环链上key:3 和 key:7的数据,是不会有问题的,因为能够找到。就怕获取循环链上没有的数据,比方:key:11,key:15等,会进入有限循环中导致CPU使用率飙升。
五、如何防止死循环
为了解决这个问题,jdk1.8把扩容是复制元素到新数组由 头插法 改成了 尾插法 。此外,引入了红黑树,晋升遍历节点的效率。在这里我就不过多介绍了,如果有趣味的敌人,能够关注我的公众号,前面会给大家详细分析jdk1.8的实现,以及 jdk1.7、jdk1.8 hashmap的区别。
此外,HashMap是非线程平安的,要防止在多线程的环境中应用HashMap,而应该改成应用ConcurrentHashMap。
所以总结一下要防止产生死循环的问题的办法:改成ConcurrentHashMap