总有人心里有火炬,而且彼此能看见。
高手过招,招招致命
JDK1.8 中 HashMap 的底层实现,我置信大家都能说上来个 一二,底层数据结构 数组 + 链表(或红黑树) ,源码如下
/** * 数组 */transient Node<K,V>[] table;/** * 链表构造 */static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; Node(int hash, K key, V value, Node<K,V> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } public final K getKey() { return key; } public final V getValue() { return value; } public final String toString() { return key + "=" + value; } public final int hashCode() { return Objects.hashCode(key) ^ Objects.hashCode(value); } public final V setValue(V newValue) { V oldValue = value; value = newValue; return oldValue; } public final boolean equals(Object o) { if (o == this) return true; if (o instanceof Map.Entry) { Map.Entry<?,?> e = (Map.Entry<?,?>)o; if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue())) return true; } return false; }}/** * 红黑树结构 */static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> { TreeNode<K,V> parent; // red-black tree links TreeNode<K,V> left; TreeNode<K,V> right; TreeNode<K,V> prev; // needed to unlink next upon deletion boolean red; ...
但面试往往会问的比拟细,例如上面的容量问题,咱们能答上来几个?
1、table 的初始化机会是什么时候,初始化的 table.length 是多少、阀值(threshold)是多少,理论能容下多少元素
2、什么时候触发扩容,扩容之后的 table.length、阀值各是多少?
3、table 的 length 为什么是 2 的 n 次幂
4、求索引的时候为什么是:h&(length-1),而不是 h&length,更不是 h%length
5、 Map map = new HashMap(1000); 当咱们存入多少个元素时会触发map的扩容;Map map1 = new HashMap(10000); 咱们存入第 10001个元素时会触发 map1 扩容吗
6、为什么加载因子的默认值是 0.75,并且不举荐咱们批改
因为咱们平时关注的少,一旦碰上这样的 连击 + 暴击,咱们往往手足无措、无从应答;接下来咱们看看下面的 6 个问题,是不是真的难到无奈了解 ,还是咱们不够仔细、在自信的自我认为
斗智斗勇,见招拆招
上述的问题,咱们如何去找答案 ? 形式有很多种,用的最多的,我想应该是上网查资料、看他人的博客,但我认为最无效、精确的形式是读源码
问题 1:table 的初始化
HashMap 的构造方法有如下 4 种
/** * 构造方法 1 * * 通过 指定的 initialCapacity 和 loadFactor 实例化一个空的 HashMap 对象 */public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity);}/** * 构造方法 2 * * 通过指定的 initialCapacity 和 默认的 loadFactor(0.75) 实例化一个空的 HashMap 对象 */public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR);}/** * 构造方法 3 * * 通过默认的 initialCapacity 和 默认的 loadFactor(0.75) 实例化一个空的 HashMap 对象 */public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted}/** * * 构造方法 4 * 通过指定的 Map 对象实例化一个 HashMap 对象 */public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false);}
结构形式 4 和 结构形式 1 理论利用的不多,结构形式 2 间接调用的 1(底层实现完全一致),结构形式 2 和 结构形式 3 比拟罕用,而最罕用的是结构形式 3;此时咱们以结构形式 3 为前提来剖析,而结构形式 2 咱们则在问题 5 中来剖析
应用形式 1 实例化 HashMap 的时候,table 并未进行初始化,那 table 是何时进行初始化的了 ?平时咱们是如何应用 HashMap 的,先实例化、而后 put、而后进行其余操作,如下
Map<String,Object> map = new HashMap();map.put("name", "张三");map.put("age", 21);// 后续操作...
既然实例化的时候未进行 table 的初始化,那是不是在 put 的时候初始化的了,咱们来确认下:
resize() 初始化 table 或 对 table 进行双倍扩容,源码如下(留神看正文)
/** * Initializes or doubles table size. If null, allocates in * accord with initial capacity target held in field threshold. * Otherwise, because we are using power-of-two expansion, the * elements from each bin must either stay at same index, or move * with a power of two offset in the new table. * * @return the table */final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; // 第一次 put 的时候,table = null int oldCap = (oldTab == null) ? 0 : oldTab.length; // oldCap = 0 int oldThr = threshold; // threshold=0, oldThr = 0 int newCap, newThr = 0; if (oldCap > 0) { // 条件不满足,往下走 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults 走到这里,进行默认初始化 newCap = DEFAULT_INITIAL_CAPACITY; // DEFAULT_INITIAL_CAPACITY = 1 << 4 = 16, newCap = 16; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); // newThr = 0.75 * 16 = 12; } if (newThr == 0) { // 条件不满足 float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; // threshold = 12; 重置阀值为12 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 初始化 newTab, length = 16; table = newTab; // table 初始化实现, length = 16; if (oldTab != null) { // 此时条件不满足,后续扩容的时候,走此if分支 将数组元素复制到新数组 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; // 新数组}
自此,问题 1 的答案就明了了
table 的初始化机会是什么时候
个别状况下,在第一次 put 的时候,调用 resize 办法进行 table 的初始化(懒初始化,懒加载思维在很多框架中都有利用!)
初始化的 table.length 是多少、阀值(threshold)是多少,理论能容下多少元素
- 默认状况下,table.length = 16; 指定了 initialCapacity 的状况放到问题 5 中剖析
- 默认状况下,threshold = 12; 指定了 initialCapacity 的状况放到问题 5 中剖析
- 默认状况下,能寄存 12 个元素,当寄存第 13 个元素后进行扩容
问题 2 :table 的扩容
putVal 源码如下
/** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) // 当size(已寄存元素个数) > thrshold(阀值),进行扩容 resize(); afterNodeInsertion(evict); return null;}
还是调用 resize() 进行扩容,但与初始化时不同(留神看正文)
/** * Initializes or doubles table size. If null, allocates in * accord with initial capacity target held in field threshold. * Otherwise, because we are using power-of-two expansion, the * elements from each bin must either stay at same index, or move * with a power of two offset in the new table. * * @return the table */final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; // 此时的 table != null,oldTab 指向旧的 table int oldCap = (oldTab == null) ? 0 : oldTab.length; // oldCap = table.length; 第一次扩容时是 16 int oldThr = threshold; // threshold=12, oldThr = 12; int newCap, newThr = 0; if (oldCap > 0) { // 条件满足,走此分支 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && // oldCap左移一位; newCap = 16 << 1 = 32; oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold // newThr = 12 << 1 = 24; } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; // DEFAULT_INITIAL_CAPACITY = 1 << 4 = 16, newCap = 16; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { // 条件不满足 float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; // threshold = newThr = 24; 重置阀值为 24 @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 初始化 newTab, length = 32; table = newTab; // table 指向 newTab, length = 32; if (oldTab != null) { // 扩容后,将 oldTab(旧table) 中的元素移到 newTab(新table)中 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; // else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab;}
自此,问题 2 的答案也就清晰了
什么时候触发扩容,扩容之后的 table.length、阀值各是多少
- 当 size > threshold 的时候进行扩容
- 扩容之后的 table.length = 旧 table.length * 2,
- 扩容之后的 threshold = 旧 threshold * 2
问题 3、4 :2 的 n 次幂
table 是一个数组,那么如何最快的将元素 e 放入数组 ?当然是找到元素 e 在 table 中对应的地位 index ,而后 table[index] = e; 就好了;如何找到 e 在 table 中的地位了 ?
咱们晓得只能通过数组下标(索引)操作数组,而数组的下标类型又是 int ,如果 e 是 int 类型,那好说,就间接用 e 来做数组下标(若 e > table.length,则能够 e % table.length 来获取下标),可 key - value 中的 key 类型不肯定,所以咱们须要一种对立的形式将 key 转换成 int ,最好是一个 key 对应一个惟一的 int (目前还不可能, int有范畴限度,对转换方法要求也极高),所以引入了 hash 办法
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); // 这里的解决,有趣味的能够推敲下;可能缩小碰撞}
实现 key 到 int 的转换(对于 hash,本文不展开讨论)。拿到了 key 对应的 int h 之后,咱们最容易想到的对 value 的 put 和 get 操作兴许如下
// puttable[h % table.length] = value;// gete = table[h % table.length];
间接取模是咱们最容易想到的获取下标的办法,然而最高效的办法吗 ?
咱们晓得计算机中的四则运算最终都会转换成二进制的位运算
咱们能够发现,只有 & 数是1时,& 运算的后果与被 & 数统一
1&1=1;0&1=0;1&0=0;0&0=0;
这同样实用于多位操作数
1010&1111=1010; => 10&15=10;1011&1111=1011; => 11&15=11;01010&10000=00000; => 10&16=0;01011&10000=00000; => 11&16=0;
咱们是不是又有所发现:10 & 16 与 11 & 16 失去的后果一样,也就是抵触(碰撞)了,那么 10 和 11 对应的 value 会在同一个链表中,而 table 的有些地位则永远不会有元素,这就导致 table 的空间未失去充分利用,同时还升高了 put 和 get 的效率(比照数组和链表);因为是 2 个数进行 & 运算,所以后果由这两个数决定,如果咱们把这两个数都做下限度,那失去的后果是不是可管制在咱们想要的范畴内了 ?
咱们须要利用好 & 运算的特点,当左边的数的低位二进制是间断的 1 ,且右边是一个平均的数(须要 hash 办法实现,尽量保障 key 的 h 惟一),那么失去的后果就比拟完满了。低位二进制间断的 1,咱们很容易想到 2^n - 1; 而对于右边平均的数,则通过 hash 办法来实现,这里不做细究了。更多面试题,欢送关注 公众号Java面试题精选
自此,2 的 n 次幂的相干问题就分明了
table 的 length 为什么是 2 的 n 次幂
为了利用位运算 & 求 key 的下标
求索引的时候为什么是:h&(length-1),而不是 h&length,更不是 h%length
- h%length 效率不如位运算快
- h&length 会进步碰撞几率,导致 table 的空间得不到更充沛的利用、升高 table 的操作效率
给各位留个疑难:为什么不间接用 2^n-1 作为 table.length ?欢送评论区留言
问题 5:指定 initialCapacity
当咱们指定了 initialCapacity,HashMap的构造方法有些许不同,调用 tableSizeFor 进行 threshold 的初始化
/** * Returns a power of two size for the given target capacity. * 返回 >= cap 最小的 2^n * cap = 10, 则返回 2^4 = 16; * cap = 5, 则返回 2^3 = 8; */static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;}
尽管此处初始化的是 threshold,但前面初始化 table 的时候,会将其用于 table 的 length,同时会重置 threshold 为 table.length * loadFactor
自此,问题 5 也就分明了
Map map = new HashMap(1000); 当咱们存入多少个元素时会触发map的扩容
此时的 table.length = 2^10 = 1024; threshold = 1024 * 0.75 = 768; 所以存入第 769 个元素时进行扩容
Map map1 = new HashMap(10000); 咱们存入第 10001个元素时会触发 map1 扩容吗
此时的 table.length = 2^14 = 16384; threshold = 16384 * 0.75 = 12288; 所以存入第 10001 个元素时不会进行扩容
问题6:加载因子
为什么加载因子的默认值是 0.75,并且不举荐咱们批改
- 如果loadFactor太小,那么map中的table须要一直的扩容,扩容是个耗时的过程
- 如果loadFactor太大,那么map中table放满了也不不会扩容,导致抵触越来越多,解决抵触而起的链表越来越长,效率越来越低
- 而 0.75 这是一个折中的值,是一个比拟现实的值
总结
1、table.length = 2^n,是为了能利用位运算(&)来求 key 的下标,而 h&(length-1) 是为了充分利用 table 的空间,并缩小 key 的碰撞
2、加载因子太小, table 须要一直的扩容,影响 put 效率;太大会导致碰撞越来越多,链表越来越长(转红黑树),影响效率;0.75 是一个比拟现实的两头值
3、table.length = 2^n、hash 办法获取 key 的 h、加载因子 0.75、数组 + 链表(或红黑树),一环扣一环,保障了 key 在 table 中的平均调配,充分利用了空间,也保障了操作效率,环环相扣的,而不是灵机一动的随便解决;缺了一环,其余的环就无意义了!
4、网上有个 put 办法的流程图画的挺好,我就偷懒了