共计 14016 个字符,预计需要花费 36 分钟才能阅读完成。
摘要:HashMap 是一个用于存储 Key-Value 键值对的汇合,它是面试中常常问到的一个知识点。
HashMap 是面试中常常问到的一个知识点,也是判断一个候选人根底是否扎实的规范之一,因为通过 HashMap 能够引出很多知识点,比方数据结构(数组、链表、红黑树)、equals 和 hashcode 办法,除此之外还能够引出线程平安的问题,HashMap 是我在初学阶段学到的设计的最为奇妙的汇合,外面有很多细节以及优化技巧都值得咱们深刻学习,本文将会波及到以下问题
- 默认大小、负载因子以及扩容倍数
- 底层数据结构
- 如何解决 hash 抵触
- 如何计算 key 的 hash 值
- 数组长度为什么是 2 的幂次方
- 查找、插入、扩容过程
- fail-fast 机制
如果下面的都能答复进去的话那么这篇文章可能不太适宜你,话不多说进入注释。
留神:本文源码都是以 JDK1.8 版本解说
数据结构
在 JDK1.8 中,HashMap 是由 数组 + 链表 + 红黑树形成(1.7 版本是数组 + 链表)
当一个值中要存储到 HashMap 中的时候会依据 Key 的值来计算出他的 hash,通过 hash 值来确认寄存到数组中的地位,如果产生 hash 抵触就以链表的模式存储,当链表过长的话,HashMap 会把这个链表转换成红黑树来存储,如图所示:
在看源码之前咱们须要先看看一些根本属性
// 默认初始容量为 16
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 默认负载因子为 0.75
static final float DEFAULT_LOAD_FACTOR = 0.75f;
//Hash 数组 (在 resize() 中初始化)
transient Node<K,V>[] table;
// 元素个数
transient int size;
// 容量阈值(元素个数大于等于该值时会主动扩容)
int threshold;
table 数组外面寄存的是 Node 对象,Node 是 HashMap 的一个外部类,用来示意一个 key-value,源码如下:
static class Node<K,V> implements Map.Entry<K,V> {
final int hash;
final K key;
V value;
Node<K,V> next;
Node(int hash, K key, V value, Node<K,V> next) {
this.hash = hash;
this.key = key;
this.value = value;
this.next = next;
}
public final K getKey() { return key;}
public final V getValue() { return value;}
public final String toString() { return key + "=" + value;}
public final int hashCode() {return Objects.hashCode(key) ^ Objects.hashCode(value);//^ 示意雷同返回 0,不同返回 1
//Objects.hashCode(o)————>return o != null ? o.hashCode() : 0;}
public final V setValue(V newValue) {
V oldValue = value;
value = newValue;
return oldValue;
}
public final boolean equals(Object o) {if (o == this)
return true;
if (o instanceof Map.Entry) {Map.Entry<?,?> e = (Map.Entry<?,?>)o;
//Objects.equals(1,b)————> return (a == b) || (a != null && a.equals(b));
if (Objects.equals(key, e.getKey()) && Objects.equals(value, e.getValue()))
return true;
}
return false;
}
}
总结
- 默认初始容量为 16,默认负载因子为 0.75
- threshold = 数组长度 * loadFactor,当元素个数大于等于 threshold(容量阈值)时,HashMap 会进行扩容操作
- table 数组中寄存指向链表的援用
这里须要留神的一点是 table 数组并不是在构造方法外面初始化的,它是在 resize(扩容) 办法里进行初始化的。
这里说句题外话:可能有刁钻的面试官会问 为什么默认初始容量要设置为 16?为什么负载因子要设置为 0.75?
咱们都晓得 HashMap 数组长度被设计成 2 的幂次方(上面会讲),那为什么初始容量不设计成 4、8 或者 32…. 其实这是 JDK 设计者通过衡量之后得出的一个比拟正当的数字,,如果默认容量是 8 的话,当增加到第 6 个元素的时候就会触发扩容操作,扩容操作是十分耗费 CPU 的,32 的话如果只增加大量元素则会节约内存,因而设计成 16 是比拟适合的,负载因子也是同理。
table 数组长度永远为 2 的幂次方
家喻户晓,HashMap 数组长度永远为 2 的幂次方(指的是 table 数组的大小),那你有想过为什么吗?
首先咱们须要晓得 HashMap 是通过一个名为 tableSizeFor 的办法来确保 HashMap 数组长度永远为 2 的幂次方的,源码如下:
/* 找到大于或等于 cap 的最小 2 的幂,用来做容量阈值 */
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
tableSizeFor 的性能(不思考大于最大容量的状况)是返回大于等于输出参数且最近的 2 的整数次幂的数。比方 10,则返回 16。
该算法让最高位的 1 前面的位全变为 1。最初再让后果 n +1,即失去了 2 的整数次幂的值了。
让 cap- 1 再赋值给 n 的目标是另找到的目标值大于或等于原值。例如二进制 1000,十进制数值为 8。如果不对它减 1 而间接操作,将失去答案 10000,即 16。显然不是后果。减 1 后二进制为 111,再进行操作则会失去原来的数值 1000,即 8。通过一系列位运算大大提高效率。
那在什么中央会用到 tableSizeFor 办法呢?
答案就是在构造方法外面调用该办法来设置 threshold,也就是容量阈值。
这里你可能又会有一个疑难:为什么要设置为 threshold 呢?
因为在扩容办法里第一次初始化 table 数组时会将 threshold 设置数组的长度,后续在讲扩容办法时再介绍。
/* 传入初始容量和负载因子 */
public HashMap(int initialCapacity, float loadFactor) {if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity:" +initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor:" +loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
那么为什么要把数组长度设计为 2 的幂次方呢?
我集体感觉这样设计有以下几个益处:
1、当数组长度为 2 的幂次方时,能够应用位运算来计算元素在数组中的下标
HashMap 是通过 index=hash&(table.length-1)这条公式来计算元素在 table 数组中寄存的下标,就是把元素的 hash 值和数组长度减 1 的值做一个与运算,即可求出该元素在数组中的下标,这条公式其实等价于 hash%length,也就是对数组长度求模取余,只不过 只有当数组长度为 2 的幂次方时,hash&(length-1)才等价于 hash%length,应用位运算能够提高效率。
2、减少 hash 值的随机性,缩小 hash 抵触
如果 length 为 2 的幂次方,则 length-1 转化为二进制必然是 11111……的模式,这样的话能够使所有地位都能和元素 hash 值做与运算,如果是如果 length 不是 2 的次幂,比方 length 为 15,则 length- 1 为 14,对应的二进制为 1110,在和 hash 做与运算时,最初一位永远都为 0,节约空间。
扩容
HashMap 每次扩容都是建设一个新的 table 数组,长度和容量阈值都变为原来的两倍,而后把原数组元素从新映射到新数组上,具体步骤如下:
- 首先会判断 table 数组长度,如果大于 0 阐明已被初始化过,那么按以后 table 数组长度的 2 倍进行扩容,阈值也变为原来的 2 倍
- 若 table 数组未被初始化过,且 threshold(阈值)大于 0 阐明调用了 HashMap(initialCapacity, loadFactor)构造方法,那么就把数组大小设为 threshold
- 若 table 数组未被初始化,且 threshold 为 0 阐明调用 HashMap()构造方法,那么就把数组大小设为 16,threshold 设为 16*0.75
- 接着须要判断如果不是第一次初始化,那么扩容之后,要从新计算键值对的地位,并把它们挪动到适合的地位下来,如果节点是红黑树类型的话则须要进行红黑树的拆分。
这里有一个须要留神的点就是在 JDK1.8 HashMap 扩容阶段从新映射元素时不须要像 1.7 版本那样从新去一个个计算元素的 hash 值,而是 通过 hash & oldCap 的值来判断,若为 0 则索引地位不变,不为 0 则新索引 = 原索引 + 旧数组长度,为什么呢?具体起因如下:
因为咱们应用的是 2 次幂的扩大(指长度扩为原来 2 倍),所以,元素的地位要么是在原地位,要么是在原地位再挪动 2 次幂的地位。因而,咱们在裁减 HashMap 的时候,不须要像 JDK1.7 的实现那样从新计算 hash,只须要看看原来的 hash 值新增的那个 bit 是 1 还是 0 就好了,是 0 的话索引没变,是 1 的话索引变成“原索引 +oldCap
这点其实也能够看做长度为 2 的幂次方的一个益处,也是 HashMap 1.7 和 1.8 之间的一个区别,具体源码如下:
/* 扩容 */
final Node<K,V>[] resize() {Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//1、若 oldCap>0 阐明 hash 数组 table 已被初始化
if (oldCap > 0) {if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}// 按以后 table 数组长度的 2 倍进行扩容,阈值也变为原来的 2 倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1;
}//2、若数组未被初始化,而 threshold>0 阐明调用了 HashMap(initialCapacity)和 HashMap(initialCapacity, loadFactor)结构器
else if (oldThr > 0)
newCap = oldThr;// 新容量设为数组阈值
else {//3、若 table 数组未被初始化,且 threshold 为 0 阐明调用 HashMap()构造方法
newCap = DEFAULT_INITIAL_CAPACITY;// 默认为 16
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);//16*0.75
}
// 若计算过程中,阈值溢出归零,则按阈值公式从新计算
if (newThr == 0) {float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
// 创立新的 hash 数组,hash 数组的初始化也是在这里实现的
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
// 如果旧的 hash 数组不为空,则遍历旧数组并映射到新的 hash 数组
if (oldTab != null) {for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {oldTab[j] = null;//GC
if (e.next == null)// 如果只链接一个节点,从新计算并放入新数组
newTab[e.hash & (newCap - 1)] = e;
// 若是红黑树,则须要进行拆分
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else {
//rehash————> 从新映射到新数组
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
/* 留神这里应用的是:e.hash & oldCap,若为 0 则索引地位不变,不为 0 则新索引 = 原索引 + 旧数组长度 */
if ((e.hash & oldCap) == 0) {if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
在扩容办法外面还波及到无关红黑树的几个知识点:
链表树化
指的就是把链表转换成红黑树,树化须要满足以下两个条件:
- 链表长度大于等于 8
- table 数组长度大于等于 64
为什么 table 数组容量大于等于 64 才树化?
因为当 table 数组容量比拟小时,键值对节点 hash 的碰撞率可能会比拟高,进而导致链表长度较长。这个时候应该优先扩容,而不是立马树化。
红黑树拆分
拆分就是指扩容后对元素从新映射时,红黑树可能会被拆分成两条链表。
因为篇幅无限,无关红黑树这里就不开展了。
查找
在看源码之前先来简略梳理一下查找流程:
- 首先通过自定义的 hash 办法计算出 key 的 hash 值,求出在数组中的地位
- 判断该地位上是否有节点,若没有则返回 null,代表查问不到指定的元素
- 若有则判断该节点是不是要查找的元素,若是则返回该节点
- 若不是则判断节点的类型,如果是红黑树的话,则调用红黑树的办法去查找元素
- 如果是链表类型,则遍历链表调用 equals 办法去查找元素
HashMap 的查找是十分快的,要查找一个元素首先得晓得 key 的 hash 值,在 HashMap 中并不是间接通过 key 的 hashcode 办法获取哈希值,而是通过外部自定义的 hash 办法计算哈希值,咱们来看看其实现:
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
(h = key.hashCode()) ^ (h >>> 16) 是为了让高位数据与低位数据进行异或,变相的让高位数据参加到计算中,int 有 32 位,右移 16 位就能让低 16 位和高 16 位进行异或,也是为了减少 hash 值的随机性。
晓得如何计算 hash 值后咱们来看看 get 办法
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;//hash(key)不等于 key.hashCode
}
final Node<K,V> getNode(int hash, Object key) {Node<K,V>[] tab; // 指向 hash 数组
Node<K,V> first, e; //first 指向 hash 数组链接的第一个节点,e 指向下一个节点
int n;//hash 数组长度
K k;
/*(n - 1) & hash ————> 依据 hash 值计算出在数组中的索引 index(相当于对数组长度取模,这里用位运算进行了优化)*/
if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {
// 根本类型用 == 比拟,其它用 equals 比拟
if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
// 如果 first 是 TreeNode 类型,则调用红黑树查找办法
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {// 向后遍历
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
这里要留神的一点就是在 HashMap 中用 (n – 1) & hash 计算 key 所对应的索引 index(相当于对数组长度取模,这里用位运算进行了优化),这点在下面曾经说过了,就不再废话了。
插入
咱们先来看看插入元素的步骤:
- 当 table 数组为空时,通过扩容的形式初始化 table
- 通过计算键的 hash 值求出下标后,若该地位上没有元素(没有产生 hash 抵触),则新建 Node 节点插入
- 若产生了 hash 抵触,遍历链表查找要插入的 key 是否曾经存在,存在的话依据条件判断是否用新值替换旧值
- 如果不存在,则将元素插入链表尾部,并依据链表长度决定是否将链表转为红黑树
- 判断键值对数量是否大于等于阈值,如果是的话则进行扩容操作
先看完下面的流程,再来看源码会简略很多,源码如下:
public V put(K key, V value) {return putVal(hash(key), key, value, false, true);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {Node<K,V>[] tab;// 指向 hash 数组
Node<K,V> p;// 初始化为 table 中第一个节点
int n, i;// n 为数组长度,i 为索引
//tab 被提早到插入新数据时再进行初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// 如果数组中不蕴含 Node 援用,则新建 Node 节点存入数组中即可
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);//new Node<>(hash, key, value, next)
else {
Node<K,V> e; // 如果要插入的 key-value 已存在,用 e 指向该节点
K k;
// 如果第一个节点就是要插入的 key-value,则让 e 指向第一个节点(p 在这里指向第一个节点)if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 如果 p 是 TreeNode 类型,则调用红黑树的插入操作(留神:TreeNode 是 Node 的子类)else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
// 对链表进行遍历,并用 binCount 统计链表长度
for (int binCount = 0; ; ++binCount) {
// 如果链表中不蕴含要插入的 key-value,则将其插入到链表尾部
if ((e = p.next) == null) {p.next = newNode(hash, key, value, null);
// 如果链表长度大于或等于树化阈值,则进行树化操作
if (binCount >= TREEIFY_THRESHOLD - 1)
treeifyBin(tab, hash);
break;
}
// 如果要插入的 key-value 已存在则终止遍历,否则向后遍历
if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
// 如果 e 不为 null 阐明要插入的 key-value 已存在
if (e != null) {
V oldValue = e.value;
// 依据传入的 onlyIfAbsent 判断是否要更新旧值
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
// 键值对数量大于等于阈值时,则进行扩容
if (++size > threshold)
resize();
afterNodeInsertion(evict);// 也是空函数?回调?不晓得干嘛的
return null;
}
从源码也能够看出 table 数组是在第一次调用 put 办法后才进行初始化的。
这里还有一个知识点就是在JDK1.8 版本 HashMap 是在链表尾部插入元素的,而在 1.7 版本里是插入链表头部的,1.7 版本这么设计的起因可能是作者认为新插入的元素应用到的频率会比拟高,插入头部的话能够缩小遍历次数。
那为什么 1.8 改成尾插法了呢?次要是因为头插法在多线程环境下可能会导致两个节点相互援用,造成死循环,因为此文次要解说 1.8 版本,感兴趣的小伙伴能够去看看 1.7 版本的源码。
删除
HashMap 的删除操作并不简单,仅需三个步骤即可实现。
- 定位桶地位
- 遍历链表找到相等的节点
- 第三步删除节点
public V remove(Object key) {
Node<K,V> e;
return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value;
}
final Node<K,V> removeNode(int hash, Object key, Object value,boolean matchValue, boolean movable) {Node<K,V>[] tab;
Node<K,V> p;
int n, index;
//1、定位元素桶地位
if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) {
Node<K,V> node = null, e;
K k;
V v;
// 如果键的值与链表第一个节点相等,则将 node 指向该节点
if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
node = p;
else if ((e = p.next) != null) {
// 如果是 TreeNode 类型,调用红黑树的查找逻辑定位待删除节点
if (p instanceof TreeNode)
node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
else {
// 2、遍历链表,找到待删除节点
do {if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) {
node = e;
break;
}
p = e;
} while ((e = e.next) != null);
}
}
// 3、删除节点,并修复链表或红黑树
if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) {if (node instanceof TreeNode)
((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
else if (node == p)
tab[index] = node.next;
else
p.next = node.next;
++modCount;
--size;
afterNodeRemoval(node);
return node;
}
}
return null;
}
留神:删除节点后可能毁坏了红黑树的均衡性质,removeTreeNode 办法会对红黑树进行变色、旋转等操作来放弃红黑树的均衡构造,这部分比较复杂,感兴趣的小伙伴可看上面这篇文章:红黑树详解
遍历
在工作中 HashMap 的遍历操作也是十分罕用的,兴许有很多小伙伴喜爱用 for-each 来遍历,然而你晓得其中有哪些坑吗?
看上面的例子,当咱们在遍历 HashMap 的时候,若应用 remove 办法删除元素时会抛出 ConcurrentModificationException 异样
Map<String, Integer> map = new HashMap<>();
map.put("1", 1);
map.put("2", 2);
map.put("3", 3);
for (String s : map.keySet()) {if (s.equals("2"))
map.remove("2");
}
这就是常说的 fail-fast(疾速失败)机制,这个就须要从一个变量说起
transient int modCount;
在 HashMap 中有一个名为 modCount 的变量,它用来示意汇合被批改的次数,批改指的是插入元素或删除元素,能够回去看看下面插入删除的源码,在最初都会对 modCount 进行自增。
当咱们在遍历 HashMap 时,每次遍历下一个元素前都会对 modCount 进行判断,若和原来的不统一阐明汇合后果被批改过了,而后就会抛出异样,这是 Java 汇合的一个个性,咱们这里以 keySet 为例,看看局部相干源码:
public Set<K> keySet() {
Set<K> ks = keySet;
if (ks == null) {ks = new KeySet();
keySet = ks;
}
return ks;
}
final class KeySet extends AbstractSet<K> {public final Iterator<K> iterator() {return new KeyIterator(); }
// 省略局部代码
}
final class KeyIterator extends HashIterator implements Iterator<K> {public final K next() {return nextNode().key; }
}
/*HashMap 迭代器基类,子类有 KeyIterator、ValueIterator 等 */
abstract class HashIterator {
Node<K,V> next; // 下一个节点
Node<K,V> current; // 以后节点
int expectedModCount; // 批改次数
int index; // 以后索引
// 无参结构
HashIterator() {
expectedModCount = modCount;
Node<K,V>[] t = table;
current = next = null;
index = 0;
// 找到第一个不为空的桶的索引
if (t != null && size > 0) {do {} while (index < t.length && (next = t[index++]) == null);
}
}
// 是否有下一个节点
public final boolean hasNext() {return next != null;}
// 返回下一个节点
final Node<K,V> nextNode() {Node<K,V>[] t;
Node<K,V> e = next;
if (modCount != expectedModCount)
throw new ConcurrentModificationException();//fail-fast
if (e == null)
throw new NoSuchElementException();
// 以后的链表遍历完了就开始遍历下一个链表
if ((next = (current = e).next) == null && (t = table) != null) {do {} while (index < t.length && (next = t[index++]) == null);
}
return e;
}
// 删除元素
public final void remove() {
Node<K,V> p = current;
if (p == null)
throw new IllegalStateException();
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
current = null;
K key = p.key;
removeNode(hash(key), key, null, false, false);// 调用内部的 removeNode
expectedModCount = modCount;
}
}
相干代码如下,能够看到若 modCount 被批改了则会抛出 ConcurrentModificationException 异样。
if (modCount != expectedModCount)
throw new ConcurrentModificationException();
那么如何在遍历时删除元素呢?
咱们能够看看迭代器自带的 remove 办法,其中最初两行代码如下:
removeNode(hash(key), key, null, false, false);// 调用内部的 removeNode
expectedModCount = modCount;
意思就是会调用内部 remove 办法删除元素后,把 modCount 赋值给 expectedModCount,这样的话两者统一就不会抛出异样了,所以咱们应该这样写:
Map<String, Integer> map = new HashMap<>();
map.put("1", 1);
map.put("2", 2);
map.put("3", 3);
Iterator<String> iterator = map.keySet().iterator();
while (iterator.hasNext()){if (iterator.next().equals("2"))
iterator.remove();}
这里还有一个知识点就是在遍历 HashMap 时,咱们会发现 遍历的程序和插入的程序不统一,这是为什么?
在 HashIterator 源码外面能够看出,它是先从桶数组中找到蕴含链表节点援用的桶。而后对这个桶指向的链表进行遍历。遍历实现后,再持续寻找下一个蕴含链表节点援用的桶,找到持续遍历。找不到,则完结遍历。这就解释了为什么遍历和插入的程序不统一,不懂的同学请看下图:
equasl 和 hashcode
我在面试中就被问到过 HashMap 的 key 有什么限度吗?置信很多人都晓得 HashMap 的 key 须要重写 equals 和 hashcode 办法。
为什么 HashMap 的 key 须要重写 equals()和 hashcode()办法?
简略看个例子,这里以 Person 为例:
public class Person {
Integer id;
String name;
public Person(Integer id, String name) {
this.id = id;
this.name = name;
}
@Override
public boolean equals(Object obj) {if (obj == null) return false;
if (obj == this) return true;
if (obj instanceof Person) {Person person = (Person) obj;
if (this.id == person.id)
return true;
}
return false;
}
public static void main(String[] args) {Person p1 = new Person(1, "aaa");
Person p2 = new Person(1, "bbb");
HashMap<Person, String> map = new HashMap<>();
map.put(p1, "这是 p1");
System.out.println(map.get(p2));
}
}
- 原生的 equals 办法是应用 == 来比拟对象的
- 原生的 hashCode 值是依据内存地址换算进去的一个值
Person 类重写 equals 办法来依据 id 判断是否相等,当没有重写 hashcode 办法时,插入 p1 后便无奈用 p2 取出元素,这是因为 p1 和 p2 的哈希值不相等。
HashMap 插入元素时是依据元素的哈希值来确定寄存在数组中的地位,因而 HashMap 的 key 须要重写 equals 和 hashcode 办法。
总结
本文形容了 HashMap 的实现原理,并联合源码做了进一步的剖析,其实还有很多相干的知识点没有讲到,比方 HashMap 的线程平安问题、1.7 和 1.8 版本之间的区别 …. 后续如果有工夫的话会持续写文章和大家交换交换。
本文转自 segmentfault 作者:超大只乌龟,转载请先分割作者受权
点击关注,第一工夫理解华为云陈腐技术~