关于hashmap的工作原理:哈希游戏开发逻辑对接幸运哈希竞猜系统开发源码部署趣投哈希游戏玩法开发案例需求

We believe that the meta universe must be a large community with real, social and economic behavior. DPK's star system is a meta universe, which requires only a little bit of construction. Let me talk about our preliminary plan in the meta universe. We have cooperated with a global fan association of large-scale animation. They have built a two-dimensional main city. We will help them realize a VR two-dimensional theme park on a planet. ...

June 10, 2022 · 1 min · jiezi

理解HashMap

HashMap源码分析基于JDK7的HashMap源码分析类的介绍下面的类介绍是从源码的英文翻译来的HashMap是基于哈希表实现的Map接口实现类。这个实现提供所有的map相关的操作,允许使用null的键和null的值。(HashMap与Hashtable大致是一样的,只是HashMap是不同步的,且它允许你null的键和值。);另外,HashMap内部元素排列是无序的。假设哈希函数能将元素合理地分散在各个哈希桶中,那么HashMap的put、get等基础操作的效率会很高(时间复杂度是常数级别O(n))。HashMap的迭代所有元素的时间与它的实例的容量(哈希桶的数量)及大小(键值对的数量)之和成正比。因此,如果你很在意HashMap的迭代性能,就不应该初始容量设置得很高,或者把负载因子设置得很低。一个HashMap的实例有两个参数会影响到它的性能:初始容量和负载因子。容量是指哈希表中桶的数量,初始容量就是哈希表创建时指定的初始大小。负载因子是一个度量,用来衡量当哈希表的容量满到什么程度时,哈希表就应该自动扩容。到哈希表中元素的数量超过负载因子和当前容量的乘积时,哈希表会重新计算哈希(rehashed)(即重建内部数据结构),哈希表桶的数量大约会变成原来的两倍。一般来说,默认把负载因子值设置成0.75,在时间成本和空间成本之间是比较好的权衡。该值再高一点能减少空间开销,但会增加查找成本(表现在HashMap类的大多数操作中,包括get和put)。所以我们在设置初始化容量时,应该合理考虑预期装载的元素数量以及负载因子,从而减少rehash的操作次数。如果初始容量大于最大条目数除以加载因子(initial capacity > max entries / load factor),则不会发生重新加载操作。如果HashMap的实例需要存储很多元素(键值对),创建HashMap时指定足够大的容量可以令它的存储效率比自动扩容高很多。请注意如果很多的键使用的hashCode()方法结果都相同,那么哈希表的性能会很慢。为了改善影响,当键是Comparable时,HashMap会用这些键的排序来提升效率。请注意,HashMap是不同步的。如果多条线程同时访问一个HashMap,且至少有一条线程发生了结构性改动,那么它必须在外部进行同步。(结构性改动是指任何增加或删除键值对的操作,在源码中具体体现是导致modCount属性改动的操作,仅仅修改一个键对应的值则不属于结构性改动)。外部同步通常通过同步一个封装了这个map的对象完成。如果没有这样的对象,那么可以使用Collections.synchronizedMap把一个map转换成同步的map,这个动作最好在创建的时候完成,避免在转换前意外访问到不同步的map。Map m = Collections.synchronizedMap(new HashMap(…));HashMap的迭代器所有集合相关的方法都是快速失败的(fail-fast):如果创建迭代器后,除了迭代器自身的remove方法之外,map发生了结构性改动,迭代器会抛出ConcurrentModificationException。因此,面对并发的修改,迭代吗快速、干净利落地失败,而不会冒任何风险。请注意,迭代器快速失败的特性在不同步的并发修改时,是不能作出硬性保证的。快速失败的迭代器会尽最大努力抛出ConcurrentModificationException。因此,编写依赖于此异常的程序以确保其正确性是错误的:迭代器的快速失败行为应该仅用于检测错误。构造函数HashMap的构造函数一共有四种:无参构造,初始容量默认16,负载因子默认0.75指定初始容量,负载因子默认0.75指定初始容量和负载因子通过传入的map构造其中1、2、4都会调用第3种构造函数,第4种只是用已有的Map构造一个HashMap的便捷方法,所以这里重点看3、4两种构造函数的实现。 public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable { //…… // 空表 static final Entry<?,?>[] EMPTY_TABLE = {}; // 哈希表 transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE; // 容器扩容阈值,当容器大小(size)达到此值时,容器就会扩容。 // size = 容量 * 负载因子 // 如果table == EMPTY_TABLE,那么就会用这个值作为初始容量,创建新的哈希表 int threshold; // 负载因子 final float loadFactor; // 构造函数3:指定初始容量和负载因子 public HashMap(int initialCapacity, float loadFactor) { // 检查参数 if (initialCapacity < 0) throw new IllegalArgumentException(“Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException(“Illegal load factor: " + loadFactor); // 设置负载因子 this.loadFactor = loadFactor; // 默认的阈值等于初始化容量 threshold = initialCapacity; init(); } // 构造函数4:用传入的map构造一个新的HashMap public HashMap(Map<? extends K, ? extends V> m) { this(Math.max((int) ( m.size() / DEFAULT_LOAD_FACTOR) + 1, DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR); // 分配哈希表空间 inflateTable(threshold); putAllForCreate(m); } //…… }上面的源码中,需要注意几点:扩容阈值默认等于初始容量,16。当哈希表为空表时,HashMap会在内部以该阈值作为初始容量建哈希表,哈希表实质是一个数组inflateTable方法就是建立哈希表,分配表内存空间的操作(inflate翻译为“膨胀”的意思,后面会详述)。但是指定初始容量和负载因子的构造方法并没有马上调用inflateTable。查找源码中全部调用inflateTable的地方有:graph LRHashMap构造函数-Map为参数 –> inflateTableput –> inflateTableputAll –> inflateTableclone –> inflateTablereadObject –> inflateTable初步看上去,只有参数列表是Map的构造函数调用了inflateTable,但HashMap(Map map)构造函数内部的逻辑是先调用一下HashMap(int initialCapacity, float loadFactor)构造函数初始化完了容量和负载因子后,再调用inflateTable的。所以小结一点:HashMap在初始化阶段不会马上创建哈希表。调用逻辑为了更好理解代码的调用,下图列出一些方法之间的调用关系:内部数据结构HashMap内部维护的数据结构是数组+链表,每个键值对都存储在HashMap的静态内部类Entry中,结构如下图:put的实现 public V put(K key, V value) { if (table == EMPTY_TABLE) { inflateTable(threshold); } if (key == null) return putForNullKey(value); int hash = hash(key); int i = indexFor(hash, table.length); for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(hash, key, value, i); return null; } void addEntry(int hash, K key, V value, int bucketIndex) { // 如果容器大小大于等于阈值,且目标桶的entry不等于null if ((size >= threshold) && (null != table[bucketIndex])) { // 容器扩容: 哈希表原长度 * 2 resize(2 * table.length); // 重新计算键的哈希值 hash = (null != key) ? hash(key) : 0; // 重新计算哈希值对应存储的哈希表的位置 bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); }在put方法内部,会先判断哈希表是不是空表,如果是空表就建立哈希表(上面提到的内部数据结构中的数组),建好表后,就有空间可以存放键值对了。要存放键值对,需要先根据key计算哈希码(hash),哈希码返回是一个int类型的数值,再根据哈希码计算出在固定长度的数组中存放的位置(下标)得到下标后,就要在哈希表中找到存储的位置。HashMap会先加载指定下标中存放的Entry对象,如果Entry不为空,就比较该Entry的hash和key(比较key的时候,用==和equals来比较)。如果跟put进来的hash、key匹配,就覆盖该Entry上的value,然后直接返回旧的value;否则,就找该Entry指向的下一个Entry,直到最后一个Entry为止。如果HashMap加载指定下标中存放的Entry对象是null,又或者是找完整条Entry链表都没有匹配的hash和key。那么就调用addEntry新增一个EntryaddEntry方法中会做一些前置处理。HashMap会判断容器当前存放的键值对数量是否达到了设定的扩容阈值,如果达到了就扩容2倍。扩容后重新计算哈希码,并根据新哈希码和新数组长度重新计算存储位置。做好潜质处理后,就调用createEntry新增一个Entry。由于上面已经做了前置的处理,createEntry方法就不用担心扩容的问题,放心存Entry即可。该方法会在给定的下标为止存放put进来的key,value,当然这个key,value是包装在Entry中的,让后将Entry指向旧的Entry。建哈希表的逻辑(inflateTable)建哈希表是在inflateTable方法中实现的: /** * 将一个数换算成2的n次幂 * @param number * @return / private static int roundUpToPowerOf2(int number) { // assert number >= 0 : “number must be non-negative”; return number >= MAXIMUM_CAPACITY ? MAXIMUM_CAPACITY : (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1; // 理解 Integer.highestOneBit((number - 1) << 1) // 比如 number = 23,23 - 1 = 22,二进制是:10110 // 22 左移一位(右边补1个0),结果是:101100 // Integer.highestOneBit() 函数的作用是取左边最高一位,其余位取0, // 即:101100 -> 100000,换成十进制就是 32 } /* * inflate有“膨胀”、“充气”的意思。 * 理解为初始化哈希表,分配哈希表内存空间 / private void inflateTable(int toSize) { // Find a power of 2 >= toSize // 找出大于等于toSize的2的n次幂,作为哈希表的容量 int capacity = roundUpToPowerOf2(toSize); // 计算新的扩容阈值: 容量 * 负载因子 threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1); // 指定容量建哈希表 table = new Entry[capacity]; // 根据容量判断是否需要初始化hashSeed initHashSeedAsNeeded(capacity); }理解一下roundUpToPowerOf2方法:roundUpToPowerOf2部分计算结果:roundUpToPowerOf2(0) = 1roundUpToPowerOf2(1) = 1roundUpToPowerOf2(2) = 2roundUpToPowerOf2(3) = 4roundUpToPowerOf2(4) = 4roundUpToPowerOf2(5) = 8roundUpToPowerOf2(6) = 8roundUpToPowerOf2(7) = 8roundUpToPowerOf2(8) = 8roundUpToPowerOf2(9) = 16roundUpToPowerOf2(10) = 16roundUpToPowerOf2(11) = 16roundUpToPowerOf2(12) = 16roundUpToPowerOf2(13) = 16roundUpToPowerOf2(14) = 16roundUpToPowerOf2(15) = 16roundUpToPowerOf2(16) = 16roundUpToPowerOf2(17) = 32roundUpToPowerOf2(6)计算示例:计算公式:Integer.highestOneBit((5 - 1) << 1)计算5<<1: 00000101<<1————- 00001010 1010的十进制是10,然后计算Integer.highestOneBit(10),该函数的作用是取传入数值的最高位然后其余低位取0,所以Integer.highestOneBit(10)应该等于二进制的1000,即8值得注意的是,inflateTable中最后还调用了一个initHashSeedAsNeeded(capacity)方法,该方法是用来依据容量决定是否需要初始化hashSeed,hashSeed默认是0,如果初始化hashSeed,它的值将会是一个随机值。Alternative hashing与hashSeed在源码中有一个常量ALTERNATIVE_HASHING_THRESHOLD_DEFAULT,它的注释提供了一些值得注意的信息: /* * The default threshold of map capacity above which alternative hashing is * used for String keys. Alternative hashing reduces the incidence of * collisions due to weak hash code calculation for String keys. * <p/> * This value may be overridden by defining the system property * {@code jdk.map.althashing.threshold}. A property value of {@code 1} * forces alternative hashing to be used at all times whereas * {@code -1} value ensures that alternative hashing is never used. / static final int ALTERNATIVE_HASHING_THRESHOLD_DEFAULT = Integer.MAX_VALUE;大意是说,ALTERNATIVE_HASHING_THRESHOLD_DEFAULT是一个默认的阈值,当一个键值对的键是String类型时,且map的容量达到了这个阈值,就启用备用哈希(alternative hashing)。备用哈希可以减少String类型的key计算哈希码(更容易)发生哈希碰撞的发生率。该值可以通过定义系统属性jdk.map.althashing.threshold来指定。如果该值是1,表示强制总是使用备用哈希;如果是-1则表示禁用。HashMap有一个静态内部类Holder,它的作用是在虚拟机启动后根据jdk.map.althashing.threshold和ALTERNATIVE_HASHING_THRESHOLD_DEFAULT初始化ALTERNATIVE_HASHING_THRESHOLD,相关代码如下: /* * Holder维护着一些只有在虚拟机启动后才能初始化的值 / private static class Holder { /* * 触发启用备用哈希的哈希表容量阈值 / static final int ALTERNATIVE_HASHING_THRESHOLD; static { // 读取JVM参数 -Djdk.map.althashing.threshold String altThreshold = java.security.AccessController.doPrivileged( new sun.security.action.GetPropertyAction( “jdk.map.althashing.threshold”)); int threshold; try { // 如果该参数没有值,采用默认值 threshold = (null != altThreshold) ? Integer.parseInt(altThreshold) : ALTERNATIVE_HASHING_THRESHOLD_DEFAULT; // 如果参数值为-1,禁用备用哈希 // ALTERNATIVE_HASHING_THRESHOLD_DEFAULT也是等于Integer.MAX_VALUE // 所以jdk默认是禁用备用哈希的 if (threshold == -1) { threshold = Integer.MAX_VALUE; } // 参数为其它负数,则视为非法参数 if (threshold < 0) { throw new IllegalArgumentException(“value must be positive integer.”); } } catch(IllegalArgumentException failed) { throw new Error(“Illegal value for ‘jdk.map.althashing.threshold’”, failed); } ALTERNATIVE_HASHING_THRESHOLD = threshold; } } 之前提到过,inflateTable中最后还调用了一个initHashSeedAsNeeded(capacity)方法,该方法是用来依据容量决定是否需要初始化hashSeed,hashSeed默认是0,如果初始化hashSeed。所以下面来看看这个方法: /* * A randomizing value associated with this instance that is applied to * hash code of keys to make hash collisions harder to find. If 0 then * alternative hashing is disabled. / transient int hashSeed = 0; /* * 按需初始化哈希种子 / final boolean initHashSeedAsNeeded(int capacity) { // 如果hashSeed != 0,表示当前正在使用备用哈希 boolean currentAltHashing = hashSeed != 0; // 如果vm启动了且map的容量大于阈值,使用备用哈希 boolean useAltHashing = sun.misc.VM.isBooted() && (capacity >= Holder.ALTERNATIVE_HASHING_THRESHOLD); // 异或操作,如果两值同时为false,或同时为true,都算是false。 boolean switching = currentAltHashing ^ useAltHashing; if (switching) { // 把hashSeed设置成随机值 hashSeed = useAltHashing ? sun.misc.Hashing.randomHashSeed(this) : 0; } return switching; }从hashSeed变量的注释可以看出,哈希种子一个随机值,在计算key的哈希码时会用到这个种子,目的是为了进一步减少哈希碰撞。如果hashSeed=0表示禁用备用哈希。而Holder中维护的ALTERNATIVE_HASHING_THRESHOLD是触发启用备用哈希的阈值,该值表示,如果容器的容量(注意是容量,不是实际大小)达到了该值,容器应该启用备用哈希。Holder会尝试读取JVM启动时传入的参数-Djdk.map.althashing.threshold并赋值给ALTERNATIVE_HASHING_THRESHOLD。它的值有如下含义:ALTERNATIVE_HASHING_THRESHOLD = 1,总是使用备用哈希ALTERNATIVE_HASHING_THRESHOLD = -1,禁用备用哈希在initHashSeedAsNeeded(int capacity)方法中,会判断如果容器的容量>=ALTERNATIVE_HASHING_THRESHOLD,就会生成一个随机的哈希种子hashSeed,该种子会在put方法调用过程中的hash方法中使用到: /* * 获取key的哈希码,并应用一个补充的哈希函数,构成最终的哈希码。 * This is critical because HashMap uses power-of-two length hash tables, that * otherwise encounter collisions for hashCodes that do not differ * in lower bits. Note: Null keys always map to hash 0, thus index 0. / final int hash(Object k) { // 如果哈希种子是随机值,使用备用哈希 // (方法调用链:inflateTable()–>initHashSeedAsNeeded()–>hash(), // 在initHashSeedAsNeeded()中已判断了是否需要初始化哈希种子) int h = hashSeed; if (0 != h && k instanceof String) { return sun.misc.Hashing.stringHash32((String) k); } h ^= k.hashCode(); // This function ensures that hashCodes that differ only by // constant multiples at each bit position have a bounded // number of collisions (approximately 8 at default load factor). h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); }计算存储下标(indexFor) /* * 根据哈希码计算返回哈希表的下标 / static int indexFor(int h, int length) { // assert Integer.bitCount(length) == 1 : “length must be a non-zero power of 2”; return h & (length-1); }这段代码和简单,却有几个有意思的地方。为什么容量要设计成2的n次幂注意,容量实质就是内部数组的length,还要注意是2的n次幂,不是2的倍数。先看下面的测试代码:public class Main { static final int hash(Object k) { int hashSeed = 0; int h = hashSeed; if (0 != h && k instanceof String) { return sun.misc.Hashing.stringHash32((String) k); } h ^= k.hashCode(); h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } static int indexFor(int h, int length) { return h & (length-1); } public static void main(String[] args) { String key = “14587”; int h = hash(key); int capacity = 16; for (int i = 0; i < 10; i++) { System.out.println(String.format(“哈希码: %d, 容量: %d, 下标: %d”, h, // 同一个哈希码 (capacity<<i), // 不同的容量 indexFor(h,capacity<<i))); //计算出来的下标 } }// key: hello// 哈希码: 96207088, 容量: 16, 下标: 0// 哈希码: 96207088, 容量: 32, 下标: 16// 哈希码: 96207088, 容量: 64, 下标: 48// 哈希码: 96207088, 容量: 128, 下标: 112// 哈希码: 96207088, 容量: 256, 下标: 240// 哈希码: 96207088, 容量: 512, 下标: 240// 哈希码: 96207088, 容量: 1024, 下标: 240// 哈希码: 96207088, 容量: 2048, 下标: 240// 哈希码: 96207088, 容量: 4096, 下标: 240// 哈希码: 96207088, 容量: 8192, 下标: 240// key: 4// 哈希码: 55, 容量: 16, 下标: 7// 哈希码: 55, 容量: 32, 下标: 23// 哈希码: 55, 容量: 64, 下标: 55// 哈希码: 55, 容量: 128, 下标: 55// 哈希码: 55, 容量: 256, 下标: 55// 哈希码: 55, 容量: 512, 下标: 55// 哈希码: 55, 容量: 1024, 下标: 55// 哈希码: 55, 容量: 2048, 下标: 55// 哈希码: 55, 容量: 4096, 下标: 55// 哈希码: 55, 容量: 8192, 下标: 55// key: 14587// 哈希码: 48489485, 容量: 16, 下标: 13// 哈希码: 48489485, 容量: 32, 下标: 13// 哈希码: 48489485, 容量: 64, 下标: 13// 哈希码: 48489485, 容量: 128, 下标: 13// 哈希码: 48489485, 容量: 256, 下标: 13// 哈希码: 48489485, 容量: 512, 下标: 13// 哈希码: 48489485, 容量: 1024, 下标: 13// 哈希码: 48489485, 容量: 2048, 下标: 1037// 哈希码: 48489485, 容量: 4096, 下标: 1037// 哈希码: 48489485, 容量: 8192, 下标: 1037}上面的hash、indexFor都是从HashMap源码中拷过来的,hashSeed=0也是HashMap默认的值,main方法中按key计算哈希码再按哈希码和数组长度计算下标也是put方法中的执行逻辑。从测试结果可以看出,相同的哈希码,在多次扩容时,使用indexFor的算法,下标变动较少,这样能减少扩容引起的移动Entry的操作次数。可以看看key为4,容量为16、32、64……时indexFor计算下标的过程。字符串“4”的哈希码是:55(二进制110111)当length = 16时: h & (length-1)= 55 & (16-1)= 110111 & 1111当length = 32时: h & (32-1)= 55 & (16-1)= 110111 & 11111当length = 64时: h & (length-1)= 55 & (64-1)= 110111 & 111111由于容量每次扩容都会翻倍(容量 x 2),翻到特定次数后(红色虚线往左),跟h做与运算的位肯定是全部都是1,所以算出来的下标都会是一样的。这样子,虽然扩容会引起下标变动,但相对稳定。试想想,如果容量是17、33、65…..那么lenght-1的二进制除了高位(最左一位)是1,其余是0,不同hash和length-1做与运算算出来的下标就更容易有重复的下标。使lenght-1的全部位为1,能使计算出来的下标分布更均匀,减少哈希碰撞。小结一下,容量设计成2的n次幂是为了:在put方法中,有调用indexFor计算下标,容量设计成2的n次幂能使下标相对均匀,减少哈希碰撞在扩容相关的transfer方法中,也有调用indexFor重新计算下标。容量设计成2的n次幂能使扩容时重新计算的下标相对稳定,减少移动元素扩容与线程安全问题 /* * Rehashes the contents of this map into a new array with a * larger capacity. This method is called automatically when the * number of keys in this map reaches its threshold. * * If current capacity is MAXIMUM_CAPACITY, this method does not * resize the map, but sets threshold to Integer.MAX_VALUE. * This has the effect of preventing future calls. * * @param newCapacity the new capacity, MUST be a power of two; * must be greater than current capacity unless current * capacity is MAXIMUM_CAPACITY (in which case value * is irrelevant). / void resize(int newCapacity) { // 缓存就哈希表数据 Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } // 用扩容容量创建一个新的哈希表 Entry[] newTable = new Entry[newCapacity]; transfer(newTable, initHashSeedAsNeeded(newCapacity)); table = newTable; threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); } /* * 把所有条目从当前哈希表转移到新哈希表 */ void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; for (Entry<K,V> e : table) { while(null != e) { Entry<K,V> next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next; } } }从上图显示的转移过程可以看出,链表在转移后会逆序。3–>7–>9 变成 9–>7–>3。在单线程环境下,是不会出现闭合的回路的。但是在多线程环境下,有可能多条线程都调用transfer,而transfer方法中访问了一个全局变量table,并修改下标中指向的Entry。由于转移过程会导致链表逆序,就有可能出现闭环的引用:3–>7–>9–>3,然后,在调用get方法的时候,就出现死循环。 ...

March 15, 2019 · 7 min · jiezi

HashMap剖析之put()和get()方法

前言本文是基于Java 8的HashMap进行分析,主要是分析HashMap中的put()和get()方法。下面将会分析这部分的源码,如果觉得源码分析内容太啰嗦,可以跳过源码部分,直接看源码下面的总结。put()方法源码分析HashMap的put()方法是我们最常用的方法,但是put()方法是怎么工作的呢?put()方法 /** * HashMap的put()方法支持key/value为null / public V put(K key, V value) { //实际上是先调用HashMap的hash()方法获取到key的hash值 //然后调用HashMap的putVal()方法 return putVal(hash(key), key, value, false, true); }put()方法实际上是调用hash()方法获取到key的hash值调用putVal()方法存储key-value核心方法是putVal()方法,下面我会先分析一下hash()方法,因为这个方法涉及到hash值这个关键属性的计算。hash()方法static final int hash(Object key) { int h; // key为null时,hash值为0 // key不为null时,调用key对象的hashCode()方法并通过位运算异或和无符号右移将高位分散到低位 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }hash()方法指定了null的hash值为0。这样就可以支持key为null。(h = key.hashCode()) ^ (h >>> 16)这段代码通过位运算异或和无符号右移将高位分散到低位,这样做可以减少哈希碰撞的概率(这块不是很清楚原理,是从方法注释上了解到的)putVal()方法 /* * Map.put()方法的实际实现 * * @param hash key的hash值 * @param key 键值对中的key * @param value 键值对中的value * @param onlyIfAbsent 如果为true,则键值对中的值已经存在则不修改这个值 * @param evict 如果为false,则是处于创建模式 * @return 上一次的value,如果上一次的value不存在,则为null / final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { //tab用于暂存散列表table。p为散列表中对应索引的链表的头节点的指针。n存储tab的长度。i则为命中的散列表的索引 Node<K,V>[] tab; Node<K,V> p; int n, i; //给tab和n赋值 //当tab为null或者tab的长度n为0时,触发resize()来初始化tab if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //使用(n - 1) & hash(等价于hash%n)计算命中的散列表索引,同时判断散列表对应索引的链表是否存在 if ((p = tab[i = (n - 1) & hash]) == null) //散列表对应索引的链表不存在则创建一个新的链表 tab[i] = newNode(hash, key, value, null); else {//散列表对应索引的链表已存在 Node<K,V> e; K k; // 判断头节点的hash值和key是否与入参的hash值和key一致。需要注意,null的hash值为0 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) // 对应的键值对已经存在,记录下来 e = p; else if (p instanceof TreeNode)//判断对应的链表是否转化为红黑树 //若是,则直接调用红黑树的putTreeVal()方法 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else {//链表的头节点与新的键值对不重复,即没有发生哈希碰撞 for (int binCount = 0; ; ++binCount) {//遍历链表 if ((e = p.next) == null) {//遍历到尾节点 //尾插法添加一个新的节点 p.next = newNode(hash, key, value, null); //链表长度大于阈值 if (binCount >= TREEIFY_THRESHOLD - 1) // 从-1开始,所以为阈值-1 // 将链表转化为红黑树 treeifyBin(tab, hash); // 中断循环 break; } // 判断当前遍历的节点的hash值和key是否与入参的hash值和key一致,即key是否已经存在 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) // key已经存在,中断循环 break; // 记录当前遍历的节点 p = e; } } if (e != null) { // Map中存在重复的key V oldValue = e.value;//记录下旧值 if (!onlyIfAbsent || oldValue == null)//判断值存在是否可以进行修改以及旧值是否为null e.value = value;//修改该节点的值 afterNodeAccess(e);// 链表节点的回调方法,此处为空方法 return oldValue;//返回旧值 } } // HashMap发生结构变化,变化次数累加 ++modCount; // 键值对个数自增,同时判断是否达到扩容的阈值 if (++size > threshold) resize(); // 链表节点的回调方法,此处为空方法 afterNodeInsertion(evict); // 此处返回null是因为链表新增了节点,所以上一次的值必然为null return null; }putVal()方法的关键点:若table没有初始化则调用reszie()方法初始化。计算命中的散列表索引位置,公式为(n - 1) & hash(等价于hash%n)。其中n为散列表长度,hash为插入的键值对的key的哈希值。判断散列表对应索引中的首节点是否为null,若为null,则创建链表,否则进入下一步。判断该首节点是否与插入的键值对的key和hash一致,若一致则替换该节点的值为value,否则进入下一步判断首节点是否为树节点,若是则调用树节点的putTreeVal()方法遍历红黑树,否则遍历链表。遍历红黑树时,若存在key和hash相同的节点就替换对应节点的值value,若不存在则插入新的树节点。遍历链表时,若存在key和hash相同的节点就替换对应节点的值为value。若找不到key和hash相同的节点,则链表尾部插入节点,同时进入下一步。若当前链表长度大于或等于树化阈值TREEIFY_THRESHOLD(8)时,则将链表转化为红黑树。get()方法源码分析除了HashMap的put()方法外,get()方法也是一个我们常用的方法,下面开始分析其关键的源码。get()方法/* * 返回key对应的value,如果不存在则返回null /public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; }get()方法实际上是调用hash()方法获取到key的hash值调用getNode()方法通过key和hash获取对应的value,不存在则返回null。核心方法是getNode()方法,下面我会先分析一下getNode()方法。getNode()方法 /* * Map.get()方法的实际实现 * @param hash key的哈希值 * @param key 查询用的key * @return 节点或者是节点不存在是返回null */ final Node<K,V> getNode(int hash, Object key) { //tab用于暂存散列表table。first为散列表中对应索引的链表的头节点的指针。n存储tab的长度。i则为命中的散列表的索引 Node<K,V>[] tab; Node<K,V> first, e; int n; K k; //初始化方法内的变量,同时尝试命中散列表 if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k))))// 总是先检查链表的头节点 return first;//头节点符合直接返回头节点 if ((e = first.next) != null) {//是否只有一个节点 if (first instanceof TreeNode)//判断头节点是否为红黑树节点 return ((TreeNode<K,V>)first).getTreeNode(hash, key);//改为遍历红黑树 do {//遍历链表是否有符合的节点 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } //不存在对应的key,返回null return null; }getNode()方法的关键点:若散列表table不为null且长度大于0且其索引为(n - 1) & hash(等价于hash%n)的节点不为null。其中n为散列表长度,hash为插入的键值对的key的哈希值。则进入下一步,否则直接返回null判断首节点的key和hash是否与入参一致,若相同则返回首节点,否则进入下一步。判断节点个数只有1个,若是则返回null,否则进入下一步判断首节点是否为树节点,若是则遍历红黑树,否则为链表,进入下一步遍历链表,检索key和hash与入参相同的节点,若找到则返回该节点,否则返回null总结put()和get()方法是HashMap的常用方法,通过学习其源码了解到HashMap是如何使用拉链法解决哈希冲突。而下面将会通过两幅图展示put()和get()的执行过程:put()方法图解get()方法图解 ...

February 14, 2019 · 3 min · jiezi

HashMap剖析之内部结构

前言本文是基于Java 8的HashMap进行分析,主要是介绍HashMap中的成员变量和类变量的用途,以及分析HashMap的数据结构。变量分析在HashMap中存在多个成员变量和类变量,搞清楚它们的用途有助于我们更深入了解HashMap,下面是它们的介绍: /** * 默认的初始容量,必须为2的次幂 / static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 总所周知是16 /* * 最大容量 / static final int MAXIMUM_CAPACITY = 1 << 30; /* * 默认的负载因子 / static final float DEFAULT_LOAD_FACTOR = 0.75f; /* * 将链表转化为红黑树的阈值,当链表节点数大于或等于该阈值-1则转化为红黑树 / static final int TREEIFY_THRESHOLD = 8; /* * 将红黑树转化为链表的阈值,当红黑树的节点小于该阈值时转化为链表 / static final int UNTREEIFY_THRESHOLD = 6; /* * 允许进行链表转化为红黑树的阈值,只有散列表大小大于或等于该值才能进行红黑树转化 / static final int MIN_TREEIFY_CAPACITY = 64; /* * HashMap中存储数据的数组,也称为散列表。 * 建议保持长度为2的次幂 / transient Node<K,V>[] table; /* * 缓存entrySet()方法的值 / transient Set<Map.Entry<K,V>> entrySet; /* * Map中键值对的个数 / transient int size; /* * HashMap数据结构被改变的次数,一般是指散列表的长度改变、Node链表增加或者减少节点 * 这个参数是用于快速失败机制 / transient int modCount; /* * 下一次触发调整大小(resize()方法)的阈值,一般为容量乘以负载因子 / int threshold; /* * 散列表的负载因子,用于计算扩容的阈值 */ final float loadFactor;数据结构HashMap使用拉链法解决哈希表中存在的哈希冲突问题,所以HashMap底层是用以Node组成的链表为元素的数组table来存储键值对,每个Node就是一个键值对对象。table称呼为散列表。而table对应的是散列表,是因为无论是存储还是读取键值对的时候,都会对key进行hash%table.length运算来进行散列表的命中,然后操作命中的索引对应的Node链表(还是会比较key和hash)。以上为Java 8之前版本的HashMap的实现,而Java 8进行了优化:就是当链表节点数超过阈值TREEIFY_THRESHOLD(8)时,则会将链表转化为红黑树。如果只是使用文字描述的话会很难理解,所以下面会通过一幅图展示: ...

February 11, 2019 · 1 min · jiezi

【源】终于明白JDK8 HashMap底层数组长度,取值2次幂的原因

jdk1.8中的hashmap作了很多改进:红黑树的引入,链表尾插,以及底层数组长度保持2的次幂。本文专注于分析2次幂设定的原因,且听我慢慢道来……与“取余”等价的算法众所周知,hashmap是数组链表结构:hash算法用于将key散列,经计算分散到数组槽中;而两个key算出了同样的值,即产生hash冲突时,就需要将槽中的单个节点升级成链表。由于get时需要对链表其进行遍历,链表越长检索效率越差。那么,计算出的key值落点越平均,hash冲突的可能性越小。key值落点的计算方式为,key的hash值与数组长度作取余操作,记作key.hascode % array.length。从数学角度考虑,保持array.length为质数会使得计算结果更均衡,hashTable就是这么做的(数组初始值11)。但 hashmap 中 array.length 偏偏选择了2的次幂,是个合数……何故?完全出于性能考虑!先给出结论——当 array.ength长度是2的次幂时,key.hashcode % array.length等于key.hashcode & (array.length - 1)。下面重点看下这个结论是怎么得出来的。举个例子:假如 array.length = 2^4 = 16,二进制10000。这个数减去1的结果是1111,也就是array.length -1 = 1111。(下面这段中的数字都是二进制)再假设一个key的值为10011011001(很随意写的一个数),与1111做 & 操作,得到的结果是1001(高位部分1001101都舍去了)。而1001必然是一个小于10000的数,对于一个小于10000的数而言,1001 % 10000得到的就是1001自己。那么刚刚舍弃的高位部分1001101 0000(后面补上了四个0000)就一定能被10000整除吗?答案是肯定的:因为10011010000可以拆成10000000000+10000000+1000000+10000,这几个数都能通过10000的n次左移得到,也就相当于这几个数都能被10000整除。那他们的和,也就是10011010000,一定也可以被10000整除。因此,最终结论就是:10011011001 & ( 10000 - 1 ) = 10011011001 & 1111 = 1001 = 10011011001 % 10000放张简图再唠叨一遍以示总结,加深下印象:再强调一次:当 array.ength长度是2的次幂时,key.hashcode % array.length等于key.hashcode & (array.length - 1)好,如果你读懂了例子部分,相信你已经基本明白这个结论是站得住脚的(虽然不是纯数学型的讲解)。那么hashmap的作者Doug Lea大神,为什么如此执着于用&操作替换%操作呢?因为对于二进制生物计算机来说,& 的效率要高于 %!(与、或、非都可看作二进制基本操作,同或、异或次之,+ - * ÷ % 等都基于前面的)扩容时方便定位这还不算完,好处不止这一处。当hashmap需要扩容,重新计算链表元素的hashcode,以进行元素的重新定位时,依然能从“ 数组2次幂 ”的这个设定中借力!hashmap数组扩容时,新数组length = 原数组length * 2,沿用前面的例子(array.length = 2^4 = 16,二进制10000),array.length 乘以 2 ,即二进制左移一位,由 10000 变成 100000。此时需要重新计算数组槽中的元素位置,如果槽中是链表,链表中每个元素都需要重新计算位置(这里不考虑红黑树)。计算的公式不变,key.hashcode & (array.length - 1),由于数组的翻倍(10000->100000),导致 array.length - 1 发生了改变(1111->11111)。此时,扩容前原本被舍弃的高位部分的最后1位,也将参与计算。在扩容这个历史的拐点,这一位就显得很特别:如果这个位置是0,余数计算的将保持结果不变,意味着扩容后此元素还在这个槽中(槽编号没发生改变);如果这个位置是1,余数计算结果就变成了原槽索引 + 原array.length。也就是说,hashmap扩容的元素迁移过程中,由于数组大小是2次幂的巧妙设定,使得只要检查 “ 特殊位 ” 就能确定该元素的最终定位。给出一个较完整的扩容示意图进行说明:扩容前红绿黄三个元素,由各自的hashcode取余后都淤积在数组槽13,组成以链表形式扩容后红、绿二星所表示的元素的hashcode“ 特殊位 ”为0,取余依然定位在槽13;而黄星表示的元素,hashcode“ 特殊位 ”为1,取余后结果 = 原槽索引 + 原数组大小 = 13 + 16 = 29。(这个结果也和图中黄星的hashcode二进制低位值11101一致)总结对hashmap而言,数组长度始终保持2次幂有两点好处:能利用 & 操作代替 % 操作,提升性能数组扩容时,只需关注 “特殊位” 就可以从新定位元素性能,性能,还是性能…… ...

December 25, 2018 · 1 min · jiezi