本文首发于微信公众号【WriteOnRead】,欢送关注。
1. 概述
与 HashMap 相似,Hashtable 也是散列表的实现。它的内部结构能够了解为「数组 + 链表」的模式,构造示意图如下:
Hashtable 的类继承构造与签名如下:
public class Hashtable<K,V> extends Dictionary<K,V> implements Map<K,V>, Cloneable, java.io.Serializable {}
Hashtable 的 key 和 value 都不能为空(HashMap 的 key 和 value 都容许为空),并且 key 必须要实现 hashCode 办法和 equals 办法。
PS: Hashtable 目前应用不是很多,若无线程平安的需要,举荐应用 HashMap;若须要线程平安的高并发实现,举荐应用 ConcurrentHashMap。
2. 代码剖析
2.1 Entry 类
Entry 类实现了 Map.Entry 接口,是 Hashtable 中的节点类。代码如下:
private static class Entry<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Entry<K,V> next; protected Entry(int hash, K key, V value, Entry<K,V> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } public boolean equals(Object o) { if (!(o instanceof Map.Entry)) return false; Map.Entry<?,?> e = (Map.Entry<?,?>)o; return (key==null ? e.getKey()==null : key.equals(e.getKey())) && (value==null ? e.getValue()==null : value.equals(e.getValue())); } public int hashCode() { return hash ^ Objects.hashCode(value); } // ...}
2.2 成员变量
// Hashtable 外部存储元素的数组private transient Entry<?,?>[] table;// Hashtable 的阈值 (int)(capacity * loadFactor)private int threshold;// 负载因子private float loadFactor;// 数组可能调配的最大容量private static final int MAX_ARRAY_SIZE = Integer.MAX_VALUE - 8;
2.3 结构器
// 结构一个空的 Hashtable,初始容量为 11,负载因子为 0.75public Hashtable() { this(11, 0.75f);}// 结构一个空的 Hashtable,指定初始容量,负载因子为 0.75public Hashtable(int initialCapacity) { this(initialCapacity, 0.75f);}// 结构一个空的 Hashtable,指定初始容量和负载因子public Hashtable(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal Capacity: "+ initialCapacity); if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal Load: "+loadFactor); if (initialCapacity==0) initialCapacity = 1; this.loadFactor = loadFactor; table = new Entry<?,?>[initialCapacity]; threshold = (int)Math.min(initialCapacity * loadFactor, MAX_ARRAY_SIZE + 1);}// 应用给定的 Map 结构一个 Hashtablepublic Hashtable(Map<? extends K, ? extends V> t) { this(Math.max(2*t.size(), 11), 0.75f); putAll(t);}
2.4 次要办法
- put 办法
public synchronized V put(K key, V value) { // Make sure the value is not null (value 不能为空) if (value == null) { throw new NullPointerException(); } // Makes sure the key is not already in the hashtable. Entry<?,?> tab[] = table; // 计算 key 在 table 中的索引 int hash = key.hashCode(); int index = (hash & 0x7FFFFFFF) % tab.length; // 判断 key 在 table 中是否已存在,若存在,则用 value 替换旧值 @SuppressWarnings("unchecked") Entry<K,V> entry = (Entry<K,V>)tab[index]; for(; entry != null ; entry = entry.next) { if ((entry.hash == hash) && entry.key.equals(key)) { V old = entry.value; entry.value = value; return old; } } // 若不存在,则执行 addEntry 办法,将 key-value 增加到 table addEntry(hash, key, value, index); return null;}
能够看到,key 或 value 有一个为空都会抛出 NullPointerException 异样,因而二者都不能为空。
private void addEntry(int hash, K key, V value, int index) { modCount++; Entry<?,?> tab[] = table; if (count >= threshold) { // Rehash the table if the threshold is exceeded // 超过阈值,则扩容 rehash(); tab = table; hash = key.hashCode(); index = (hash & 0x7FFFFFFF) % tab.length; } // Creates the new entry. // 将 key-value 增加到 table 中(头插法,即插到链表的头部) // 即:先拿到 index 地位的元素,若为空,示意插入 entry 后则只有一个元素; // 若不为空,示意该地位已有元素,将已有元素 e 连贯到新的 entry 前面 @SuppressWarnings("unchecked") Entry<K,V> e = (Entry<K,V>) tab[index]; tab[index] = new Entry<>(hash, key, value, e); count++;}
扩容操作 rehash() 如下:
protected void rehash() { int oldCapacity = table.length; Entry<?,?>[] oldMap = table; // overflow-conscious code // 新容量为旧容量的 2 倍加 1 int newCapacity = (oldCapacity << 1) + 1; // 若新容量的值超过最大容量 MAX_ARRAY_SIZE,且旧容量为 MAX_ARRAY_SIZE,则间接返回; // 若旧容量值不为 MAX_ARRAY_SIZE,则新容量为 MAX_ARRAY_SIZE. if (newCapacity - MAX_ARRAY_SIZE > 0) { if (oldCapacity == MAX_ARRAY_SIZE) // Keep running with MAX_ARRAY_SIZE buckets return; newCapacity = MAX_ARRAY_SIZE; } // 新建一个 Entry 数组,容量为下面计算的容量大小 Entry<?,?>[] newMap = new Entry<?,?>[newCapacity]; modCount++; threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1); table = newMap; for (int i = oldCapacity ; i-- > 0 ;) { for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) { Entry<K,V> e = old; old = old.next; int index = (e.hash & 0x7FFFFFFF) % newCapacity; // 留神这里会调换程序 e.next = (Entry<K,V>)newMap[index]; newMap[index] = e; } }}
扩容操作,若 index 地位为链表,且插入程序为 1、2、3,则在该地位的存储程序为 3、2、1。扩容时,会从前往后读取元素并操作,因而扩容后的程序为 3、2、1。示意图:
值得注意的是,put 办法(包含前面剖析的 get 和 remove 等办法)带有 synchronized 关键字,Hashtable 就是通过这种形式实现线程平安的。这里锁定的是整个 table,因而并发效率较低,这也是高并发场景下举荐应用 ConcurrentHashMap 的起因。
- get 办法
public synchronized V get(Object key) { Entry<?,?> tab[] = table; int hash = key.hashCode(); int index = (hash & 0x7FFFFFFF) % tab.length; for (Entry<?,?> e = tab[index] ; e != null ; e = e.next) { if ((e.hash == hash) && e.key.equals(key)) { return (V)e.value; } } return null;}
剖析过 put 办法后,get 办法和 remove 办法剖析起来就比较简单了,它们和 put 办法相似。
- remove 办法
public synchronized V remove(Object key) { Entry<?,?> tab[] = table; int hash = key.hashCode(); int index = (hash & 0x7FFFFFFF) % tab.length; @SuppressWarnings("unchecked") Entry<K,V> e = (Entry<K,V>)tab[index]; for(Entry<K,V> prev = null ; e != null ; prev = e, e = e.next) { if ((e.hash == hash) && e.key.equals(key)) { modCount++; if (prev != null) { prev.next = e.next; } else { tab[index] = e.next; } count--; V oldValue = e.value; e.value = null; return oldValue; } } return null;}
三种汇合视图 EntrySet、keySet 和 values 别离如下:
private transient volatile Set<K> keySet;private transient volatile Set<Map.Entry<K,V>> entrySet;private transient volatile Collection<V> values;public Set<K> keySet() { if (keySet == null) keySet = Collections.synchronizedSet(new KeySet(), this); return keySet;}public Set<Map.Entry<K,V>> entrySet() { if (entrySet==null) entrySet = Collections.synchronizedSet(new EntrySet(), this); return entrySet;}public Collection<V> values() { if (values==null) values = Collections.synchronizedCollection(new ValueCollection(), this); return values;}
3. 小结
- Hashtable 是散列表的实现,解决散列抵触应用的是链表法,内部结构能够了解为「数组 + 链表」;
- 默认初始化容量为 11,默认负载因子为 0.75;
- 线程平安,应用 synchronized 关键字,并发效率低;
- 若无需保障线程平安,举荐应用 HashMap;若须要线程平安的高并发场景,举荐应用 ConcurrentHashMap。