Map的原理

1.Map 是什么

Map用于保留具备映射关系的数据,Map汇合里保留着两组值,一组用于保留Map的Key,另一组保留着Map的value。

Map有哪些办法

2.HsahMap 是什么

HashMap 是一个采纳哈希表实现的键值对汇合,继承自 AbstractMap,实现了 Map 接口。

HashMap 的非凡存储构造使得在获取指定元素前须要通过哈希运算,失去指标元素在哈希表中的地位,而后再进行大量比拟即可失去元素,这使得 HashMap 的查找效率高。

当产生 哈希抵触(碰撞)的时候,HashMap 采纳 拉链法 进行解决,因而 HashMap 的底层实现是 数组+链表,如下图:

HashMap实现概述

  • 容许key/value为null,然而key只能有一个null
  • 非线程平安,多个线程同时操作同一个HashMap实例所做的批改在线程间不同步
  • 遍历时不保障任何程序,跟元素插入程序或者拜访程序无关
  • 进行遍历时如果执行HashMap的remove(Object key)或者put(Object value)办法时会疾速失败,抛出异样ConcurrentModificationException。遍历时删除元素只能通过Iterator自身的remove()办法实现
HashMap中有两个重要概念

因为 HashMap 扩容开销很大(须要创立新数组、从新哈希、调配等等),因而产生扩容相干的两个因素:

  • 容量(capacity)HashMap以后长度
  • 负载因子(load factor)负载因子,默认值0.75f

不利因素:容量太小扩容rehash,导致性能升高,加载因子太大则会发生冲突,查找的效率变低.

容量即该HashMap可能存储的最大的key个数,为便于扩容,容量都是2^n次方。负载因子用于计算执行扩容的阈值,默认的负载因子是0.75,该值是综合思考HashMap的get/put等多种操作时的工夫空间上的均衡,举荐应用默认值即可。如果容量时256,负载因子是0.75时,当key的总量超过192个时会进行扩容,即容量变成原来的两倍512,原有的存储的key会从新通过hash运算重新分配。
常量
// 如果不指定初值的话,列表的长度就为16,默认加载因子为0.75,static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16static final int MAXIMUM_CAPACITY = 1 << 30;static final float DEFAULT_LOAD_FACTOR = 0.75f;static final int TREEIFY_THRESHOLD = 8;static final int UNTREEIFY_THRESHOLD = 6;static final int MIN_TREEIFY_CAPACITY = 64;
成员变量
// node列表transient Node<K,V>[] table;// 缓存节点transient Set<Map.Entry<K,V>> entrySet;// 节点数量transient int size;// 批改的次数transient int modCount;// 极限值,如果节点数大于这个值就须要扩容,计算形式是capacity * loadfactorint threshold;// 加载因子,节点数值大于以后总数的肯定百分比时扩容final float loadFactor;
HashMap 的实现形式
/* ---------------- Public operations -------------- *//** * Constructs an empty <tt>HashMap</tt> with the specified initial * capacity and load factor. * * @param  initialCapacity the initial capacity * @param  loadFactor      the load factor * @throws IllegalArgumentException if the initial capacity is negative *         or the load factor is nonpositive */public HashMap(int initialCapacity, float loadFactor) {    if (initialCapacity < 0)        throw new IllegalArgumentException("Illegal initial capacity: " +                                           initialCapacity);    if (initialCapacity > MAXIMUM_CAPACITY)        initialCapacity = MAXIMUM_CAPACITY;    if (loadFactor <= 0 || Float.isNaN(loadFactor))        throw new IllegalArgumentException("Illegal load factor: " +                                           loadFactor);    this.loadFactor = loadFactor;    this.threshold = tableSizeFor(initialCapacity);}/** * Constructs an empty <tt>HashMap</tt> with the specified initial * capacity and the default load factor (0.75). * * @param  initialCapacity the initial capacity. * @throws IllegalArgumentException if the initial capacity is negative. */public HashMap(int initialCapacity) {    this(initialCapacity, DEFAULT_LOAD_FACTOR);}/** * Constructs an empty <tt>HashMap</tt> with the default initial capacity * (16) and the default load factor (0.75). */public HashMap() {    this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted}public HashMap(Map<? extends K, ? extends V> m) {    this.loadFactor = DEFAULT_LOAD_FACTOR;    putMapEntries(m, false);}// Map中生成一个新的Map,属于深拷贝final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {    int s = m.size();    if (s > 0) {        if (table == null) { // pre-size            float ft = ((float)s / loadFactor) + 1.0F;            int t = ((ft < (float)MAXIMUM_CAPACITY) ?                     (int)ft : MAXIMUM_CAPACITY);            if (t > threshold)                threshold = tableSizeFor(t);        }        else if (s > threshold)            resize();        for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {            K key = e.getKey();            V value = e.getValue();            putVal(hash(key), key, value, false, evict);        }    }}
get办法
public V get(Object key) {    Node<K,V> e;    return (e = getNode(hash(key), key)) == null ? null : e.value;}/** * Implements Map.get and related methods. * * @param hash hash for key * @param key the key * @return the node, or null if none */final Node<K,V> getNode(int hash, Object key) {    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;    // 列表是否为空    if ((tab = table) != null && (n = tab.length) > 0 &&        (first = tab[(n - 1) & hash]) != null) {        // 第一个是否要找的,判断条件统一且key统一        if (first.hash == hash && // always check first node            ((k = first.key) == key || (key != null && key.equals(k))))            return first;        if ((e = first.next) != null) {            if (first instanceof TreeNode)                return ((TreeNode<K,V>)first).getTreeNode(hash, key);            // 依据哈希抵触解决办法,每个数据项都是一个链表,须要遍历这个链表去找到咱们须要的key那项            do {                if (e.hash == hash &&                    ((k = e.key) == key || (key != null && key.equals(k))))                    return e;            } while ((e = e.next) != null);        }    }    return null;}
put办法

put操作时,HashMap会先进行初始化,如果没有先进行初始化操作,初始化过程会取比用户指定容量大的最近2的幂次数作为数组的初始容量,如果设置扩容的阀值也进行更新,初始化实现当前持续put办法。

  1. 先判断有没有初始化
  2. 在判断传入的key是否为空 就存储在table(0)地位
  3. key不为空就对key进行hash,hash的后果在 & 上数组的长度就失去了地位。
  4. 如果存储地位为空就创立新节点,不为空就说存在hash抵触了。
  5. 解决抵触HashMap会遍历整个链表,如果有雷同的value值就更新,否则创立节点增加到链表头。
  6. 增加还要判断存储节点是否达到阈值,达到阈值要进行扩容。
  7. 扩容两倍,扩容的时候应用Arrays.copy() 进行扩容。
  8. 扩容过后新插入的节点也要从新进行hash 一遍能力插入。
/** * Implements Map.put and related methods. * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */final V putVal(int hash, K key, V value, boolean onlyIfAbsent,               boolean evict) {    Node<K,V>[] tab; Node<K,V> p; int n, i;    // 首先还是先查看列表是否为空,为空的话就调用reszie()    if ((tab = table) == null || (n = tab.length) == 0)        n = (tab = resize()).length;    // 依据哈希办法找到列表中的地位,看看是否为空,为空就新建    if ((p = tab[i = (n - 1) & hash]) == null)        tab[i] = newNode(hash, key, value, null);    else {        Node<K,V> e; K k;        // 如果曾经存在,查看是不是和key统一,如果统一把value替换        if (p.hash == hash &&            ((k = p.key) == key || (key != null && key.equals(k))))            e = p;        else if (p instanceof TreeNode)            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);        else {            for (int binCount = 0; ; ++binCount) {                // 再找链表里有没有数据项和key统一,不统一的话就找到链表的尾部                if ((e = p.next) == null) {                    // 在尾部插入一个新的数据项                    p.next = newNode(hash, key, value, null);                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st                        treeifyBin(tab, hash);                    break;                }                // 统一先让p和e指向同一个数据项                if (e.hash == hash &&                    ((k = e.key) == key || (key != null && key.equals(k))))                    break;                p = e;            }        }        // 查看e是否为空,不为空示意key所对应的数据项曾经存在了        if (e != null) { // existing mapping for key            V oldValue = e.value;          // 这时候就须要判断下onlyIfAbsent开关,如果为true示意不须要更新已有数据项的值了,false才更新            if (!onlyIfAbsent || oldValue == null)                e.value = value;            afterNodeAccess(e);            return oldValue;        }    }    ++modCount;    if (++size > threshold)        resize();    afterNodeInsertion(evict);    return null;}
如何计算失去hash code
^和>>>这个两个运算符号
^这个符号叫做异或运算符,两个操作数的位中,雷同则后果为0,不同则后果为1
比方2^5=7 因为0010^0101=0111
static final int hash(Object key) {    int h;    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}
modCount的作用
能够看到modeCount在put,get,remove这些值中被批改。而后在AbstractSet的几个子类KeySet和Values中的foreach中被用来比拟。
在循环之前先记录modCount的值,如果循环完结之后这个值被扭转了阐明HashMap内部结构产生了变动,线程不平安了,就抛出异样,实现“fast-fail”机制。
public final void forEach(Consumer<? super V> action) {    Node<K,V>[] tab;    if (action == null)        throw new NullPointerException();    if (size > 0 && (tab = table) != null) {        int mc = modCount;        for (int i = 0; i < tab.length; ++i) {            for (Node<K,V> e = tab[i]; e != null; e = e.next)                action.accept(e.value);        }        if (modCount != mc)            throw new ConcurrentModificationException();    }}

HashMap的常见问题

hashMap 的1.7 和1.8的区别?
Hash1.7 和1.8 最大的不同在于1.8 采纳了“数组+链表+红黑树”的数据结构,在链表长度超过8 时,把链表转化成红黑树来解决HashMap 因链表变长而查问变慢的问题。
1.7 的底层节点为Entry,1.8 为node ,然而实质一样,都是Map.Entry 的实现。
还有就是在存取数据时增加了对于树结构的遍历更新与增加操作,并采纳了尾插法来防止环形链表的产生。
HashMap扭转头插法扭转尾插法的起因是什么?
java8之前是头插法,就是说新来的值会取代原有的值,原有的值就顺推到链表中去,代码的作者认为起初的值被查找的可能性更大一点,晋升查找的效率。
HashMap的扩容机制有哪些呢?
HashMap的扩容机制,数组容量是无限的,数据屡次插入的,达到肯定数量就行扩容,也就是resize。
举个栗子:容量100的时,当要存第76的时候,就会判断须要进行resize,进行扩容。
/** * The load factor used when none specified in constructor. */static final float DEFAULT_LOAD_FACTOR = 0.75f;
HashMap的扩容的条件是什么呢?
扩容:创立一个新的Entry空数组,长度是原数组的2倍。
ReHash:遍历原Entry数组,把所有的Entry从新Hash到新数组。
为什么要从新计算Hash呢,间接复制用不香么?
Hash的公式---> index = HashCode(Key) & (Length - 1)

原来长度(Length)是8你位运算进去的值是2 ,新的长度是16你位运算进去的值显著不一样了

咱们当初往一个容量大小为2的put两个值,负载因子是0.75是不是咱们在put第二个的时候就会进行resize?

2*0.75 = 1 所以插入第二个就要resize了

因为resize的赋值形式,也就是应用了单链表的头插入方式,同一地位上新元素总会被放在链表的头部地位,在旧数组中同一条Entry链上的元素,通过从新计算索引地位后,有可能被放到了新数组的不同地位上。

如果这个时候去取值,呈现了“Infinite Loop”。

应用头插会扭转链表的上的程序,然而如果应用尾插,在扩容时会放弃链表元素本来的程序,就不会呈现链表成环的问题了。

就是说本来是A->B,在扩容后那个链表还是A->B

Java7在多线程操作HashMap时可能引起死循环,起因是扩容转移后前后链表程序倒置,在转移过程中批改了原来链表中节点的援用关系。

Java8在同样的前提下并不会引起死循环,起因是扩容转移后前后链表程序不变,放弃之前节点的援用关系。

源码看到put/get办法都没有加同步锁,多线程状况最容易呈现的就是:无奈保障上一秒put的值,下一秒get的时候还是原值,所以线程平安还是无奈保障。

HashMap初始值为什么是16?
位与运算比算数计算的效率高了很多,设置初始值16,是为了服务将Key映射到index的算法。
因为在应用不是2的幂的数字的时候,Length-1的值是所有二进制位全为1,这种状况下,index的后果等同于HashCode后几位的值。只有输出的HashCode自身散布平均,Hash算法的后果就是平均的。
这是为了实现均匀分布。
/** * The default initial capacity - MUST be a power of two. */static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
能用HashMap给我举个例子么?
java中,所有的对象都是继承于Object类。Ojbect类中有两个办法equals,hashCode这两个办法都是用来比拟两个对象是否相等的。
在未重写equals办法咱们是继承了object的equals办法,那里的 equals是比拟两个对象的内存地址,显然咱们new了2个对象内存地址必定不一样

对于值对象,==比拟的是两个对象的值
对于援用对象,比拟的是两个对象的地址

HashMap是线程不平安的,其次要体现?
在jdk1.7中,在多线程环境下,扩容时会造成环形链或数据失落。
在jdk1.8中,在多线程环境下,会产生数据笼罩的状况。
HashMap常见面试题
  • HashMap的底层数据结构?
  • HashMap的存取原理?
  • Java7和Java8的区别?
  • 为啥会线程不平安?
  • 有什么线程平安的类代替么?
  • 默认初始化大小是多少?为啥是这么多?为啥大小都是2的幂?
  • HashMap的扩容形式?负载因子是多少?为什是这么多?
  • HashMap的主要参数都有哪些?
  • HashMap是怎么解决hash碰撞的?
  • hash的计算规定?

实现线程平安须要用ConcurrentHashMap
https://www.jianshu.com/p/e69...