HashMap底层原理解析

原文地址: https://jygod.github.io/2018/04/05/HashMap%E5%BA%95%E5%B1%82%E5%8E%9F%E7%90%86%E8%A7%A3%E6%9E%90/

初始化

我们先来看看在初始化HashMap的时候会发生神马:

HashMap<String, Person> map = new HashMap<String, Person>();

 public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }

只会初始化一个参数loadFactor(负载因子),DEFAULT_LOAD_FACTOR 是负载因子的默认值0.75f。

 /**
     * The load factor used when none specified in constructor.
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

那么我们可以知道初始化HashMap基本上什么都没干…

然后我们进行下一个语句 Person p = new Person("Jiang", 18);map.put("jy", p);

这是put()方法源码:

    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

然后是putVal()方法:

 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else
            ...
            ... // 先过滤掉,反正刚开始不会往这里面走...
            ...
          ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
 }

我们先来看看这里的table是什么?

 /**
     * The table, initialized on first use, and resized as
     * necessary. When allocated, length is always a power of two.
     * (We also tolerate length zero in some operations to allow
     * bootstrapping mechanics that are currently not needed.)
     */
    transient Node<K,V>[] table;

相当于是一个初始值为null的Node数组,再来看看Node的数据结构:

 /**
     * Basic hash bin node, used for most entries.  (See below for
     * TreeNode subclass, and in LinkedHashMap for its Entry subclass.)
     */
    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;
    }

回到putVal()方法中…我们首次put元素的时候,这个table当然是null的,因此会执行 table = resize();

resize()方法就是HashMap进行动态扩容的关键方法。

由于resize()方法有点长..我仅把首次扩容的关键代码截下来…

 final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            ...// 不会走这里
        }
        else {  // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY; // static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        threshold = newThr;
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            ..... // 不会走这里
        }
      return newTab;
 }

我们很清楚的知道,由于 table 是null,所以 oldCap = 0;所以有:

newCap = 1 << 4 = 16; newThr = 0.75f * 16 = 12;

Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;

这两行表示 table 现在就是正式在内存堆里面开辟的大小为16的Node数组了~

现在的状态差不多是介个样子滴:

《HashMap底层原理解析》 img1.jpeg

我们的元素此时还没有加到map中,因为我们putVal()方法还没有分析完,只是对底层的table进行了初始化的扩容,接下来我们继续分析putVal()方法,看看具体怎么把元素塞进map中的。

为了防止往上翻代码….

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        if ((tab = table) == null || (n = tab.length) == 0) // 刚才我们分析道这儿了!!!
            n = (tab = resize()).length;
        if ((p = tab[i = (n - 1) & hash]) == null) // 现在从这儿开始...
            tab[i] = newNode(hash, key, value, null);
        else
            ...
            ... // 先过滤掉,反正刚开始不会往这里面走...
            ...
        ++modCount;
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
 }

resize()扩容之后,通过 (n – 1) & hash 计算得到一个 0~15的下标值,得到的下标 i 正式我们元素应该放入的table中的位置,如果计算后的i在table中的位置 table[i] 为null, 证明当前位置还没有任何节点元素,我们需要new一个节点,并放在table[i]上。

所以现在的状态应该是这样了QAQ:

《HashMap底层原理解析》 img2.jpeg

而每一次put()元素的时候,如果在table[i]上元素为null, 将元素插入table[i]时,都会进行size++ 的操作, size对应上图HashMap对象的那个size:

 if (++size > threshold)
            resize();

因此,虽说在初始化时底层建立了一个16长度的数组,但是hashMap得逻辑长度最开始仍然是0, 只有在每次table[i]中有新元素到来的时候(并且table[i]为null)才会增加size;

而当size也就是添加的元素个数超过阈值threshold,就会进行resize()底层数组的扩容~ 这个我们之后再详细说明。

HashMap的初始化操作就到这里了~

添加元素以及解决冲突

我们之前分析了向底层table添加新元素的过程,现在我们执行Person p1 = new Person("jiang", 20);map.put("jyjy", p1);来模拟Hash冲突的情况。

还是先来分析putVal()方法:

 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
     Node<K,V>[] tab; Node<K,V> p; int n, i;
     .... // 省略
     ....
       if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else { // 这个时候应该是走这里啦
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k)))) // 如果发现要插入的元素的vale存在,则啥也不干..
                e = p;
            else if (p instanceof TreeNode) // 如果插入时发现是TreeNode结构的
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else { // 转换成红黑树前的插入操作
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
     ....
     ....
 }

可以看到注释里写的,再插入时,有两种可能的结构。JDK1.7及以前版本中只会存在单链表的结构,而这种单链表的结构,一旦元素太多了,就会导致查询效率低下… 因此在JDK1.8的版本中,如果元素超过插入的阈值(8个),就会将单链表转换成红黑二叉树的结构,这里我们知道就好,具体的红黑二叉树转换和插入比较复杂,就不在这篇文章中分析了…

那么我们需要关注的实际就是这一段代码:

      else { // 转换成红黑树前的插入操作
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) { //在最后一个位置new一个新节点
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // 超过阈值转换成红黑树
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }

这段代码很好理解,从第一个节点开始向后遍历,在链表的末尾插入新的节点,如果超过阈值(8个),则转换成红黑二叉树。

因此现在的状态理论上是酱紫:

《HashMap底层原理解析》 img3.jpeg

再来看最后执行的这段:

  if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }

插入节点或是发现已有一样的节点后,e都不会为null(只有一开始table[i]为null的时候e才会是null),所以上一段必定会执行。

因此会直接return这个插入节点的value,而不会执行之后的size++;

扩容

在初始化的时候,我们看到putVal()这个方法里最后有这么一句话:

 final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
     ....
     ....// 前面省略
         
      if (++size > threshold)
            resize();
 }

初始的时候 threshold 的值我们计算得到的是 0.75f * 16 = 12,因此如果插入到table的元素超过阈值时(现在阈值为12)会触发resize()对当前table数组扩容。

又来到了resize()方法,只不过这一次就是真的要对底层数组进行扩容了~

 final Node<K,V>[] resize() {
      .....
      if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
 }

现在oldCap是16 > 0,因此往下走,newCap = 16 << 1 = 16 * 2 = 32,扩大两倍。而阈值也是扩大两倍。

继续往下面看…

 final Node<K,V>[] resize() {
      .....
      if (oldCap > 0) {
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
     ...
         
     Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
     table = newTab;
     if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
 }

是不是感觉有点长啊… 没事,慢慢来… ..这一段是在干什么呢?在底层table数组扩容一倍之后,需要重新计算每个元素的放置位置,在JDK1.7及以前,其实都是根据rehash()重新计算节点的hash值然后再 e.hash & (oldCap – 1) 来重新计算节点的下标位置,进而进行重新的节点排列。

而JDK1.8优化之后不需要再次对元素的hash值进行计算,而是只会将之前元素的hash值和oldCap值进行对比,观察其最高位的0,1情况,具体如下:

(e.hash & oldCap) 得到的是 元素的在数组中的位置是否需要移动,示例如下

示例1:
e.hash=10 0000 1010
oldCap=16 0001 0000
&   =0  0000 0000       比较高位的第一位 0
结论:元素位置在扩容后数组中的位置没有发生改变

示例2:
e.hash=17 0001 0001
oldCap=16 0001 0000
&   =1  0001 0000      比较高位的第一位   1
结论:元素位置在扩容后数组中的位置发生了改变,新的下标位置是原下标位置+原数组长度

将结果为0的存在以loHead为首的链表中, 将结果为1的存在以hiHead为首的链表中,然后分别放入table[i]和table[1 + oldCap]中。

这样做能够有效地将元素分散。

    原文作者:JYGod丶
    原文地址: https://www.jianshu.com/p/2f0ddb343484
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞