JDK 源码分析之 HashMap

分析JDK 源码是走进高级工程师的门槛,我们必须在熟练使用的同时了解到这些在底层中是如何实现的。以下都是以 jdk 1.8 源码分析的

HashMap

基于哈希表实现。底层用数组+单向链表(1.8增加了黑红树)存储。无序,键名唯一,可为 NULL;键值可重复,可为 NULL

public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable 

1、存储机制

HashMap 以键值对方式存储,内部包含了一个 Node 类型的数组 table。

每个 Node 节点有4个属性:hash、key、value 、next

数组中的每个位置被当成一个桶,一个桶存放一个链表。当发生 hash 碰撞的时候,以链表的形式进行存储

transient Node<K,V>[] table;

static class Node<K,V> implements Map.Entry<K,V> {
    final int hash;
    final K key;
    V value;
    Node<K,V> next; 
}

1> Key 为空值原理

计算key的hash值时,会判断是否为 NULL

 static final int hash(Object key) {
     int h;
     return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
 }    

2> hashCode 作用

  • hash 算法可以直接根据元素的 hashCode 值计算出该元素的存储位置从而快速定位该元素
  • 如果两个对象相同,就是适用于equals(java.lang.Object) 方法,那么这两个对象的hashCode一定要相同
  • 为什么不直接使用数组,还需要使用 HashSet 呢?
    • 因为数组元素的索引是连续的,而数组的长度是固定的,无法自由增加数组的长度。而HashSet就不一样了,HashSet采用每个元素的hashCode值来计算其存储位置,从而可以自由增加长度,并可以根据元素的hashCode值来访问元素。

3> Hash 碰撞处理

  • JDK7 中,当发生hash碰撞的时候,以链表的形式进行存储。
  • JDK8中增加了黑红树的使用。当一个hash碰撞的次数超过指定次数(常量8次)的时候,将转换为红黑树结构
public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}
// 计算键名的哈希值
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;  // 集合大小为 0 时会初次扩容resize()
    if ((p = tab[i = (n - 1) & hash]) == null)  // 判断是否发生 hash 碰撞,数组索引为 (n - 1) & hash 
        tab[i] = newNode(hash, key, value, null);	// 不发生 hash 碰撞,以数组存储
    else {
        Node<K,V> e; K k;
        if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        else if (p instanceof TreeNode)  // 判断是否是树节点
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); 	// 红黑树存储
        else {
            // 链表插入 ----start
            for (int binCount = 0; ; ++binCount) {
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);	// 链表存储
                    // static final int TREEIFY_THRESHOLD = 8; 链表长度
                    if (binCount >= TREEIFY_THRESHOLD - 1) // 判断链表长度是否大于 8 
                        treeifyBin(tab, hash);	// 转换 Node 节点为 TreeNode 节点
                    break;
                }
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    break;
                p = e;
            }
            // 链表插入 ----end
        }
        if (e != null) { // existing mapping for key
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    if (++size > threshold) // 是否扩容判断,阀值threshold = 初始容量 * 负载因子
        resize();
    afterNodeInsertion(evict);
    return null;
}

当 HashMap 中同一 hash 位的链表长度大于 8 时, 将Node 节点对象,转换成 树节点对象 TreeNode

final void treeifyBin(Node<K,V>[] tab, int hash) {
    int n, index; Node<K,V> e;
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
        resize();
    else if ((e = tab[index = (n - 1) & hash]) != null) {
        TreeNode<K,V> hd = null, tl = null;
        do {
            TreeNode<K,V> p = replacementTreeNode(e, null); // 转换 Node 对象为TreeNode 
            if (tl == null)
                hd = p;
            else {
                p.prev = tl;
                tl.next = p;
            }
            tl = p;
        } while ((e = e.next) != null);
        if ((tab[index] = hd) != null)
            hd.treeify(tab);
    }
}
TreeNode<K,V> replacementTreeNode(Node<K,V> p, Node<K,V> next) {
    return new TreeNode<>(p.hash, p.key, p.value, next);
}

2、扩容机制

JDK 8 源码分析

  • 初始容量默认 16,指哈希表中桶的数量
  • 负载因子默认 0.75,指哈希表在其容量自动增加之前可以达到多满的一种尺度
  • 初始阀值初始容量 * 负载因子 (16 * 0.75 = 12)
  • 扩容倍数2 倍
  • 容量范围16 < 容量 < MAXIMUM_CAPACITY(230),超出默认为 Integer.MAX_VALUE ( 231-1)

扩容步骤:

第一步:

  1. 如果:原容量大于 0 的情况下,
    • 比较原容量是否超出最大容量,是设置阀值Integer.MAX_VALUE,并返回当前 哈希表 table
    • 否则,设置新容量为原来 2 倍 ,再判断此时新容量是否在容量范围中,是,则新阀值为原来 2 倍
  2. 如果:原容量等于 0 ,但阀值大于 0 的情况下, 设置容量等于阀值。 这种情况是在 new HashMap(0) 时,经tableSizeFor()计算得阀值会为 1。
  3. 在 1,2 不满足的情况下,直接设置默认初始容量和阀值

第二步:在判断阀值是否为 0,是 ,则根据当前容量大小设置阀值为 容量 * 负载因子 ,或者为 Integer.MAX_VALUE

第三步:new 一个新的哈希表,复制数据到新哈希表

static final int MAXIMUM_CAPACITY = 1 << 30;  // 集合最大容量 
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 初始容量 16

// 扩容方法
final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    // oldCap 数组长度 oldThr 阀值
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;  
    int newCap, newThr = 0;
    // 计算容量和阀值得大小 --- star
    if (oldCap > 0) {
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 扩容条件,扩容后的容量在 16 到 最大容量之间时
        // 扩容大小为 << 1 ,2 倍 相等乘 2 
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // initial capacity was placed in threshold
        newCap = oldThr;
    else {               // zero initial threshold signifies using defaults
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    // 计算容量和阀值得大小 --- end
    
    // 扩容,复制新数组---start
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    if (oldTab != null) {
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    // 扩容,复制新数组---end
    return newTab;
}

题型计算

HashMap对象如果确定只装载100个元素,new HashMap(?)多少是最佳的,why ?

解答:

  1. 100/0.75 = 133.33。为了防止rehash,向上取整,为134。
  2. hash表的长度设为2的N次方: 128(2的7次方)< 134 < 256
  3. 所以 结果是256

3、并发安全

线程不安全原因:

  • 多线程下新增可能会被覆盖:两个线程在单链上插入同一个位置时会被覆盖
  • 扩容易丢失数据:多个线程同时扩容时,最终只有最后一个线程生成的新数组被赋给table变量,其他线程的均会丢失。
  • HashMap 死循环原理

transfer方法,(引入重点)这就是HashMap并发时,会引起死循环的根本原因所在

线程安全解决方案

  • 使用集合工具类 Collections.synchronizedMap(list、set 等都有)

  • 使用 Hashtable

  • 使用并发包提供的线程安全容器类:比如 ConcurrentHashMap

1> Collections.synchronizedMap

通过 synchronizedMap() 返回一个 SynchronizedMap对象。 该对象内部维持Map对象进行操作,并使用 synchronized 进行封装,来保证线程安全。

其他Set、ArrayList 都是同理

public static <K,V> Map<K,V> synchronizedMap(Map<K,V> m) {
    return new SynchronizedMap<>(m);
}
private static class SynchronizedMap<K,V>  implements Map<K,V>, Serializable {
    private final Map<K,V> m;     // Backing Map
    final Object      mutex;
    SynchronizedMap(Map<K,V> m) {
        this.m = Objects.requireNonNull(m);
        mutex = this;
    }
    public boolean containsKey(Object key) {
        synchronized (mutex) {return m.containsKey(key);}
    }
    public boolean containsValue(Object value) {
        synchronized (mutex) {return m.containsValue(value);}
    }
    public V get(Object key) {
        synchronized (mutex) {return m.get(key);}
    }
    public V put(K key, V value) {
        synchronized (mutex) {return m.put(key, value);}
    }
}

2> Hashtable

  1. Hashtable 继承 Dictionary 类,数据结构与 HashMap 类似,不过 Hashtable 内部维持 Entry 对象,而 在 jdk 1.8 中 HashMap是 Node 对象,不过他们都实现了 Map.Entry
  2. 初始容量为 11,增长因子为0.75,每次扩容为原来的 2n + 1
  3. hashCode直接取的键名的哈希值,以 (hash & 0x7FFFFFFF) % tab.length 取余作元素对应哈希表索引,将值存储该索引下(Integer.MAX_VALUE = 0x7FFFFFFF )
  4. key和value都不允许为 NULL ,
  5. 支持多线并发,synchronized 修饰 put 方法,同一时间只允许一个写线程操作该对象,效率没有ConcurrentHashMap高
public class Hashtable<K,V> extends Dictionary<K,V>
    implements Map<K,V>, Cloneable, java.io.Serializable {
    private transient Entry<?,?>[] table;
    public Hashtable() {
        this(11, 0.75f); // 默认的初始容量为 11,增长因子为0.75
    }
}

Hashtable与 HashMap区别

  • **父类:**Hashtable 继承自Dictionary类,而HashMap继承自AbstractMap类。但二者都实现了Map接口。
  • **同步方式:**Hashtable 支持线程同步,所有对外方法由synchronized修饰;HashMap可以通过Collections.synchronizedMap(hashMap)来进行处理
  • **Key的空值:**Hashtable 中,key和value都不允许出现null值,HashMap可以由一个null的key,多个null的Value
  • **哈希值:**HashTable直接使用对象的hashCode。而HashMap重新计算hash值。
  • 迭代器:HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的
  • **扩容:**Hashtable默认的初始容量为11,每次扩充为原来的 2n + 1。HashMap默认的初始容量16。每次扩充为原来的 2倍

添加元素源码如下:

由synchronized 对 put 方法进行加锁。

public synchronized V put(K key, V value) {
    // Make sure the value is not null
    if (value == null) {
        throw new NullPointerException();
    }

    // Makes sure the key is not already in the hashtable.
    Entry<?,?> tab[] = table;
    int hash = key.hashCode();    // 键名不能为空
    int index = (hash & 0x7FFFFFFF) % tab.length;
    @SuppressWarnings("unchecked")
    Entry<K,V> entry = (Entry<K,V>)tab[index];
    for(; entry != null ; entry = entry.next) {
        if ((entry.hash == hash) && entry.key.equals(key)) {
            V old = entry.value;
            entry.value = value;
            return old;
        }
    }
    addEntry(hash, key, value, index);
    return null;
}
private void addEntry(int hash, K key, V value, int index) {
        modCount++;
    Entry<?,?> tab[] = table;
    if (count >= threshold) {
        // Rehash the table if the threshold is exceeded
        rehash();    // 扩容

        tab = table;
        hash = key.hashCode();
        index = (hash & 0x7FFFFFFF) % tab.length;
    }

    // Creates the new entry.
    @SuppressWarnings("unchecked")
    Entry<K,V> e = (Entry<K,V>) tab[index];
    tab[index] = new Entry<>(hash, key, value, e);
    count++;
}

扩容机制

protected void rehash() {
    int oldCapacity = table.length;
    Entry<?,?>[] oldMap = table;

    // overflow-conscious code
    int newCapacity = (oldCapacity << 1) + 1;    // 扩容倍数 2n + 1
    if (newCapacity - MAX_ARRAY_SIZE > 0) {
        if (oldCapacity == MAX_ARRAY_SIZE)
            return;
        newCapacity = MAX_ARRAY_SIZE;
    }
    Entry<?,?>[] newMap = new Entry<?,?>[newCapacity];

    modCount++;
    threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
    table = newMap;

    for (int i = oldCapacity ; i-- > 0 ;) {
        for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) {
            Entry<K,V> e = old;
            old = old.next;

            int index = (e.hash & 0x7FFFFFFF) % newCapacity;
            e.next = (Entry<K,V>)newMap[index];
            newMap[index] = e;
        }
    }
}

3> ConcurrentHashMap

  1. 数据结构与 HashMap 类似,底层通过数组+链表+红黑树实现,不过键值对不支持 NULL

  2. ConcurrentHashMap 使用了 volatile来保证哈希表的可见性

  3. ConcurrentHashMap 使用锁分段技术来保证线程安全,哈希表默认16个桶,代表能同时有16个写线程执行

  4. 初始容量为16,增长因子为 0.75,每次扩容增加原理的 2 倍

public class ConcurrentHashMap<K,V> extends AbstractMap<K,V>
implements ConcurrentMap<K,V>, Serializable {
	transient volatile Node<K,V>[] table;
}

效率高的原因:诸如get、put、remove等常用操作只锁住当前需要用到的桶。这样,原来只能一个线程进入,现在却能同时有16个写线程执行,并发性能的提升是显而易见的。

ConcurrentHashMap 与HashTable区别

相同点: Hashtable 和 ConcurrentHashMap都是线程安全的; key跟value都不能是null

区别: 两者主要是性能上的差异,

  • Hashtable中采用的锁机制是一次锁住整个hash表,从而在同一时刻只能由一个线程对其进行操作
  • ConcurrentHashMap使用锁分段技术来保证线程安全的。在调用如 get、put、remove等常用操作只锁住当前需要用到的桶。从原来只能写线线程执行,变成能同时有多个写线程执行,并发性能的提升是显而易见的。

添加元素源码如下:

public V put(K key, V value) {
    return putVal(key, value, false);
}
final V putVal(K key, V value, boolean onlyIfAbsent) {
    if (key == null || value == null) throw new NullPointerException();  // 所以键值对都不能为空
    int hash = spread(key.hashCode());  // (h ^ (h >>> 16)) & HASH_BITS
    int binCount = 0;
    for (Node<K,V>[] tab = table;;) {
        Node<K,V> f; int n, i, fh;
        if (tab == null || (n = tab.length) == 0)
            tab = initTable();		// 懒加载 初始化
        else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
            if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null)))
                break;                   // no lock when adding to empty bin
        }
        else if ((fh = f.hash) == MOVED)   // 集合对象正在扩容时,先协助扩容,再更新值
            tab = helpTransfer(tab, f);
        else { 	// hash 碰撞
            V oldVal = null;
            synchronized (f) {   // 分段锁,对哈希表中的Node节点加锁
                if (tabAt(tab, i) == f) {
                    if (fh >= 0) {
                        binCount = 1;
                        for (Node<K,V> e = f;; ++binCount) {
                            K ek;
                            if (e.hash == hash &&  // 节点存在,即替换链表该节点的值
                                ((ek = e.key) == key || (ek != null && key.equals(ek)))) {
                                oldVal = e.val;
                                if (!onlyIfAbsent) // 替换
                                    e.val = value;
                                break;
                            }
                            Node<K,V> pred = e;
                            if ((e = e.next) == null) {  // 节点不存在,即添加数据到链表尾部
                                pred.next = new Node<K,V>(hash, key, value, null);
                                break;
                            }
                        }
                    }
                    else if (f instanceof TreeBin) {  // 红黑树存储
                        Node<K,V> p;
                        binCount = 2;
                        if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) {
                            oldVal = p.val;
                            if (!onlyIfAbsent)
                                p.val = value;
                        }
                    }
                }
            }
            if (binCount != 0) {
                if (binCount >= TREEIFY_THRESHOLD)   //链表节点长度超过8,转为红黑树存储
                    treeifyBin(tab, i);
                if (oldVal != null)
                    return oldVal;
                break;
            }
        }
    }
    addCount(1L, binCount);  // 利用CAS更新baseCount 
    return null;
}

ConcurrentHashMap 日后再详细写一单章进行分析,目前只对其进行初步认识与了解。

4、遍历方式

 // 1. 通过Map.keySet遍历key和value:
for (String key : hashmap.keySet()){
    System.out.println("key: "+ key + "; value: " + hashmap.get(key));
}

//2. 通过Map.entrySet使用iterator遍历key和value:
Iterator<Map.Entry<Integer, String>> it = hashmap.entrySet().iterator();
while (it.hasNext()){
    Map.Entry<Integer, String> entry = it.next();
    System.out.println("key: "+ entry.getKey() + "; value: " + entry.getValue());
}

//3. 通过Map.entrySet遍历key和value
for(Map.Entry<Integer, String> entry : hashmap.entrySet()){
    System.out.println("key: "+ entry.getKey() + "; value: " + entry.getValue());
}

//4. 通过Map.values()遍历所有的value,但不能遍历key
for (String value : hashmap.values()) {
    System.out.println("value: "+value);
}

5、HashSet

HashSet 内部维持了一个HashMap 对象,新增元素通过HashMap对象的 put(K key, V value) 方法,存放一个Object对象,因此 HashSet 的原始是否为 NULL 和扩容机制都取决于 HashMap 特性。

HashSet 的初始容量 16,默认增长因子 0.75,元素允许一个 NULL

public class HashSet<E> extends AbstractSet<E> implements Set<E>, Cloneable, java.io.Serializable
    private transient HashMap<E,Object> map;
    private static final Object PRESENT = new Object();
    public boolean add(E e) {
        return map.put(e, PRESENT)==null;
    }
}
    原文作者:蚂蚁搬砖工
    原文地址: https://blog.csdn.net/u013234928/article/details/90532571
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞