目录

概述

  在上文我们基于JDK7分析了HashMap的实现源码,介绍了HashMap的加载因子loadFactor、阈值threshold概念以及增删元素的机制。JDK8在JDK7的基础上对HashMap的实现进行了进一步的优化,最主要的改变就是新增了红黑树作为底层数据结构。

HashMap数据结构

  首先我们回忆一下JDK7中HashMap的实现,HashMap是以数组和单链表构成,当出现哈希冲突时,冲突的元素在桶中依次形成单链表,数据结构如下: JDK7中哈希冲突时使用链表存储冲突元素,当出现大量哈希冲突元素,那么在单链表查找一个元素的复杂度为O(N),为了优化出现大量哈希冲突元素的查找问题,JDK8中规定:当单链表存储元素个数超过阈值TREEIFY_THRESHOLD(8)时,将单链表转换为红黑树,红黑树查找元素复杂度为O(logN),提高了查找效率,JDK8中HashMap的存储结构:

内部字段及构造方法

Node类

  使用Node类存储键值对元素。

    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;

        Node(int hash, K key, V value, Node<K,V> next) {
            this.hash = hash;
            this.key = key;
            this.value = value;
            this.next = next;
        }
    }

TreeNode类

  TreeNode是构成红黑树的基本元素。

    static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
        TreeNode<K,V> parent;  // red-black tree links
        TreeNode<K,V> left;
        TreeNode<K,V> right;
        TreeNode<K,V> prev;    // needed to unlink next upon deletion
        boolean red;

        //构造一个树结点
        TreeNode(int hash, K key, V val, Node<K,V> next) {
            super(hash, key, val, next);
        }
    }

内部字段

    //数组初始容量,为16
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    //数组最大容量
    static final int MAXIMUM_CAPACITY = 1 << 30;

    //默认加载因子
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    //单链表转化为红黑树的阈值
    static final int TREEIFY_THRESHOLD = 8;

    /**
     * 主要用于resize()扩容过程中, 当对原来的红黑树根据hash值拆分成两条链表后,
     * 如果拆分后的链表长度 <=UNTREEIFY_THRESHOLD, 那么就采用链表形式管理hash值冲突;
     * 否则, 采用红黑树管理hash值冲突.
     */
    static final int UNTREEIFY_THRESHOLD = 6;

    /**
     * 当集合中的容量大于这个值时,表中的桶才能进行树化 ,否则桶内元素太多时会扩容,
     * 而不是树形化 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD
     */
    static final int MIN_TREEIFY_CAPACITY = 64;

    //第一次使用是初始化,数组长度总是2的幂次
    transient Node<K,V>[] table;

    transient int size;

    int threshold;

    final float loadFactor;

构造方法

    public HashMap(int initialCapacity, float loadFactor) {
        //检查参数合法性
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                    initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                    loadFactor);
        this.loadFactor = loadFactor;
        //这里只是初始化,最终赋值在resize方法里
        this.threshold = tableSizeFor(initialCapacity);
    }

哈希值与索引计算

hash(Object key)

  在JDK1.8的实现中,优化了高位运算的算法,通过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16),主要是从速度、功效、质量来考虑的,这么做可以在数组table的length比较小的时候,也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销。
  这个方法非常巧妙,它通过h & (table.length -1)来得到该对象的保存位,而HashMap底层数组的长度总是2的n次方,这是HashMap在速度上的优化。当length总是2的n次方时,h& (length-1)运算等价于对length取模,也就是h%length,但是&比%具有更高的效率。计算过程如下图:

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

    //jdk1.7的源码,jdk1.8没有这个方法,但是实现原理一样的
    //根据hash值和table数组长度计算键值对存储位置的索引
    static int indexFor(int h, int length) {  
        return h & (length-1);  //第三步 取模运算
    }

存储元素

put(K key, V value)

    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }

    /**
     * Implements Map.put and related methods
     * @param hash hash for key
     * @param key the key 键
     * @param value the value to put 值
     * @param onlyIfAbsent if true, don't change existing value 表示不要更改现有值
     * @param evict if false, the table is in creation mode. false表示table处于创建模式
     * @return previous value, or null if none
     */
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        //使用局部变量tab而不是类成员,方法栈上访问更快
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //如果table为null或者长度为0,则进行初始化
        if ((tab = table) == null || (n = tab.length) == 0)
            //扩容
            n = (tab = resize()).length;
        //散列到对应的桶中,如果桶为空则直接放到桶中即可
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        else {
            //else分支表示散列到的桶中元素不为空
            Node<K,V> e; K k;
            //桶中链表的根节点的key就是要插入的键值对的key
            if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //如果是红黑树,插入到红黑树中
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            //插入到单链表中
            else {
                //遍历链表,并统计桶中键值对元素数量
                for (int binCount = 0; ; ++binCount) {
                    //该Key在链表中不存在,插入末尾 此时e为null
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        //单链表元素个数超过TREEIFY_THRESHOLD,树化
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                        //注意从这里break出来的e为null
                    }
                    //该Key已经在链表中
                    if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                        //注意从这里break出来的e不为null
                        break;

                    p = e;
                }
            }
            // e != null,说明该Key已经在存在于HashMap中,在这个桶中
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                //根据onlyIfAbsent和old
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        //超过阈值,就进行扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

扩容

resize( )

  resize方法相对比较复杂,但是有比较巧妙,因为要考虑数据结构的不同怎么把元素从老的table中放到扩容后的table中。主要的思路也就是两步:先根据老的table的长度决定扩容后table的长度,以及新的阈值threshold;在桶中数据不为空的情况下,把桶中的数据迁移到新的table数组中,这里就要考虑在桶中只有一个元素(没有发生哈希冲突)、桶中元素以单链表形式存储(发生哈希冲突但是不超过8个)、桶中元素以红黑树形式存储(哈希冲突元素个数超过8个)。只有一个元素,直接根据哈希值和新的table数组长度计算出新的索引,红黑树调用split方法,这里我们重点分析一下怎么把桶中的单链表迁移到新桶中,从而体会到JDK的巧妙设计。

  resize的扩容策略是每次扩容2倍(newThr = oldThr << 1),为了把单链表元素迁移到新的桶中,并不是向JDK7那样直接根据哈希值散列得到新的索引值,经过观测可以发现,我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。看下图可以明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。
元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化: 因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”

    final Node<K,V>[] resize() {
        //使用oldTab指向原来的hash表,通常方法内都使用局部变量,局部变量在方法栈上,而对象的成员在堆上
        //方法栈的访问比堆更高效
        //记录扩容前table数组,阈值,长度
        Node<K,V>[] oldTab = table;
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        int oldThr = threshold;
        int newCap, newThr = 0;
        if (oldCap > 0) {
            //原来的容量已经很大了,超过了MAXIMUM_CAPACITY无法再调整
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            //容量加倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                    oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        //oldCap < 0,oldThr > 0,table空间尚未分配,初始化分配空间
        //旧阀值大于0,则将新容量直接等于就阀值
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        //阀值等于0,oldCap也等于0(集合未进行初始化)
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            //threshhold=capacity*load_factor
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        //计算新的阀值上限
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                    (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
        Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        //原来的表中有内容,表明这是一次扩容,需要将Entry散列到新的位置
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                //遍历所有bin
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    //旧桶中元素置为null,方便GC
                    oldTab[j] = null;
                    //该桶中只有一个节点,直接散列到新的位置
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        //该桶中是一颗红黑树,通过红黑树的split方法处理
                        //待会再看split方法
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
                            // 与oldCap按位相与,判断结果是一还是零
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    loHead = e;
                                else
                                    loTail.next = e;
                                loTail = e;
                            }
                            else {
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        //原索引
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        //原索引+oldCap
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        return newTab;
    }

删除元素

remove(Object key)

    public V remove(Object key) {
        Node<K,V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
                null : e.value;
    }

    final Node<K,V> removeNode(int hash, Object key, Object value,
                               boolean matchValue, boolean movable) {
        Node<K,V>[] tab; Node<K,V> p; int n, index;
        //tab不为空,p指向根据hash散列到桶中第一个节点
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (p = tab[index = (n - 1) & hash]) != null) {
            Node<K,V> node = null, e; K k; V v;
            //第一个节点就命中
            if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                node = p;
            else if ((e = p.next) != null) {
                //在红黑树中查找目标节点
                if (p instanceof TreeNode)
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                    //在单链表中查找目标节点
                else {
                    do {
                        if (e.hash == hash &&
                                ((k = e.key) == key ||
                                        (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            //找到目标节点且符合移除的条件
            if (node != null && (!matchValue || (v = node.value) == value ||
                    (value != null && value.equals(v)))) {
                //红黑树移除
                if (node instanceof TreeNode)
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                //单链表移除
                //移除的节点是单链表首节点
                else if (node == p)
                    tab[index] = node.next;
                //移除的节点不是单链表首节点
                else
                    p.next = node.next;
                ++modCount;
                --size;
                afterNodeRemoval(node);
                return node;
            }
        }
        return null;
    }

查找元素

get(Object key)

    public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }

    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        if ((tab = table) != null && (n = tab.length) > 0 &&
                (first = tab[(n - 1) & hash]) != null) {
            //hash值对应的桶中第一个元素
            //第一个元素符合查找条件
            if (first.hash == hash && // always check first node
                    ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            if ((e = first.next) != null) {
                //红黑树查找
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                do {
                    //单链表查找
                    if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

总结

  JDK8使用了红黑树优化了HashMap的性能,即使发生了大量的哈希碰撞也能够以O(logN)查找到元素,不会影响到服务器的性能。

版权声明:本文为rain4j原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://www.cnblogs.com/rain4j/p/9536570.html