HashMap 源码阅读
之前读过一些类的源码,近来发现都忘了,再读一遍整理记录一下。这次读的是 JDK 11 的代码,贴上来的源码会去掉大部分的注释, 也会加上一些自己的理解。
[TOC]
Map 接口
这里提一下 Map 接口与1.8相比 Map接口又新增了几个方法:
- 这些方法都是包私有的static方法;
of()
方法分别返回包含 0 - 9 个键值对的不可修改的Map;
ofEntries()
方法返回包含从给定的entries
总提取出来的键值对的不可修改的* Map(不会包含给定的entries
);
entry()
方法返回包含键值对的不可修改的 Entry,不允许 null 作为 key 或 value;
copyOf()
返回一个不可修改的,包含给定 Map 的 entries 的 Map ,调用了ofEntries()
方法.
数据结构
HashMap 是如何存储键值对的呢?
HashMap 有一个属性 table:
1
| transient Node<K,V>[] table;
|
table 是一个 Node 的数组, 在首次使用和需要 resize 时进行初始化; 这个数组的长度始终是2的幂, 初始化时是0, 因此能够使用位运算来代替模运算.
HashMap的实现是装箱的(binned, bucketed), 一个 bucket 是 table 数组中的一个元素, 而 bucket 中的元素称为 bin .
来看一下 Node , 很显然是一个单向链表:
1 2 3 4 5 6 7 8
| static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; V value; Node<K,V> next; ... }
|
当然, 我们都知道 bucket 的结构是会在链表和红黑树之间相互转换的:
1 2 3 4 5 6 7
| if (binCount >= TREEIFY_THRESHOLD - 1) treeifyBin(tab, hash);
if (lc <= UNTREEIFY_THRESHOLD) tab[index] = loHead.untreeify(map);
|
注意在 treeifyBin()
方法中:
1 2 3
| if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize();
|
TreeNode 的结构和 TreeMap 相似, 并且实现了 tree 版本的一些方法:
1 2 3 4 5 6 7 8 9
| static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> { TreeNode<K,V> parent; TreeNode<K,V> left; TreeNode<K,V> right; TreeNode<K,V> prev; boolean red;
... }
|
initialCapacity 和 loadFactor
先看一下 HashMap 的4个构造器,可以发现3个重要的 int :threshold,initialCapacity 和 loadFactor ,其中 threshold 和 loadFactor 是 HashMap 的私有属性。
HashMap 的 javadoc 中有相关的解释:
- capacity,HashMap 的哈希表中桶的数量;
- initial capacity ,哈希表创建时桶的数量;
- load factor ,在 capacity 自动增加(
resize()
)之前,哈希表允许的填满程度;
- threshold,下一次执行
resize()
时 size 的值 (capacity * load factor), 如果表没有初始化, 存放的是表的长度, 为0时表的长度将会是 DEFAULT_INITIAL_CAPACITY
。
注意: 构造器中的 initialCapacity 参数并不是 table 的实际长度, 而是期望达到的值, 实际值一般会大于等于给定的值. initialCapacity 会经过tableSizeFor()
方法, 得到一个不大于 MAXIMUM_CAPACITY 的足够大的2的幂, 来作为table的实际长度:
1 2 3 4
| static final int tableSizeFor(int cap) { int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1); return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
|
loadFactor 的默认值是 0.75f :
1
| static final float DEFAULT_LOAD_FACTOR = 0.75f;
|
initialCapacity 的默认值是16:
1
| static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
|
capacity 的最大值是1073741824:
1
| static final int MAXIMUM_CAPACITY = 1 << 30;
|
在 new 一个 HasMap 时,应该根据 mapping 数量尽量给出 initialCapacity , 减少表容量自增的次数 . putMapEntries()
方法给出了一种计算 initialCapacity 的方法:
1 2 3 4 5
| float ft = ((float)s / loadFactor) + 1.0F; int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY); if (t > threshold) threshold = tableSizeFor(t);
|
这段代码里的 t 就是 capacity .
hash() 方法
hash()
是 HashMap 用来计算 key 的 hash 值的方法, 这个方法并不是直接返回 key 的 hashCode()
方法的返回值, 而是将 hashCode 的高位移到低位后 再与原值异或.
1 2 3 4
| static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
|
因为 HashMap 用 hash & (table.length-1)
代替了 模运算 , 如果直接使用 hashCode()
的返回值的话, 只有hash code的低位(如果 table.length 是2的n次方, 只有最低的 n - 1 位)会参加运算, 高位即使发生变化也会产生碰撞. 而 hash()
方法把 hashCode 的高位与低位异或, 相当于高位也参加了运算, 能够减少碰撞.
举个例子:
假设 table.length - 1 的 值为 0000 0111, 有两个hash code : 0001 0101 和 0000 0101. 这两个hash code 分别与 table.length - 1 做与运算之后的结果是一样的: 0000 0101; 将这两个hash code 的高位和低位异或之后分别得到: 0001 0100、 0000 0101, 此时再分别与 table.length - 1 做与运算的结果是 0000 0100 和 0000 0101, 不再碰撞了.
resize()
resize()
方法负责初始化或扩容 table. 如果 table 为 null 初始化 table 为 一个长度为 threshold 或 DEFAULT_INITIAL_CAPACITY的表; 否则将 table 的长度加倍, 旧 table 中的元素要么呆在原来的 index 要么以2的幂为偏移量在新 table中移动:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85
| final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; } else if (oldThr > 0) newCap = oldThr; else { newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
|
举个例子解释一下高低两部分的划分:
- 扩容前 table.length 是 0000 1000 记为 oldCap , table.length - 1 是 0000 0111 记为 oldN;
- 扩容后 table.length 是 0001 0000 记为 newCap, table.length - 1 为 0000 1111 记为 newN;
- 有两个Node, hash (
hash()
方法得到的值)分别为 0000 1101 和 0000 0101 记为 n1 和 n2;
在扩容前, n1 和 n2 显然是在一个 bucket 里的, 但在扩容后 n1 & newN 和 n2 & newN 的值分别是 0000 1101 和 0000 0101, 这是需要划分成两部分, 并且把属于高部分的 bin 移动到新的 bucket 里的原因.
扩容后, hash 中只会有最低的4位参加 index 的计算, 因此可以用第4位来判断属于高部分还是低部分, 也就可以用 (hash & oldCap) == 0
来作为属于低部分的依据了.
查找
查找方法只有 get()
和 getOrDefault()
两个, 都是调用了 getNode()
方法:
1 2 3 4 5 6 7 8 9 10
| public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; }
Override public V getOrDefault(Object key, V defaultValue) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? defaultValue : e.value; }
|
getNode() 方法
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
| final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
|
遍历
可以通过entrySet()
、keySet()
、values()
分别获得 EntrySet
、KeySet()
和Values
对象, 他们的迭代器都是HashIterator
的子类.
fast-fail 和 modCount
HashMap 不是线程安全的, 并且实现了 fast-fail 机制. 当一个迭代器被创建的时候(或者迭代器自身的 remove() 方法被调用), 会记录当前的 modCount 作为期待中的 modCount, 并在操作中先检查当前 modCount 是不是和旧的 modCount 相同, 不同则会抛出ConcurrentModificationException
.
任何结构修改(新增或删除节点)都会改变 modCount 的值.
新增和更新
1.8 之前有4个方法和构造器能够往 HashMap 中添加键值对: 以一个Map为参数的构造器、put()
、putAll()
、putIfAbsent()
,
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
| public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); }
public void putAll(Map<? extends K, ? extends V> m) { putMapEntries(m, true); }
@Override public V putIfAbsent(K key, V value) { return putVal(hash(key), key, value, true, true); }
|
他们分别调用了putMapEntries()
和putVal()
. 这两个方法中有一个参数 evict , 仅当初始化时(构造器中)为 false.
putVal() 方法
来看一下putVal()
方法:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53
| final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node<K,V> e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
|
HashMap 提供了三个回调方法:
1 2 3
| void afterNodeAccess(Node<K,V> p) { } void afterNodeInsertion(boolean evict) { } void afterNodeRemoval(Node<K,V> p) { }
|
putMapEntries() 方法
putMapEntries()
方法就简单多了
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22
| final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { int s = m.size(); if (s > 0) { if (table == null) { float ft = ((float)s / loadFactor) + 1.0F; int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY); if (t > threshold) threshold = tableSizeFor(t); } else if (s > threshold) resize(); for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { K key = e.getKey(); V value = e.getValue(); putVal(hash(key), key, value, false, evict); } } }
|
删除
删除元素有三个方法, 还有 EntrySet 和 KeySet 的 remove 和 clear 方法:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
| public V remove(Object key) { Node<K,V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; }
@Override public boolean remove(Object key, Object value) { return removeNode(hash(key), key, value, true, true) != null; }
public void clear() { Node<K,V>[] tab; modCount++; if ((tab = table) != null && size > 0) { size = 0; for (int i = 0; i < tab.length; ++i) tab[i] = null; } }
|
removeNode() 方法
removeNode()
方法有5个参数, 说明一下其中两个:
- matchValue 为 true 时, 只在 value 符合的情况下删除;
- movable 为 false 时, 删除时不移动其他节点, 只给树版本的删除使用.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
| final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; else if ((e = p.next) != null) { if (p instanceof TreeNode) node = ((TreeNode<K,V>)p).getTreeNode(hash, key); else { do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { if (node instanceof TreeNode) ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); else if (node == p) tab[index] = node.next; else p.next = node.next; ++modCount; --size; afterNodeRemoval(node); return node; } } return null; }
|
总结
- HashMap 是一个基于哈希表的装箱了的 Map 的实现; 它的数据结构是一个桶的数组, 桶的结构可能是单向链表或者红黑树, 大部分是链表.
- table 的容量是2的幂, 因此可以用更高效的位运算替代模运算.
- HashMap 使用的 hash 值, 并不是 key 的
hashCode()
方法所返回的值, 详细还是看上面吧.
- 一个普通桶中的 bin 的数量超过
TREEIFY_THRESHOLD
, 并且 table 的容量大于 MIN_TREEIFY_CAPACITY
, 这个桶会被转换成树结构; 如果 bin 数量大于TREEIFY_THRESHOLD
, 但 table 容量小于 MIN_TREEIFY_CAPACITY
, 会进行扩容.
- 每次扩容新 table 的容量是老 table 的 2 倍.
- 扩容时, 会将原来下标为 index 的桶里的 bin 分为高低两个部分, 高的部分放到
newTab[index + oldCap]
上, 低的部分放在原位; 如果某部分的 bin 的个数小于 UNTREEIFY_THRESHOLD
树结构将会转换成链表结构.
- … … (不想写了, 以后再改吧)