HashMap源码学习

网上关于HashMap的博客实在是太多了,我再系统地来讲HashMap肯定没有现有的博客讲的好,所以我决定换一个角度,就从我们日常使用的地方开始,完整的走一遍HashMap的源码,应该会有不一样的收获。

先看下面一段代码

1
2
3
Map map = new HashMap();
map.put("key","value");
map.get("key");

平时开发中很常见的用法,需要注意的是,由于使用了阿里巴巴规范插件,new HashMap的地方是有如下提示的

记住这个提示

HashMap的初始化

在这里插入图片描述
调用HashMap的无参构造函数,可以看到,在无参构造器中,只是仅仅将loadFactor(加载因子)这个属性设置为默认值(0.75f),如果不懂加载因子是什么暂时也没关系,我们继续往下走

map的put

在这里插入图片描述
调用map的put方法,会先执行一个hash方法,参数为传入的key,返回的就是key的hash值
在这里插入图片描述
1.先判定key是否为null
2.为null则返回0
3.不为null则调用key对象本身的hashCode方法同时异或 hash值无符号右移16位

为什么求出hash值之后还需要将hash值右移16位之后再与本身异或呢?我们带着这个疑问往下继续

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
//先判定数组是否已经初始化,如果未初始化则先调用resize对数组进行初始化
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
//将传入的hash值与数组最大index进行与操作,得到一个索引,再获取该索引处的元素,如果为空,则说明此键值对之前不存在,直接放入
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
//此处已存在至少一个键值对
Node<K,V> e; K k;
//判定存在的键值对的键与传入的key是否相同,注意必须满足两个条件:1.hash值必须相同 2.equal方法返回相同或者内存地址相同
//如果key相同,则将e的引用指向原来的键值对,此时e不再为空,说明已存在相同键的键值对
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
//若果key不相同,判定原键值对是否是树形节点类型,如果是则用新的键值对放入红黑树中
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
//key不相同,且数组上的结构还是链表结构
else {
//遍历链表
for (int binCount = 0; ; ++binCount) {
//如果下一个元素为空,则直接将新键值对直接添加到链表的末尾,同时判断链表长度是否达到树形化阈值,如果达到阈值,则将该链表转化为树形结构
//此时e为空,说明不存在相同键的键值对
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
//如果下一个元素的key与新键值对的key相同,则跳出循环,此时e也不为空,说明已存在相同键的键值对
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
//e不为空,说明已存在相同键的键值对,判断是否满足两个条件(1.是否允许替换value 2.原键值对的value是否为空)之一,满足任一则替换掉原来的value,同时返回原来的value
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
//此处方法为空实现,linkedHashMap中有重写,此处忽略
afterNodeAccess(e);
return oldValue;
}
}
//能执行到此处,说明原来不存在相同key的键值对,整个新添加了一个键值对,modCount(修改次数)加一,此属性为fail-fast实现所用到的属性
++modCount;
//当新的size大于设置的阈值时,需要对整个map进行扩容,对所有键值对进行重新散列,使其更均匀的分部在整个数组中
if (++size > threshold)
resize();
//此处方法为空实现,此处忽略
afterNodeInsertion(evict);
//返回null
return null;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
//判断之前数组是否已经被初始化,如果大于0则说明已经初始化
if (oldCap > 0) {
//如果原数组的长度大于等于了最大长度限制,则直接将扩容的阈值设置为int的最大值,不进行数组的扩容,直接返回原数组
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
//新数组的长度为原数组的2倍,如果扩容之后的长度小于最大长度限制且旧数组的长度不小于默认长度(16),新的扩容阈值也为原来的2倍
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
//如果扩容阈值大于0(默认为0,大于0则说明被单独设置了扩容阈值),那么初始化数组的长度为设置的扩容阈值
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
//没有单独设置扩容阈值,按默认值初始化
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
//如果新的阈值还没设置,将新的阈值设置为新数组的长度*加载因子 取整,最大只能到int的最大值
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
//设置新的阈值
threshold = newThr;
//创建新数组
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
//原数组不为空,需要对原来的数据重新散列,使其均匀的分配在新的数组上
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
//取出原数组中指定角标的键值对
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
//next为null,则说明只有一个元素,直接重新计算新数组角标并放入该键值对
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
//如果已经树形化,则调用树形节点的方法重新放置元素
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
//将原来一个桶中的连表拆分为2个链表,放到新的数组中
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
//返回扩容后的新的数组
return newTab;
}

从上面的代码可以看出,当map中存放的元素超过扩容阈值后,就会通过resize进行扩容,会用一个长度为原数组2倍的来重新存放之前的键值对,如果Map中需要存放的数据比较多时,会频繁的进行扩容,对性能造成一定影响,所以在大概能确定Map中数据量的情况下,需要对Map的容量进行指定,尽量避免频繁的扩容产生的性能损耗。

map的get

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
public V get(Object key) {
Node<K,V> e;
//先计算hash,再根据hash获取键值对
return (e = getNode(hash(key), key)) == null ? null : e.value;
}

/**
* Implements Map.get and related methods
*
* @param hash hash for key
* @param key the key
* @return the node, or null if none
*/
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
//数组未初始化直接返回null
if ((tab = table) != null && (n = tab.length) > 0 &&
(first = tab[(n - 1) & hash]) != null) {
//遍历列表,返回key相同的键值对
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
if (first instanceof TreeNode)
return ((TreeNode<K,V>)first).getTreeNode(hash, key);
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}

HashMap数据结构的理解

HashMap中将数组和链表两种数据结合在一起使用,为什么要这样使用呢?我认为主要好处有这几点:

  1. 数组方便查询,因为能根据索引直接找到元素的内存地址,所以查询很快,但是如果用纯数组的话,查询元素都是随机访问,无法确定某个元素的具体位置,如果数据量很大的情况下,需要全部遍历,复杂度比较高,效率比较差,所以将hash算法和数组结合在一起,元素的数组角标与哈希值产生关联,key一旦确定,数组角标也能确定,查询效率大大提高
  2. 在某些情况下,不同的hash值与数组长度-1与出来的角标相同,这种情况也叫做碰撞,这种情况下,就会将同一个数组角标上的元素以链表的数据结构存起来,因为这种情况比较少,所以就用利用了链表修改快,查询慢的特点,在链表长度小于TREEIFY_THRESHOLD时,就用链表保存
  3. 当链表长度大于TREEIFY_THRESHOLD后,为了保证同一个桶中查询的效率,jdk1.8之后,会将链表转换为一棵红黑树,以保证查询的效率

HashMap中数组的长度为什么使用2的幂次方

先看这段代码

1
2
3
4
...
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
...

我们知道,HashMap中是保存着链表类型的数组结构,会根据键值对的key的hash值来决定放到哪个桶(即数组的index)中,因为数组的长度是有限的,当不同的hash值的key算出来的index相同时,就会被放到同一个桶中,即发生碰撞,而使用HashMap的意义,就是要减少这种碰撞,使键值对尽量均匀的分布在各个桶中。因此,我们需要将具有不同的hash值的key进行分类。提到分类,可能有同学会想到使用取模,但是jdk的开发者们使用了更加高效的位运算,即使用数组的长度-1 & hash值。例如:

  • 当数组长度为16,hash值为100时

1111 & 1100100 结果为 0100,十进制为4,即index=4

  • 当数组长度为16,hash值为101时

1111 & 1100101 结果 0101,十进制为5,即index=5

但是,若将数组的长度变为10

  • 当hash值为100时

1010 & 1100100 结果为0,index=0

  • 当hash值为101时

1010 & 1100101 结果为0,index=0

这种情况下,更容易发生碰撞,使用2的幂次方-1,保证了较低位尽量为1,与hash值与运算时,能更多的体现hash值的特征,保证放置的key的均匀性,提高hashmap的读写性能。因此,HashMap中数组的长度使用2的幂次方

HashMap的扩容机制

当hashmap中键值对的数量达到threshold(即数组长度*加载因子)时,会触发hashmap的扩容。过程如下:

  1. 首先是产生新的数组

  2. 重新放置原来的键值对到新的数组中

    注意:因为原来计算index时是使用的hash&length-1,此处&oldCap,相当于多与了1bit,此时是否为0就决定于hash值上这一bit是否为1,相当于决定新的index的因素还是由key的hash决定,从理论上,还是体现了key的特性,根据了key的hash值来决定index,还是能保证键值对的均匀分布的。