HashMap
扩容机制
HashMap
数据结构
本文所用 JDK
版本为 1.8
。
map.put(k,v)
实现原理。
- 首先将k,v封装到Node对象当中(节点)。
- 然后它的底层会调用K的hashCode()方法得出hash值。
- 通过哈希表函数/哈希算法,将hash值转换成数组的下标,下标位置上如果没有任何元素,就把Node添加到这个位置上。如果说下标对应的位置上有链表。此时,就会拿着k和链表上每个节点的k进行equal。如果所有的equals方法返回都是false,那么这个新的节点将被添加到链表的末尾。如其中有一个equals返回了true,那么这个节点的value将会被覆盖。
map.get(k)
实现原理
- 先调用k的hashCode()方法得出哈希值,并通过哈希算法转换成数组的下标。
- 通过上一步哈希算法转换成数组的下标之后,在通过数组下标快速定位到某个位置上。如果这个位置上什么都没有,则返回null。如果这个位置上有单向链表,那么它就会拿着K和单向链表上的每一个节点的K进行equals,如果所有equals方法都返回false,则get方法返回null。如果其中一个节点的K和参数K进行equals返回true,那么此时该节点的value就是我们要找的value了,get方法最终返回这个要找的value。
常量
定义了一些常量用于
HashMap
的扩容转换处理。
/**
* 默认初始化长度,必须是二的幂
*/
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
/**
* 最大容量,如果隐式指定了更高的值,则使用通过任何一个带参数的构造函数。
* 必须是 2 的幂 <= 1<<30。
*/
static final int MAXIMUM_CAPACITY = 1 << 30;
/**
* 在构造方法中未指定时使用的负载因子。
* 它衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小;
* 对使用链表法的散列表来说,查找一个元素的平均时间是O(1+a),负载因子越大,对空间的利用越充分,
* 后果是查找效率的降低;如果负载因子太小,那么散列表的数据将过于稀疏,对空间造成严重浪费。
*/
static final float DEFAULT_LOAD_FACTOR = 0.75f;
/**
* 由链表转换成红黑树时的 计数阈值。
* 当 put 的元素 >8(即第 9 个元素时)
* 开始转换
*/
static final int TREEIFY_THRESHOLD = 8;
/**
* 由红黑树转换成链表的阈值
* 应小于 TREEIFY_THRESHOLD,最多为 6 以下进行转换。
*/
static final int UNTREEIFY_THRESHOLD = 6;
/**
* 转换成红黑树时链表的最小值,即链表小于64时,链表会进行扩容,而不是转换成树
*/
static final int MIN_TREEIFY_CAPACITY = 64;
构造器
提供了4个构造器。
public HashMap(int initialCapacity, float loadFactor) {
if (initialCapacity < 0)
throw new IllegalArgumentException("Illegal initial capacity: " +
initialCapacity);
if (initialCapacity > MAXIMUM_CAPACITY)
initialCapacity = MAXIMUM_CAPACITY;
if (loadFactor <= 0 || Float.isNaN(loadFactor))
throw new IllegalArgumentException("Illegal load factor: " +
loadFactor);
this.loadFactor = loadFactor;
this.threshold = tableSizeFor(initialCapacity);
}
/**
* 根据指定的初始化容量值,默认负载系数 (0.75)
*
* @param initialCapacity 给定的初始化容量
* @throws IllegalArgumentException if the initial capacity is negative.
*/
public HashMap(int initialCapacity) {
this(initialCapacity, DEFAULT_LOAD_FACTOR);
}
/**
* 构造一个空的HashMap,默认初始化容量16,默认负载系数 (0.75)
*/
public HashMap() {
this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
}
/**
* 构造一个新的,与指定map一致的 HashMap,默认负载系数 (0.75)
*
* @param m the map whose mappings are to be placed in this map
* @throws NullPointerException if the specified map is null
*/
public HashMap(Map<? extends K, ? extends V> m) {
this.loadFactor = DEFAULT_LOAD_FACTOR;
putMapEntries(m, false);
}
put
方法,扩容方法。
public V put(K key, V value) {
// 计算key的hash值
return putVal(hash(key), key, value, false, true);
}
/**
* Put 方法具体实现
*
* @param hash hash for key
* @param key the key
* @param value the value to put
* @param onlyIfAbsent 如果为 true,则不更改现有值
* @param evict 如果为 false,则表处于创建模式
* @return previous value, or null if none
*/
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
// i 是 key hash 值在 tab 数组中的位置
// p 是当前key值对应的hash存放在tab中存放的元素
// 如果 tab 中没存放数据,没进行hash碰撞,则创建新的节点存放数据
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
// 是同一个key对应的链表
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
// 是红黑树
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
// binCount >= 7,p从链表0开始,当binCount == 7时,
// newNode.index = 8,即 p.next == 8;
// 因此在第 9个元素时开始转红黑树
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
// 链表进入转红黑树方法
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
//旧值 = 新值
e.value = value;
// 覆盖掉旧值
afterNodeAccess(e);
// 返回旧值
return oldValue;
}
}
//修改次数增加1
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
链表转红黑树方法。
/**
* 替换给定哈希索引处 bin 中的所有链接节点,除非表太小,在这种情况下改为调整大小。
* 如果
*/
final void treeifyBin(Node<K,V>[] tab, int hash) {
int n, index; Node<K,V> e;
// 如果链表元素小于64,依旧只进行链表扩容
if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY)
resize();
else if ((e = tab[index = (n - 1) & hash]) != null) {
// 转红黑树
TreeNode<K,V> hd = null, tl = null;
do {
TreeNode<K,V> p = replacementTreeNode(e, null);
if (tl == null)
hd = p;
else {
p.prev = tl;
tl.next = p;
}
tl = p;
} while ((e = e.next) != null);
if ((tab[index] = hd) != null)
hd.treeify(tab);
}
}
链表扩容方法 resize()
,扩容到旧容量的 2 倍。
/**
* 初始化或加倍表大小。 如果为空,则根据字段阈值中持有的初始容量目标进行分配。
* 否则,因为我们使用的是 2 的幂扩展,所以每个 bin 中的元素必须保持相同的索引,
* 或者在新表中以 2 的幂偏移移动。
*/
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
// 旧容量大于等于16且小于最大容量阈值
// 位移操作,左移1位,即新容量 = 旧容量 * 2
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // 初始容量被置于阈值
newCap = oldThr;
else { // 零初始阈值表示使用默认值
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
// 下一个索引节点(hash值转换成数组的下标)为空,不存在hash冲突,前位置没有链表,直接添加数据,
if (e.next == null)
// 进行哈希和新数组长度与运算,获得当前元素存放在新数组的位置
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
// 如果当前索引节点/桶(hash值转换成数组下标的所有元素)是红黑树,不是链表
// 由链表退化成树
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
// 如果当前索引节点/桶(hash值转换成数组下标的所有元素)是链表,
// 继续往索引节点的链表中添加数据,key和链表上每个节点的key进行equal。
// 如果所有的equals方法返回都是false,那么这个新的数据将被添加到链表的末尾。
// 如其中有一个equals返回了true,那么这个链表节点的value将会被覆盖
// loHead 低位头节点 loTail 低位尾节点
Node<K,V> loHead = null, loTail = null;
// hiHead 高位头节点 hiTail 高位尾节点
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
//如果元素扩容后索引不变
if ((e.hash & oldCap) == 0) {
// lo链表尾节点为空,首次插入tail为空 尾,头都为e
if (loTail == null)
// lo链表头节点插入
loHead = e;
else
// 非首次插入,原最后一个元素next指向当前元素,则在lo链表末尾插入
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
//1.扩容后索引跟扩容前索引相同 放在lo链表里
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
//2.扩容后索引为扩容前索引位置+扩容前哈希表长度 放在hi链表里
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
红黑树退化成链表 split
方法。
final void split(HashMap<K,V> map, Node<K,V>[] tab, int index, int bit) {
TreeNode<K,V> b = this;
// Relink into lo and hi lists, preserving order
TreeNode<K,V> loHead = null, loTail = null;
TreeNode<K,V> hiHead = null, hiTail = null;
int lc = 0, hc = 0;
for (TreeNode<K,V> e = b, next; e != null; e = next) {
next = (TreeNode<K,V>)e.next;
e.next = null;
if ((e.hash & bit) == 0) {
if ((e.prev = loTail) == null)
loHead = e;
else
loTail.next = e;
loTail = e;
++lc;
}
else {
if ((e.prev = hiTail) == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
++hc;
}
}
if (loHead != null) {
// 小于等于6的时候会进行退化
if (lc <= UNTREEIFY_THRESHOLD)
tab[index] = loHead.untreeify(map);
else {
tab[index] = loHead;
if (hiHead != null) // (else is already treeified)
loHead.treeify(tab);
}
}
if (hiHead != null) {
// 小于等于6的时候会进行退化
if (hc <= UNTREEIFY_THRESHOLD)
tab[index + bit] = hiHead.untreeify(map);
else {
tab[index + bit] = hiHead;
if (loHead != null)
hiHead.treeify(tab);
}
}
}