Hash
Hash,一般翻译做“散列”,也有直接音译为“哈希”的,就是把任意长度的输入(又叫做预映射, pre-image),通过散列算法,变换成固定长度的输出,该输出就是散列值。这种转换是一种压缩映射,也就是,散列值的空间通常远小于输入的空间,不同的输入可能会散列成相同的输出,所以不可能从散列值来确定唯一的输入值。简单的说就是一种将任意长度的消息压缩到某一固定长度的消息摘要的函数。
举个例子来讲 如果将五千个汉字使用hash函数可以将这些均匀的分配在100页纸上,怎么做? int page = hash("牛")%100 那么对于汉字"牛"来讲每次通过 hash 函数得到的值都是相同的,那相应的page 也是相同的那么就可以简单的通过 hash("牛")%100来判断"牛"在哪一页上
HashMap
HashMap 就是利用上面的原理来存储数据的,这也是 HashMap 存取很高效的原因 O(1)
下面来看下 HashMap 是如何存储和定位某个值
hash
static final int hash(Object key) {
int h;
return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
上面的逻辑为扰动函数,其实是将高16位与低16进行亦或运算,这样是为了高16位的变化也会体现在低16位上,降低 hash&(n -1)的碰撞率 举个🌰
| h1 | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 |
|---|---|---|---|---|---|---|---|---|
| h1>>>16 | 0000 | 0000 | 0000 | 0000 | 1111 | 1111 | 1111 | 1111 |
| h1^h1>>>16 | 1111 | 1111 | 1111 | 1111 | 0000 |
0000 | 0000 | 0000 |
| h2 | 0000 | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 |
| h2>>>16 | 0000 | 0000 | 0000 | 0000 | 0000 | 1111 | 1111 | 1111 |
| h2^h2>>>16 | 0000 | 0000 | 0000 | 0000 | 1111 |
0000 | 0000 | 0000 |
可以看出来虽然 h1和h2 只有最高4位是不同的,处理后可以在低16就可以看出不同 可以通俗一点理解就是讲h1和 h2的范围缩小了 1>>>16倍
put -> putVal
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
......
else {
for (int binCount = 0; ; ++binCount) {
//
if ((e = p.next) == null) {
//到达链表的尾部,将最新值插入到链表的尾部
p.next = newNode(hash, key, value, null);
......
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))//找到相同的值覆盖该值
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
- i = (n - 1) & hash
将 hash 范围缩小到n - 1 范围内均匀分布 假设
| hash | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 | 1111 | 1101 |
|---|---|---|---|---|---|---|---|---|
| n-1=16-1 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 1111 |
| (n-1)&hash | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 1101 |
相当于将只取了 hash的后四位,也就类似于 hash%(n-1)
length = 2^n 始终为2的n次方 换成二进制数就是 100,1000,10000,... (length -1)就是 11, 111,1111,... 第一个参数h比第二个参数小的情况下,那结果就是h。 第一个参数h比第二个参数大的情况下,如下: 例: h=18 -> 10010 length-1=15 -> 01111 1001001111-------00010 (即2) 也就是h-length, 假设 h=5,length=16, 那么 h &; length - 1 将得到 5;如果 h=6,length=16, 那么 h &; length - 1 将得到 6 ……如果 h=15,length=16, 那么 h &; length - 1 将得到 15;但是当 h=16 时 , length=16 时,那么 h &; length - 1 将得到 0 了;当 h=17 时 , length=16 时,那么 h &; length - 1 将得到 1 了 这样就能保证取得合理的索引值。
get
public V get(Object key) {
Node<K,V> e;
return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {
if (first.hash == hash && // always check first node
((k = first.key) == key || (key != null && key.equals(k))))
return first;
if ((e = first.next) != null) {
......
do {
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
return e;
} while ((e = e.next) != null);
}
}
return null;
}
e.hash == hash &&((k = e.key) == key || (key != null && key.equals(k))) 先判断key.hash 再判断key是否相同
resize
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {//如果tab长度达到最大,不再扩展
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY; //1<<4
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
......
else { // 链表移动到新的链表中
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
resize 中有个有意思的优化点
我们知道resize每次都是 oldsize*2
那么对于旧数据中table[i]的中的所有值会发生下面两种情况
| h1 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0001 | 1101 |
|---|---|---|---|---|---|---|---|---|
| h2 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 1101 |
| size-1 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 1111 |
| newSize-1 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0001 |
1111 |
| h1&(newSize-1) | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0001 |
1111 |
| h2&newSize | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 |
1101 |
| h1&size | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0001 |
0000 |
| h2&size | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 | 0000 |
0000 |
也就说对于旧数据要么在原位置,要么就在原位置*2-1(i+oldCap)的位置 i1 = oldi; i2 = i+ size;