美团二面:聊聊ConcurrentHashMap的存储流程

简介: 美团二面:聊聊ConcurrentHashMap的存储流程

一、引言

ConcurrentHashMap技术在互联网技术使用如此广泛,几乎所有的后端技术面试官都要在ConcurrentHashMap技术的使用和原理方面对小伙伴们进行 360° 的刁难。

作为一个在互联网公司面一次拿一次 Offer 的面霸,打败了无数竞争对手,每次都只能看到无数落寞的身影失望的离开,略感愧疚(请允许我使用一下夸张的修辞手法)。

于是在一个寂寞难耐的夜晚,暖男我痛定思痛,决定开始写 《吊打面试官》 系列,希望能帮助各位读者以后面试势如破竹,对面试官进行 360° 的反击,吊打问你的面试官,让一同面试的同僚瞠目结舌,疯狂收割大厂 Offer!

虽然现在是互联网寒冬,但乾坤未定,你我皆是黑马

二、使用

我们经常在线程安全的场景下使用 ConcurrentHashMap,基本使用如下:

public class ConcurrentHashMapTest {
    public static void main(String[] args) {
        ConcurrentHashMap<String, String> map = new ConcurrentHashMap<>();
        map.put("test1", "1");
        map.put("test2", "2");
        map.put("test3", "3");
        map.remove("test1");
        System.out.println(map.get("test1"));
        System.out.println(map.get("test2"));
    }
}

使用的话,我相信大部分的读者应该都会的,这里小黄也不多介绍了,我们直接进入正题

三、源码

1、初始化

还是我们的老样子,从初始化开始聊源码

如果我们初始化时不携带入参的话,初始化方法如下:可以看到,基本没有什么东西

public ConcurrentHashMap() {}

如果你携带了入参的话,初始化方法如下:

public ConcurrentHashMap(int initialCapacity) {
    // 假如哥们传进来入参小于0
    if (initialCapacity < 0)
        // 直接抛出异常,说明哥们在搞笑
        throw new IllegalArgumentException();
    // 用传进来的数值与 MAXIMUM_CAPACITY >>> 1 进行对比
    // 若大于则使用MAXIMUM_CAPACITY
    // 小于则使用距离initialCapacity最近的2次幂
    int cap = ((initialCapacity >= (MAXIMUM_CAPACITY >>> 1)) ?
               MAXIMUM_CAPACITY :
               tableSizeFor(initialCapacity + (initialCapacity >>> 1) + 1));
    this.sizeCtl = cap;
}
// 根据传进的C的数值,找到其距离最近的2次幂
private static final int tableSizeFor(int c) {
    int n = c - 1;
    n |= n >>> 1;
    n |= n >>> 2;
    n |= n >>> 4;
    n |= n >>> 8;
    n |= n >>> 16;
    return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}

2、存储操作

public V put(K key, V value) {
    // 在调用put方法时,会调用putVal,第三个参数默认传递为false
    // 在调用putIfAbsent时,会调用putVal方法,第三个参数传递的为true
    // 如果传递为false,代表key一致时,直接覆盖数据
    // 如果传递为true,代表key一致时,什么都不做,key不存在,正常添加(Redis,setnx)
    return putVal(key, value, false);
}
2.1 计算索引下标
final V putVal(K key, V value, boolean onlyIfAbsent) {
    // 如果当前的key或者value是空的话,直接抛出异常
    if (key == null || value == null){
        throw new NullPointerException();
    }
    // 获取其下标
    int hash = spread(key.hashCode());
    int binCount = 0;
}
// 作用:用高16位与低16位进行^运算,让高位的数值可以进行计算
// 为什么原来的高位没有办法计算呢?
// 我们后面的 (n - 1) & hash 的数据,&数据如下:
// 00000000 00000000 00000000 01010101
// 0000000  00000000 00000000 00011111
// 我们这里看到,如果高16位不与低16位^运算的话,那么基本我们的高位永远也参加不了计算
// 为什么需要&HASH_BITS:
// 保证最终的结果大于0,因为如果结果小于0的话,代表不同的意义:
// static final int MOVED     = -1; // 代表当前hash位置的数据正在扩容!
// static final int TREEBIN   = -2; // 代表当前hash位置下挂载的是一个红黑树
// static final int RESERVED  = -3; // 预留当前索引位置……
static final int spread(int h) {
    return (h ^ (h >>> 16)) & HASH_BITS;
}
2.2 初始化数组
// tab指向table,标准的Doug Lea写法
for (Node<K,V>[] tab = table;;) {
    Node<K,V> f; 
    int n, i, fh;
    // 如果当前的数组为空或者他的数组长度为0
    // 则进行初始化
    if (tab == null || (n = tab.length) == 0){
        tab = initTable();
    }
}
// sizeCtl:是数组在初始化和扩容操作时的一个控制变量
// -1:代表当前数组正在初始化
// 小于-1:低16位代表当前数组正在扩容的线程个数(如果1个线程扩容,值为-2,如果2个线程扩容,值为-3)
// 0:代表数组还没初始化
// 大于0:代表当前数组的扩容阈值,或者是当前数组的初始化大小
private final Node<K,V>[] initTable() {
    // 经典引用
    Node<K,V>[] tab; 
    int sc;
    // 当前的初始化没有完成时,会一直进行该while循环
    while ((tab = table) == null || tab.length == 0) {
        // 如果小于0,代表当前数组正在扩容或者初始化
        // 当前线程等待一下
        if ((sc = sizeCtl) < 0)
            Thread.yield(); 
        // 尝试将SIZECTL从SC更改为-1
        // CAS修改,线程安全,保证只有一个线程执行数组初始化
        else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {
            try {
                // 更改成功,再次判断一下(参考DCL)
                // 防止下面sizeCtl = sc刚赋值完,正好有线程走到这一步,不做限制的话就会重新初始化了
                if ((tab = table) == null || tab.length == 0) {
                    // 判断当前的sc是否大于0(sc=SIZECTL)
                    // 大于0:n = sc
                    // 小于等于0:n = DEFAULT_CAPACITY
                    // 一般我们只要不传入入参,这里基本走DEFAULT_CAPACITY的扩容
                    int n = (sc > 0) ? sc : DEFAULT_CAPACITY;
                    // 扩容即可
                    Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];
                    // table、tab赋值
                    table = tab = nt;
                    // 这里有点意思
                    // 将sc赋值成(n - 1/4n) = 0.75N
                    // 这里0.75是不是很熟悉,负载因子
                    sc = n - (n >>> 2);
                }
            } finally {
                // 将上面的扩容阈值赋予sizeCtl
                sizeCtl = sc;
            }
            // 结束循环
            break;
        }
    }
    return tab;
}
2.3 将数据插入到数组
// 如果当前数组该下标没有数据,直接插入即可
if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {
    // CAS将当前的hash、key、value组装成一个Node,插入当前数组i位置
    // 插入成功结束即可
    if (casTabAt(tab, i, null, new Node<K,V>(hash, key, value, null))){
        break;
    }      
}
// 基于我们上面说的(n - 1) & hash算出下标
// 返回当前数组下该下标的数据
static final <K,V> Node<K,V> tabAt(Node<K,V>[] tab, int i) {
    return (Node<K,V>)U.getObjectVolatile(tab, ((long)i << ASHIFT) + ABASE);
}
static final <K,V> boolean casTabAt(Node<K,V>[] tab, int i, Node<K,V> c, Node<K,V> v) {
    return U.compareAndSwapObject(tab, ((long)i << ASHIFT) + ABASE, c, v);
}
static class Node<K,V> implements Map.Entry<K,V> {
    // 当前的hash值
    final int hash;
    // key
    final K key;
    // value
    volatile V val;
    // 下一个节点(用来连链表的)
    volatile Node<K,V> next;
}
2.4 扩容(后面聊)
  • 这部分后面聊
// 判断当前位置数据是否正在扩容……
if ((fh = f.hash) == MOVED)
    // 如果在扩容,则当前线程帮助其扩容
    tab = helpTransfer(tab, f);
2.5 将数据插入到链表
else {
    V oldVal = null;
    // 锁当前的数组下标i的数组块
    synchronized (f) {
        // 看一下当前数组的i位置是不是等于f
        // 相当于再次校验一次(DCL)
        if (tabAt(tab, i) == f) {
            // static final int MOVED     = -1; // 代表当前hash位置的数据正在扩容!
       // static final int TREEBIN   = -2; // 代表当前hash位置下挂载的是一个红黑树
       // static final int RESERVED  = -3; // 预留当前索引位置……
            // fh = f.hash
            // 判断下当前的fh是否大于0,也就是不是上面三种情况
            if (fh >= 0) {
                // 记录当前链表下面挂了几个
                binCount = 1;
                // 获取当前的数组节点,没循环一次binCount加一
                for (Node<K,V> e = f;; ++binCount) {
                    K ek;
                    // 如果当前数组下标的hash和我们入参的hash一样,代表重复数据
                    if (e.hash == hash &&
                        // 如果当前的key也等于原始的key
                        // 或者是根据equals判断出来的相等(因为有一些可能重写了equals方法)
                        ((ek = e.key) == key ||
                         (ek != null && key.equals(ek)))) {
                        // 将当前老的数据赋值给oldVal
                        oldVal = e.val;
                        // 这里的onlyIfAbsent我们之前也聊过
                        // 如果传递为false,代表key一致时,直接覆盖数据
              // 如果传递为true,代表key一致时,什么都不做,key不存在,正常添加(Redis,setnx)
                        if (!onlyIfAbsent)
                            // 覆盖数据
                            e.val = value;
                        break;
                    }
                    // 这里就不是相同的数据了,需要挂链表下面了
                    // 先获取数组最上面的数据
                    Node<K,V> pred = e;
                    // 判断下当前的下一个数据是不是空指针
                    // 不是空指针的话,继续指向下一个指针
                    if ((e = e.next) == null) {
                        // 直到最后的时候,创建一个节点挂上去
                        pred.next = new Node<K,V>(hash, key,value, null);
                        break;
                    }
                }
            }
}
2.6 将数据插入到红黑树
// 如果上面不成立的话,也就是当前的数组下面是一个红黑树
 // 需要将当前的数据放到红黑树里面
else if (f instanceof TreeBin) {
    Node<K,V> p;
    binCount = 2;
    // 将当前数据放入到红黑树中
    if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key, value)) != null) {
        // 记录一下老数据
        oldVal = p.val;
        // 这里的onlyIfAbsent我们之前也聊过
        // 如果传递为false,代表key一致时,直接覆盖数据
        // 如果传递为true,代表key一致时,什么都不做,key不存在,正常添加(Redis,setnx)
        if (!onlyIfAbsent)
            // 覆盖数据
            p.val = value;
    }
}
2.7 链表转红黑树
// 如果当前的链表上的数据不等于0
if (binCount != 0) {
    // 当前列表下的数据长度大于8
    // 这里需要注意,大于8的话并不是立即转成红黑树,还需要判断当前数组的长度
    if (binCount >= TREEIFY_THRESHOLD)
        treeifyBin(tab, i);
    if (oldVal != null)
        return oldVal;
    break;
}
static final int TREEIFY_THRESHOLD = 8;
static final int MIN_TREEIFY_CAPACITY = 64;
private final void treeifyBin(Node<K,V>[] tab, int index) {
    Node<K,V> b; int n, sc;
    // 如果当前的数组不为空
    if (tab != null) {
        // 如果当前的数组长度小于64,则没必要转成红黑树
        // 直接扩容即可
        if ((n = tab.length) < MIN_TREEIFY_CAPACITY)
            tryPresize(n << 1);
        // 后面的是转成红黑树的代码
        // 我们下一章在分析
        else if ((b = tabAt(tab, index)) != null && b.hash >= 0) {
            synchronized (b) {
                if (tabAt(tab, index) == b) {
                    TreeNode<K,V> hd = null, tl = null;
                    for (Node<K,V> e = b; e != null; e = e.next) {
                        TreeNode<K,V> p = new TreeNode<K,V>(e.hash, e.key, e.val, null, null);
                        if ((p.prev = tl) == null){
                            hd = p;
                        }
                        else{
                            tl.next = p;
                        }
                        tl = p;
                    }
                    setTabAt(tab, index, new TreeBin<K,V>(hd));
                }
            }
        }
    }
}

四、流程图

1、初始化阶段

2、存储阶段

五、总结

鲁迅先生曾说:独行难,众行易,和志同道合的人一起进步。彼此毫无保留的分享经验,才是对抗互联网寒冬的最佳选择。

其实很多时候,并不是我们不够努力,很可能就是自己努力的方向不对,如果有一个人能稍微指点你一下,你真的可能会少走几年弯路。


相关文章
|
7月前
|
消息中间件 前端开发 Java
美团面试:如何实现线程任务编排?
线程任务编排指的是对多个线程任务按照一定的逻辑顺序或条件进行组织和安排,以实现协同工作、顺序执行或并行执行的一种机制。 ## 1.线程任务编排 VS 线程通讯 有同学可能会想:那线程的任务编排是不是问的就是线程间通讯啊? 线程间通讯我知道了,它的实现方式总共有以下几种方式: 1. Object 类下的 wait()、notify() 和 notifyAll() 方法; 2. Condition 类下的 await()、signal() 和 signalAll() 方法; 3. LockSupport 类下的 park() 和 unpark() 方法。 但是,**线程通讯和线程的任务编排是
71 1
|
存储 NoSQL Java
蚂蚁金服Java研发岗二面:redis 常见数据结构以及使用场景分析
redis简单来说 就是一个数据库,不过与传统数据库不同的是 redis 的数据是存在内存中的,所以存写速度非常快,因此 redis 被广泛应用于缓存方向。另外,redis 也经常用来做分布式锁。redis 提供了多种数据类型来支持不同的业务场景。除此之外,redis 支持事务 、持久化、LUA脚本、LRU驱动事件、多种集群方案。所以在面试中我们经常可以看到redis的身影,今天给大家带来一道redis的面试真题以及解析,后面会给大家分享今年来redis常考试的一些真题。
186 0
|
7月前
|
存储 缓存 NoSQL
美团二面:布隆过滤器有什么用?什么原理?如何使用?
美团二面:布隆过滤器有什么用?什么原理?如何使用?
55 4
|
7月前
|
存储 算法 Java
耗时3天写完的HashMap万字解析,争取一篇文章讲透它,面试官看了都直点头!
耗时3天写完的HashMap万字解析,争取一篇文章讲透它,面试官看了都直点头!
95 3
|
Java 索引
蚂蚁金服Java研发岗二面:说说HashMap 中的容量与扩容实现
JDK1.8 中 HashMap 的底层实现,我相信大家都能说上来个 一二,底层数据结构 数组 + 链表(或红黑树) ,源码如下
|
7月前
|
Java 关系型数据库 MySQL
面试官:如何实现10亿数据判重?
面试官:如何实现10亿数据判重?
123 0
面试官:如何实现10亿数据判重?
|
7月前
|
存储
不亏是阿里三面,ConcurrentHashMap多线程扩容机制被面试官装到了
不亏是阿里三面,ConcurrentHashMap多线程扩容机制被面试官装到了
|
NoSQL Java 关系型数据库
看完拿下字节跳动offer不是梦:Redis+JVM+红黑树+数据结构+规划
节一面: 1. hashmap,怎么扩容,怎么处理数据冲突?怎么高效率的实现数据迁移? 2. Linux的共享内存如何实现,大概说了一下。 3. socket网络编程,说一下TCP的三次握手和四次挥手 4. 同步IO和异步IO的区别? 5. Java GC机制?GC Roots有哪些? 6. 红黑树讲一下,五个特性,插入删除操作,时间复杂度? 7. 快排的时间复杂度,最坏情况呢,最好情况呢,堆排序的时间复杂度呢,建堆的复杂度是多少 字节二面
|
设计模式 存储 消息中间件
查漏补缺第五期(HashMap & ConcurrentHashMap)
前言 目前正在出一个查漏补缺专题系列教程, 篇幅会较多, 喜欢的话,给个关注❤️ ~ 本专题主要以Java语言为主, 好了, 废话不多说直接开整吧~ HashMap底层有了解过吗? 它的put原理以及扩容机制是什么 HashMap是一种常用的数据结构,用于存储键值对。在理解HashMap的put原理和扩容机制之前,我们先来了解一下HashMap的基本结构。 HashMap的内部是由一个数组和链表(或红黑树)组成的,数组被称为哈希表,用于存储元素。每个数组元素是一个链表的头节点(或红黑树的根节点),该链表(或红黑树)用于解决哈希冲突,即当不同的键映射到相同的数组索引时。
|
安全 容器
面试阿里被P8质问:ConcurrentHashMap真的线程安全吗?(上)
面试阿里被P8质问:ConcurrentHashMap真的线程安全吗?
205 1
面试阿里被P8质问:ConcurrentHashMap真的线程安全吗?(上)