阿里二面挂了!被问“1000 万短信 1 小时发完,怎么设计线程池?”,面试官:你管这叫线程池调优?

0 阅读7分钟

千万级推送不仅考参数调优,更考架构防御!本文拆解 1000 万短信 1 小时发完的真实现场:从 NthreadsN_{threads} 黄金公式,到动态监控调优,再到防止 OOM 的“生产级”拒绝策略。文末附带 P7 级面试套路模板,助你扫平线程池深坑。

写在开头:

前两天有个在大厂搬砖的兄弟找我吐槽,说面试挂在了“线程池”上。

面试官没问那些死记硬背的原理,直接抛了一个业务题:

“我们要发 618 营销短信,1000 万条,要求 1 小时内发完。你打算怎么设计线程池?核心参数给多少?拒绝策略选哪个?”

这哥们想都没想:“简单啊,算一下 1 小时 3600 秒,每秒发 2800 条。直接搞个 FixedThreadPool,线程数开到 500,队列给大点不就行了?”

面试官冷笑一声,连追三问:

  1. FixedThreadPool 默认队列是 LinkedBlockingQueue,长度是 Integer.MAX_VALUE,千万级数据还没发完,内存就 OOM 了,你负责?”
  2. “如果短信网关限流了,你的任务积压在队列里,应用重启任务全丢了怎么办?”
  3. “你怎么证明你配的线程数是最优的?是拍脑袋想的,还是有数据支撑?”

他瞬间原地石化。

其实,这道题考的是**“高并发下的资源掌控力”**。今天 Fox带你拆解线程池的 3 种实战境界。


一、 为什么 Executors 是生产环境的“禁区”?

在大厂规范里,严禁使用 Executors.newFixedThreadPoolnewCachedThreadPool

  • OOM 隐患: 默认的无界队列能塞 23112^{31}-1 个任务。在 1000 万数据的冲击下,还没等到线程处理,你的 JVM 堆内存就先爆了。
  • 资源耗尽:CachedThreadPool 允许创建的线程数也是无限大,瞬间的高并发能直接把 CPU 100% 跑满。

Fox的结论: 生产环境必须手动创建 ThreadPoolExecutor,且必须配合有界队列


二、 核心架构:线程池调优的 3 种境界

境界 1:利用“黄金公式”计算初始值

面试官问你线程数给多少,千万别直接说 200 或 500。你要先问:“这任务是 CPU 密集型还是 IO 密集型?”

短信推送涉及网络调用,属于典型的 IO 密集型

根据经验公式:

Nthreads=Ncpu×Ucpu×(1+WC)N_{threads} = N_{cpu} \times U_{cpu} \times (1 + \frac{W}{C})

  • NcpuN_{cpu}:CPU 核心数
  • UcpuU_{cpu}:目标 CPU 利用率
  • W/CW/C:等待时间与计算时间的比值

实战落地: 对于千万级推送,通常 W/C 很大,建议初始线程数设置为 2×Ncpu2 \times N_{cpu} 起步,并根据压测调整。

境界 2:动态调优 + 全链路监控

参数是“死”的,流量是“活”的。大厂 P7 的标准做法是:动态线程池

  1. 参数动态化: 核心参数(CoreSize、MaxSize、QueueSize)不要写死在代码里,接入配置中心(如 Apollo、Nacos)。
  2. 监控预警: 监控队列剩余容量、线程池活跃度。当队列超过 80% 满时,自动触发告警或动态扩容。

Fox 提示: 业内著名的开源项目 Hippo4J 或 DynamicTp 就是干这个的,面试时提一句加分不少。

3. 境界 3:拒绝策略的“终极防线”

当 1000 万数据涌入,线程池满了,拒绝策略(RejectedExecutionHandler)选哪个?

  • AbortPolicy(默认): 直接抛异常,千万别选,数据直接丢了。
  • CallerRunsPolicy(推荐): 让提交任务的线程(比如主线程)自己去执行。 这其实是一种**“天然的背压(Backpressure)”**。主线程去发短信了,它就没空再去数据库捞新任务,从而减缓了任务产生速度,给线程池喘息的机会。

很多同学应该还记得我写过:CallerRunsPolicy(回退给调用者执行)是个坑,因为它会阻塞主线程。但是!在千万级推送这种“离线批量场景”下,这个“坑”反而成了神技。

  • 在线 Web 场景(避坑): 如果是处理用户请求,绝对不能用它,否则 Tomcat 线程被占满,整个网站直接卡死。
  • 离线批量场景(神器): 我们从 DB 里捞千万级数据往线程池塞。如果池子满了,触发 CallerRunsPolicy,让“捞数据的线程”自己去发短信。
  • 高阶奥义:天然背压(Backpressure)。 当“生产者”被迫去干“消费者”的活儿时,它就没空去 DB 捞新数据了。这会自动减缓任务产生的速度,给线程池喘息的时间,彻底规避 OOM 风险。

三、 最后的“防杠”指南:万一服务挂了怎么办?

面试官看你答得不错,通常会祭出最后一招:“任务在内存队列里,机器宕机了,100 万条短信没发出去,怎么补救?”

满分回答:

  1. 本地持久化: 在任务入队前,先在数据库/Redis 记录一个“发送中”的状态。
  2. Ack 机制: 线程处理完后,回调更新状态为“已完成”。
  3. 离线补偿: 启动一个定时任务(T+N),专门扫描那些处于“发送中”超过 10 分钟的任务,重新投递。

四、 面试标准答案模板(直接背诵)

“针对 1000 万短信推送,我不会使用 Executors 快捷创建,因为无界队列有 OOM 风险。

第一,参数设置: 我会基于公式进行压测,由于是 IO 密集型,初始线程数设为 2N2N

第二,拒绝策略: 我会选择 CallerRunsPolicy。它能通过‘背压’机制,让主线程在任务过载时参与处理,从而限制任务的生产速度,保证系统不崩。

第三,动态化: 为了应对短信网关波动,我会接入动态线程池框架,实时监控队列积压情况并动态调整核心线程。

第四,可靠性: 结合数据库状态位和定时补偿任务,确保即便机器重启,任务也不会丢失。”


五、 进阶思考:单机扛住了,那“分布式”呢?

聊到这里,肯定有兄弟会问:“Fox,单机线程池调优我懂了,但如果 1000 万任务发到一半,机器宕机了怎么办?如果是 1 亿数据,单机带宽和 CPU 根本吃不下呢?”

这正是大厂面试官最喜欢的**“夺命连环炮”**。

在真实的生产环境下,我们绝对不会把鸡蛋放在一个篮子里。单机调优是“术”,集群架构才是“道”

现在的互动问题来了:

面试官追问: “现在给你 5 台机器组成的集群,你如何设计一套架构,保证这 1000 万条短信在 1 小时内 ‘不重复、不遗漏、高并发’ 地发出去?”

提示几个思考维度:

  1. 任务分片: 5 台机器怎么分工才不会抢任务?
  2. 状态流转: 机器挂了,剩下的任务怎么接管?
  3. 全局控速: 怎么保证 5 台机器加起来不把供应商的网关冲垮?

欢迎在评论区留下你的设计思路!


写在最后

技术面试拼的从不是死记硬背的参数,而是你对「系统稳定性」的敬畏之心。能提前预判OOM风险、考虑到背压问题、兼顾数据可靠性,这才是你和普通开发者拉开差距的关键。

觉得有用的兄弟,点赞+收藏,面试前翻一翻,直接避开坑、稳拿分!

想吃透更多高频面试题、避开面试雷区?可以关注公众号【Fox爱分享】!我整理的面试宝典已更新至200多万字,光高并发、分布式的项目场景题就有几百道,全是面试刚需,需要面试的同学直接自取,帮你少走弯路、快速上岸~

文章首发地址:mp.weixin.qq.com/s/j2J7z9U53…