沉默是金,总会发光
大家好,我是沉默
快到年底了,系统开始频繁出问题。
我有一个非常合理、非常工程师的怀疑:
老板不想发年终奖,所以系统开始搞事。
果不其然——
几年都遇不到一次的 Kafka 消息积压,
在一个本该安静下班的夜晚,
卷土重来了。
今晚,注定是个不眠夜。
原神启动之前,我先启动了 Kafka 面板。
**-**01-
事故现场
事情是这样的。
我刚下班,正准备洗洗睡,
组里的小伙伴突然冲过来,语气已经带点颤:
“Kafka 消息积压一直在涨,预览图全出不来!”
我点开面板一看,血压直接上来了:
- 原来 4 个分区
-
- 已积压 1200+
- 新加的分区
-
-
也开始积压
-
而且 速度越来越快
-
第一反应非常自然,也非常“新手友好”:
是不是消费者慢?那我多加点实例不就完了?
于是我:
- 加 Pod
- 消费能跑
- 然后……
**
**
越跑越卡
Pod 开始一个接一个挂
这时,我的困意
和不祥的预感
同时达到了顶峰。
- 02-
第一层误判
我突然想起一件事:
Spring Cloud Stream 好像支持并发消费?
于是让开发老哥把:
concurrency:10
一把拉满。
**
**
结果呢?
这时候我才反应过来一个致命误解**:**
concurrency ≠ 并行处理一条消息
**
**
而是:
我人当场清醒了。
-
- concurrency = 消费者线程数
- 一个线程 ≈ 一个分区
- 分区本来就不均匀
- 一加线程 流量倾斜直接拉满
-
-
消息 积压更快
-
Pod 直接被打爆
-
CPU、内存 一起起飞
-
- 03-
诡异现象
我把所有 Pod 日志全拉下来,一条一条看。
结果非常魔幻。
监听器日志显示:
全部执行成功
但与此同时:
-
Kafka 报 消费超时
-
面板显示 Consumer Group 频繁 Rebalance
我当场愣住。
成功了,又超时?
这是什么?
薛定谔的 Kafka 消费?
但作为一个坚定的唯物主义程序员,
我选择继续往下挖。
**-****04-**破案关键
答案,藏在 Kafka 的消费模型里。
你以为的 Kafka 是这样的:
来一条 → 消费一条 → 确认一条
但实际上,Kafka 是这样的:
一次 poll 一批 → 全部处理完 → 才提交 offset
而 Spring Cloud Stream,为了“好用”,
干了一件非常容易坑人的事:
底层是批量拉取,但监听器只给你一条
我们假设一个真实到不能再真实的配置:
-
max.poll.records = 500 -
单条消息处理:10s
-
处理方式:串行
-
消费超时时间:300s
那会发生什么?
500 × 10s = 5000s
也就是说:
-
一次 poll
-
最多只能处理 30 条
-
后面的消息根本来不及
于是就出现了那一幕:
-
单条逻辑: 成功
-
整批消费: 超时
-
Kafka 认为你“失联”
-
触发 Consumer Rebalance
-
offset 不提交
-
后面的消息 全部堵死
我当场只想说一句:
我咧个豆,案子破了。
**
**
**-****05-**两种解决方案
方案一:立刻止血(适合半夜)
ack-mode:RECORD
效果:
- 每条消息处理完立刻提交
- 不再被“批次”拖死
- 改一行就能下班睡觉
代价:
- 吞吐量下降
- Kafka 的优势用不满
适合场景:
救火
保命
保年终奖
方案二:批量 + 并行(推荐)
思路:
批量要小,并行要真
1. 控制批量大小
max.poll.records:50
2. 自己并行处理这一批
@StreamListener("<TOPIC>")publicvoidconsume(List<byte[]> payloads) { List<CompletableFuture<Void>> futures = payloads.stream().map(bytes -> {Payloadpayload= JacksonSnakeCaseUtils.parseJson(newString(bytes), Payload.class );return CompletableFuture.runAsync(() -> {// 业务处理 }, batchConsumeExecutor).exceptionally(e -> { log.error("Thread error {}", bytes, e);returnnull; }); }).collect(Collectors.toList());// 等待整批完成,再统一提交 offset CompletableFuture.allOf( futures.toArray(newCompletableFuture[0]) ).join();}
效果:
-
批次不大,不超时
-
真正并行,吞吐拉满
-
offset 提交稳定
-
Kafka 安静了,世界也安静了
**-****06-**总结
这次事故教会我的三件事
1. Kafka 慢,80% 不是 Kafka 的锅
而是你 消费模型 + 超时配置 + 批量大小
从来没想清楚。
2. Spring Cloud Stream 很友好
但:
越像“队列”的封装,越容易误导你
3. 半夜事故,拼的不是手速
而是你 对底层机制的理解深度
那天问题解决的时候,已经快天亮了。
- 咖啡喝完了
- Kafka 面板绿了
- 飞书安静了
我终于能安心睡觉了。
如果你也遇到过:
-
Kafka 消息积压
-
日志成功但一直超时
-
Consumer Rebalance 地狱循环
希望这篇文章,
能帮你 少熬一次夜。
**-****07-**粉丝福利
我这里创建一个程序员成长&副业交流群,
和一群志同道合的小伙伴,一起聚焦自身发展,
可以聊:
技术成长与职业规划,分享路线图、面试经验和效率工具,
探讨多种副业变现路径,从写作课程到私活接单,
主题活动、打卡挑战和项目组队,让志同道合的伙伴互帮互助、共同进步。
如果你对这个特别的群,感兴趣的,
可以加一下, 微信通过后会拉你入群,
但是任何人在群里打任何广告,都会被我T掉。