分布式微服务系统架构第117集:Kafka发送工具,标准ASCII

75 阅读9分钟

加群联系作者vx:xiaoda0423

仓库地址:webvueblog.github.io/JavaPlusDoc…

1024bat.cn/

  • 每分钟输出报警频率指标(TPS、QPS)

  • 超过阈值时,自动报警(比如推送到运维)

  • 异步批量提交 Kafka(提升吞吐)

  • 限流/熔断(防止疯狂报警拖垮系统)

📈 1. 每分钟输出报警发送频率(TPS、QPS)

加一个定时器(比如用 ScheduledExecutorService),每分钟统计一次:

private static final ScheduledExecutorService scheduler = Executors.newSingleThreadScheduledExecutor();
private static AtomicLong kafkaSendCounter = new AtomicLong(0);

@PostConstruct
public void initKafkaMetrics() {
    scheduler.scheduleAtFixedRate(() -> {
        long count = kafkaSendCounter.getAndSet(0);
        logger.info("==> 报警Kafka 1分钟发送量: {}, TPS: {}", count, count / 60.0);
    }, 1, 1, TimeUnit.MINUTES);
}

然后每次 sendAlarmMsg 时增加一下:

kafkaSendCounter.incrementAndGet();

🚨 2. 超过阈值自动报警(比如推送到运维系统)

比如设置每分钟最大1万条,超过就报警:

private static final long MAX_KAFKA_SEND_PER_MINUTE = 10_000;

@PostConstruct
public void initKafkaMetrics() {
    scheduler.scheduleAtFixedRate(() -> {
        long count = kafkaSendCounter.getAndSet(0);
        logger.info("==> 报警Kafka 1分钟发送量: {}, TPS: {}", count, count / 60.0);
        if (count > MAX_KAFKA_SEND_PER_MINUTE) {
            logger.error("==> 报警发送量异常!!! 超过阈值: {}", count);
            // TODO: 发通知到钉钉/微信机器人/运维平台
            sendOpsAlert("Kafka发送量异常,1分钟达到:" + count + "条!");
        }
    }, 1, 1, TimeUnit.MINUTES);
}

private void sendOpsAlert(String msg) {
    // 模拟发送告警,可以接钉钉机器人、Prometheus AlertManager、Grafana告警
    logger.warn("【运维告警】{}", msg);
}

🚀 3. 异步批量提交 Kafka(提升吞吐量)

思路:不是每一条都发,而是攒一批一起发(比如100条或者100ms发一次)

可以用 LinkedBlockingQueue + 批量发送:

private static final BlockingQueue<ProducerRecord<String, String>> kafkaQueue = new LinkedBlockingQueue<>();
private static final int BATCH_SIZE = 100;
private static final int BATCH_WAIT_MS = 100;

@PostConstruct
public void initKafkaBatchSender() {
    scheduler.scheduleWithFixedDelay(() -> {
        List<ProducerRecord<String, String>> batch = new ArrayList<>();
        kafkaQueue.drainTo(batch, BATCH_SIZE);
        if (!batch.isEmpty()) {
            batch.forEach(record -> {
                try {
                    gatewayKafkaTemplate.send(record.topic(), record.key(), record.value());
                } catch (Exception e) {
                    logger.error("==> 批量发送Kafka异常", e);
                }
            });
            logger.info("==> 批量发送Kafka {}条", batch.size());
        }
    }, 0, BATCH_WAIT_MS, TimeUnit.MILLISECONDS);
}

public void asyncSendKafka(String topic, String key, String value) {
    kafkaQueue.offer(new ProducerRecord<>(topic, key, value));
    kafkaSendCounter.incrementAndGet();
}

以后调用就改成:

asyncSendKafka("cabinets-alarm", kafkaKey, jsonMessage);

真正高频发时吞吐量可以提高几倍甚至十几倍


⚡ 4. 限流+熔断(防止被报警搞死系统)

比如:1分钟超10W条就直接丢弃+熔断保护

private static final long MAX_KAFKA_QUEUE_SIZE = 100_000;

public void asyncSendKafka(String topic, String key, String value) {
    if (kafkaQueue.size() > MAX_KAFKA_QUEUE_SIZE) {
        logger.error("==> Kafka报警发送队列已满,触发限流丢弃!size={}", kafkaQueue.size());
        return; // 丢弃这条
    }
    kafkaQueue.offer(new ProducerRecord<>(topic, key, value));
    kafkaSendCounter.incrementAndGet();
}

想高级一点还可以:

  • 短时间熔断(比如5分钟自动恢复)
  • 降级处理(比如记录到本地磁盘,后续补发)

1. 基本解码规则

  • 只处理以 { 开始,} 结束的完整 JSON 格式报文。

  • 允许处理嵌套 {},即内部嵌套对象。

  • 数据最大只处理到xKB以内,防止异常数据撑爆内存。

  • 如果一条报文找不到开始符号 { ,或找不到合法结束符号 } ,则:

    • 直接丢弃或等待下一批数据补齐。
  • 粘包半包场景均有容错处理。

  • 0x7B(16进制)

  • 十进制:123

  • 对应 ASCII 字符:{ (左花括号)

完整表格(标准ASCII 0x00 ~ 0x7F片段,含0x7B重点标红)

16进制10进制字符描述
0x000NUL空字符
0x011SOH标题开始
............
0x099TAB水平制表符(Tab)
0x0A10LF换行
0x0D13CR回车
............
0x2032空格空格
0x2133!感叹号
0x2234"双引号
0x2335#井号
0x2436$美元符号
............
0x2840(左小括号
0x2941)右小括号
0x2A42*星号
0x2B43+加号
0x2C44,逗号
0x2D45-减号
0x2E46.句号
0x2F47/斜线
0x30480数字0
............
0x39579数字9
0x3A58:冒号
0x3B59;分号
0x3C60<小于号
0x3D61=等号
0x3E62>大于号
0x3F63?问号
0x4064@at符号
0x4165A大写字母A
............
0x5A90Z大写字母Z
0x5B91[左中括号
0x5C92``反斜杠
0x5D93]右中括号
0x5E94^脱字符
0x5F95_下划线
0x6096`反引号
0x6197a小写字母a
............
0x7A122z小写字母z
🔥0x7B123{左花括号
0x7C124``竖线
0x7D125}右花括号
0x7E126~波浪号
0x7F127DEL删除字符

📋 超全ASCII对照表 (0x00 ~ 0xFF)

HEXDECCHAR描述HEXDECCHAR描述
0x000NUL空字符(Null)0x80128控制字符
0x011SOH标题开始0x81129控制字符
0x022STX文本开始0x82130拉丁文补充
0x033ETX文本结束0x83131ƒ拉丁文补充
0x044EOT传输结束0x84132拉丁文补充
0x055ENQ请求0x85133省略号
0x066ACK接收确认0x86134匕首符号
0x077BEL响铃(Beep)0x87135双匕首
0x088BS退格0x88136ˆ抑扬符
0x099TAB水平制表(Tab键)0x89137千分号
0x0A10LF换行(Line Feed)0x8A138Š拉丁补充
0x0B11VT垂直制表0x8B139单引号(开)
0x0C12FF换页0x8C140Œ拉丁补充
0x0D13CR回车(Carriage Return)0x8D141控制字符
0x0E14SO移出0x8E142Ž拉丁补充
0x0F15SI移入0x8F143控制字符
........................
0x2032空格Space0xA0160不间断空格(NBSP)
0x2133!感叹号0xA1161¡反感叹号
0x2234"双引号0xA2162¢分币符
0x2335#井号(#)0xA3163£英镑符号
0x2436$美元符号0xA4164¤货币符号
........................
0x2840(左括号0xB0176°度数符号
0x2941)右括号0xB1177±加减号
0x2A42*星号(乘号)0xB2178²平方
0x2B43+加号0xB3179³立方
........................
🔥0x7B123{左花括号0xFB251û拉丁扩展
0x7C124``竖线0xFC252ü
0x7D125}右花括号0xFD253ý拉丁扩展
0x7E126~波浪号0xFE254þ拉丁扩展
0x7F127DEL删除符(Delete)0xFF255ÿ拉丁扩展

Netty编解码器实战小册

目录

章节内容概览
1. Netty编解码器简介Encoder、Decoder、Codec 全景图
2. 常用编解码器类型自定义、内置(LengthFieldBasedFrameDecoder等)
3. 粘包/拆包问题原因、现象、标准处理套路
4. 编解码器实战(基础版)自定义 MessageToByteEncoder、ByteToMessageDecoder
5. 编解码器实战(进阶版)包头包尾协议、分隔符协议、多协议动态识别
6. 性能优化技巧零拷贝、池化ByteBuf、线程优化
7. 问题排查技巧如何定位粘包/丢包/内存泄露

1. Netty编解码器简介

编解码器(Codec)= Encoder + Decoder

  • Encoder(编码器) :出站,把消息对象 ➔ ByteBuf。
  • Decoder(解码器) :入站,把ByteBuf ➔ 消息对象。
  • Codec(编解码器) :组合版,常用 MessageToMessageCodec

Netty内部是责任链(Pipeline)模式,编码器和解码器在 pipeline 中按顺序处理。


2. 常用编解码器类型

编解码器描述
MessageToByteEncoder消息 ➔ ByteBuf
ByteToMessageDecoderByteBuf ➔ 消息
MessageToMessageEncoder消息 ➔ 消息
MessageToMessageDecoder消息 ➔ 消息
CombinedChannelDuplexHandler编解码合并器

还有Netty内置的超强编解码器:

  • LengthFieldBasedFrameDecoder ➔ 按包头长度字段自动拆包
  • DelimiterBasedFrameDecoder ➔ 按分隔符拆包
  • LineBasedFrameDecoder ➔ 按换行符拆包

3. 粘包/拆包问题

为什么会粘包拆包?

TCP本身是流式协议,不保证一条消息完整到达。

  • 发送慢,数据被切成多段(拆包
  • 多条小消息合并一起发(粘包

常见现象

  • 收到的数据长度异常(超长或超短)
  • 反序列化失败(JSON、Protobuf等解析错误)

标准处理套路

  1. 约定消息格式,比如:

    • 固定长度
    • 包头 + 包体
    • 特殊分隔符
  2. 在解码器中正确处理拆包粘包逻辑。


4. 编解码器实战(基础版)

Encoder 示例:发送JSON字符串

@ChannelHandler.Sharable
public class JsonEncoder extends MessageToByteEncoder<Object> {
    @Override
    protected void encode(ChannelHandlerContext ctx, Object msg, ByteBuf out) {
        byte[] data = new Gson().toJson(msg).getBytes(StandardCharsets.UTF_8);
        out.writeBytes(data);
    }
}

Decoder 示例:接收JSON字符串

public class JsonDecoder<T> extends ByteToMessageDecoder {
    private final Class<T> clazz;

    public JsonDecoder(Class<T> clazz) {
        this.clazz = clazz;
    }

    @Override
    protected void decode(ChannelHandlerContext ctx, ByteBuf in, List<Object> out) {
        byte[] bytes = new byte[in.readableBytes()];
        in.readBytes(bytes);
        T obj = new Gson().fromJson(new String(bytes, StandardCharsets.UTF_8), clazz);
        out.add(obj);
    }
}

5. 编解码器实战(进阶版)

包头包尾协议示例

假设消息格式:
[魔数4字节][总长度4字节][实际内容]

  • 解码器检查魔数 + 读总长度 + 组装完整包
  • 编码器打包加上魔数和长度字段

这种就很适合防止半包/粘包。


6. 性能优化技巧

优化点实战建议
ByteBuf尽量用 PooledByteBufAllocator,避免频繁GC
零拷贝充分使用slice()、duplicate()
Pipeline顺序编解码器要靠近 I/O 端口,提高效率
多协议处理动态切换ChannelHandler

7. 问题排查技巧

  • 抓包(wireshark、tcpdump)
  • 加日志:入站出站拦截器打印 ByteBuf 十六进制
  • 注意ByteBuf使用生命周期,避免内存泄漏(Netty内部有引用计数机制)

🚀 附送:最常用 ASCII 字符(适合Netty调试)

字符HEX说明
{0x7BJSON开头
}0x7DJSON结尾
\r0x0D回车符
\n0x0A换行符
``0x7C
,0x2C逗号分隔

📘《高并发环境编解码性能优化手册》


1. 编解码器并发基本认知

项目说明
编码(出站)每次发送时执行,通常是单线程串行(但需要注意共享资源)
解码(入站)每次接收时执行,多线程并发(特别是Reactor线程)
ChannelHandler要注意是否加了@Sharable,否则每个连接实例化一份

总结:解码器更容易出并发问题,编码器要注意资源共享。


2. 编解码器高并发优化核心要点

2.1 保证线程安全

  • 如果ChannelHandler标了@Sharable内部必须无状态或者状态线程安全
  • 尽量不要在Handler中用成员变量存储连接状态,否则多线程下必挂。
  • 推荐:用ChannelHandlerContext.channel().attr()存储每个连接独立的变量。
AttributeKey<Long> SESSION_ID = AttributeKey.valueOf("SESSION_ID");

// 设置
ctx.channel().attr(SESSION_ID).set(sessionId);

// 获取
Long sessionId = ctx.channel().attr(SESSION_ID).get();

2.2 避免内存拷贝

  • ByteBuf自带零拷贝特性,尽量用:

    • slice()
    • duplicate()
    • retain()/release()
  • 不要轻易用byte[] ➔ 会触发拷贝!

比如读取消息推荐这样:

ByteBuf buf = in.retainedSlice(start, length); // 轻量切片,不拷贝数据

而不是:

byte[] arr = new byte[length];
in.readBytes(arr); // 直接拷贝到数组,GC负担大

2.3 合理使用 PooledByteBufAllocator(池化)

高并发下 PooledByteBufAllocator(对象池)能大幅减少GC压力。

Netty默认在Linux/64位系统上开启,如果想手动指定:

ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.option(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT);
bootstrap.childOption(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT);

2.4 拆包粘包优化处理

常用的:

  • LengthFieldBasedFrameDecoder(基于包长度自动拆包)
  • DelimiterBasedFrameDecoder(基于分隔符拆包)

优先推荐用LengthFieldBasedFrameDecoder,CPU更友好!

示例(4字节包头长度):

new LengthFieldBasedFrameDecoder(65536, 0, 4, 0, 4)

参数解释:

  • 最大帧长度
  • 包头起始位置
  • 包头长度
  • 额外字节补偿
  • 跳过包头

2.5 小心 JSON/XML 等大对象解析

大对象解析(如Gson、Jackson):

  • 尽量提前判断数据大小 ➔ 防止 OOM
  • 异常时丢弃,避免线程卡死

比如你的 Decoder 里应该这样判断:

if (byteBuf.readableBytes() > 1024 * 64) {
    log.error("==> 单包过大,直接丢弃");
    byteBuf.skipBytes(byteBuf.readableBytes());
    return;
}

防止有人恶意发送超级大包,导致内存溢出

2.6 解码失败保护机制

高并发下,有一条数据出问题,不能影响后续数据处理。

所以推荐:

  • 解码失败直接 resetReaderIndex,保留数据,等待更多数据。
  • 不要在异常里直接ctx.close(),除非真确定是致命异常。

3. 编解码性能压测指标参考

指标高性能目标
单连接TPS(事务数/秒)>10万
编码平均耗时<50μs
解码平均耗时<100μs
内存使用增长速率平稳,无抖动
GC次数每分钟<1次

压测工具可以用:

  • Netty自带的EchoClient
  • wrk+自定义TCP代理
  • JMeter TCP Sampler

4. 典型问题案例

问题原因优化
解码异常连锁崩溃未resetReaderIndex捕获异常后 reset
CPU拉满粘包拆包逻辑死循环抓包分析,优化拆包算法
GC频繁每次readBytes()导致大量对象创建用ByteBuf slice
内存泄漏ByteBuf未releasefinally块中统一release