“我正在参加「掘金·启航计划」”
Netty入门
1. 概述
1.1 Netty 是什么?
Netty 是一个异步的,基于事件驱动的网络应用框架,用于快速开发可维护,高性能的网络服务器和客户端
1.2 Netty 的作者
Trustin Lee, 韩国人,他还是另外一个著名网络应用框架 Mina 的重要贡献者
1.3 Netty 的地位
Netty 在 Java 网络应用框架中的地位就好比:Spring 框架在 JavaEE 开发中的地位
很多框架都使用了 Netty 因为它们都有网络通信需求
- Cassandra - nosql 数据库
- Spark - 大数据分布式计算框架
- Hadoop - 大数据分布式存储框架
- RocketMQ - ali 开源的消息队列
- ElasticSearch - 搜索引擎
- Dubbo - rpc 框架
- Spring 5.x - flux api 完全抛弃了 tomcat,使用 netty 作为服务器端
- Zookeeper - 分布式协调框架
1.4 Netty 的优势
- Netty vs NIO, 工作量大,bug 多
- 需要自己构建协议
- 解决 TCP 传输问题,如粘包,半包
- epoll 空轮询导致 CPU 100%
- 对 API 进行增强,使之更易用, 如 FastThread => ThreadLocal,ByteBuf => ByteBuffer
- Netty vs 其他网络应用框架
- Mina 由 apache 维护,将来 3.x 版本可能会有较大重构,破坏 API 向下兼容性, Netty 的开发迭更迅速,API 更简洁,文档更优秀
- 久经考验,16年,Netty 版本
- 2.x 2004
- 3.x 2008
- 4.x 2013
- 5.x 已废弃 (没有明显的性能提升,维护成本高)
2. Hello Netty
开发一个简单的服务器端和客户端
- 客户端向服务器端发送 hello,world
- 服务器仅接收,不返回
添加依赖
<dependency>
<groupId>io.netty</groupId>
<artifactId>netty-all</artifactId>
<version>4.1.77.Final</version>
</dependency>
2.1 服务器端
package com.aodi.test.netty;
import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.ChannelInboundHandlerAdapter;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.string.StringDecoder;
/**
* hello , netty
*/
public class HelloServer {
public static void main(String[] args) {
// ServerBootstrap 启动器, 负责组装 netty 组件, 启动服务器
new ServerBootstrap()
//1. BoosEventLoop, WorkEventLoop(selector,thread), group 组
.group(new NioEventLoopGroup())
//2. 选择 服务器的 ServerSocketChannel
.channel(NioServerSocketChannel.class)
//3. boss 负责处理连接 worker(child) 负责处理读写, 决定了 worker(child) 能执行那些操作 (Handel)
.childHandler(
// channel 代表客户端进行数据读写的通道, Initializer 初始化, 负责添加别的 Handel
new ChannelInitializer<NioSocketChannel>() {
@Override
protected void initChannel(NioSocketChannel ch) throws Exception {
//5. 添加具体的 Handel
ch.pipeline().addLast(new StringDecoder()); // 将 ByteBuf 转换为字符串
// 6. 自定义 Handel
ch.pipeline().addLast(new ChannelInboundHandlerAdapter(){
@Override // 读事件
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
// 打印上一步转换好的字符串
System.out.println(msg);
}
});
}
//4. 绑定监听端口
}).bind(8888);
}
}
代码解读:
- 创建 NioEventLoopGroup , 可以理解为
线程池 + Selector - 选择服务 Socket 实现类,其中 NioServerSocketChannel 表示基于 NIO 的服务器端实现,其他实现还有
- 为什么方法叫做 childHandler, 是接下来添加的处理器都是给 SocketChannel 用的,而不是给 ServerSocketChannel, ChannelInitializer 处理器 (仅执行一次), 它的作用是待客户端 SocketChannel 建立连接后,执行 initChannel 以便添加更多的处理器
- ServerSocketChannel 绑定监听的端口
- SocketChannel 的处理器,解码 ByteBuf => String
- SocketChannel 的业务处理器,使用上一个处理器的处理结果
2.2 客户端
package com.aodi.test.netty;
import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.string.StringEncoder;
import java.net.InetSocketAddress;
public class HelloClient {
public static void main(String[] args) throws InterruptedException {
// 启动类
new Bootstrap()
//1. 添加 EventLoop
.group(new NioEventLoopGroup())
//2. 选择客户端 channel 实现
.channel(NioSocketChannel.class)
//3. 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder()); // 8. String => ByteBuf
}
})
//4. 连接到服务器
.connect(new InetSocketAddress(8888))
.sync() // 5.等待连接完成
.channel() // 6.获取通道对象
// 向服务器发送数据
.writeAndFlush("love your"); // 7. 发送数据并清空缓冲区
}
}
代码解读:
- 创建 NioEventLoopGroup , 同 Server
- 选择客户端 Socket 实现类,NioSocketChannel 表示基于 NIO 的客户端实现,其他实现还有
- 添加 SocketChannel 的处理器,ChannelInitalizer 处理器 (仅执行一次),他的作用是待客户端 SocketChannel 建立连接后,执行 initChannel 以便添加更多的处理器。
- 指定要连接的地址和端口
- Netty 中很多方法都是异步的,如 connect,这时需要使用 sync 方法等待 connect 建立连接完毕
- 换取 channel 对象,它即为通道抽象,可以进行读写数据操作
- 写入消息,并清空缓冲区
- 消息会经过通道 handler 处理, 这里是将 String => ByteBuf 发出
数据经过网络传输,到达服务器,服务器端 5 和 6 处的 handler 先后被处罚,走完一个流水线
2.3 流程整理
概念理解
- 把 channel 理解为数据通道
- 把 msg 理解为流动的数据,最开始输入的是 ByteBuf, 但是经过 pipeline 的加工,会变成其它类型对象,最后输出又变成 ByteBuf
- 把 Handler 理解为数据的处理流水线
- 工序有多道,合在一起就是 pipline , pipline 负责发布事件 (读,读取完成) 传播给每个 handler, handler 对自己感兴趣的事件进行处理 (重写了相应事件处理方法)
- handler 分为 Inbound(进站) 和 Outbound (出站) 两类。
- 把 eventLoop 理解为处理数据的工人
- 工人可以管理多个 channel 的 io 操作,并且一旦工人负责了某个 channel 就要负责到底,以后这个channel 的所有读写操作都会与这个 eventLoop 绑定
- 工人既可以执行 io 操作, 也可以进行任务处理,每位工人都有任务队列,队列里面可以堆放多个 channel 的待处理任务,任务分为普通任务,定时任务
- 工人安装 pipline 顺序,依次安装 handler 的规划 (代码) 处理数据,可以为每道工序指定不同的工人
3. 组件
3.1 EventLoop
事件循环对象
EventLoop 本质是一个单线程执行器 (同时维护了一个 Selector) , 里面有 run 方法处理 Channel 上源源不断的 IO 事件
它的继承关系比较复杂
- 一条线是继承自 j.u.c.ScheduledExecutorService 因此包含了线程池中的所有方法
- 另一条线是继承自 Netty 自己的 OrderedEventExecutor,
- 提供了 Boolean isEventLoop(Thread thread) 方法判断一个线程是否属于此 EventLoop
- 提供了 parent 方法来看看自己属于那个 EventLoopGroup
事件循环组
EventLoopGroup 是一组 EventLoop, Channel 一般会调用 EventLoopGroup 的 register 方法来绑定其中一个 EventLoop, 后续这个 Channel 上的 IO 事件 都由此 EventLoop 来处理 (保证了 io 事件处理时的线程安全)
- 继承自 Netty 自己的 EventExecutorGroup
- 实现了 Iterable 接口提供遍历 EventLoop 的能力
- 另有 next 方法获取集合中下一个 EventLoop
以一个简单的实现为例:
// 内部创建了两个 EventLoop, 每个 EventLoop 维护一个线程
EventLoopGroup group = new NioEventLoopGroup(2);
System.out.println(group.next());
System.out.println(group.next());
System.out.println(group.next());
System.out.println(group.next());
输出
io.netty.channel.nio.NioEventLoop@31368b99
io.netty.channel.nio.NioEventLoop@1725dc0f
io.netty.channel.nio.NioEventLoop@31368b99
io.netty.channel.nio.NioEventLoop@1725dc0f
优雅关闭
优雅关闭 shutdownGracefully 方法,该方法会首先切换 EventLoopGroup 到关闭状态从而拒绝新的任务加入,然后在任务队列的任务处理完毕后,停止线程的运行,从而确保整体应用是在正常有序的状态下退出的。
演示 NioEventLoop 处理 io 事件
服务器两个 nio worker 工人
new ServerBootstrap()
//boss 只负责 ServerSocketChannel 上 accept 事件, worker 只负责 socketChannel 上的读写
.group(new NioEventLoopGroup(),new NioEventLoopGroup(2))
.channel(NioServerSocketChannel.class)
.childHandler(new ChannelInitializer<NioSocketChannel>() {
@Override
protected void initChannel(NioSocketChannel nioSocketChannel) throws Exception {
nioSocketChannel.pipeline().addLast(new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
log.debug("msg:{}",buf.toString(Charset.defaultCharset()));
ctx.fireChannelRead(msg); // 让消息传递给下个 handler
}
});
}
}).bind(8888);
客户端,启动三次,分别修改发送字符串为 hello (第一次),server(第二次)hi,server(第三次)
public static void main(String[] args) throws InterruptedException {
// 启动类
Channel channel = new Bootstrap()
// 添加 EventLoop
.group(new NioEventLoopGroup())
// 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder());
}
})
// 连接到服务器
.connect(new InetSocketAddress(8888))
.sync()
.channel();
System.out.println(channel);
System.out.println("end");
}
最后输出
16:04:58.586 [nioEventLoopGroup-3-2] DEBUG com.aodi.test.netty.event.EventLoopServer - msg:hello
16:05:13.032 [nioEventLoopGroup-3-1] DEBUG com.aodi.test.netty.event.EventLoopServer - msg:server
16:05:34.037 [nioEventLoopGroup-3-2] DEBUG com.aodi.test.netty.event.EventLoopServer - msg:hi,server
可以看到两个工人轮流处理 channel,但工人与 channel 之间进行了绑定
再增加两个非 NIO 工人
public static void main(String[] args) {
EventLoopGroup eventLoop = new DefaultEventLoopGroup(2);
new ServerBootstrap()
//boss 只负责 ServerSocketChannel 上 accept 事件, worker 只负责 socketChannel 上的读写
.group(new NioEventLoopGroup(),new NioEventLoopGroup(2))
.channel(NioServerSocketChannel.class)
.childHandler(new ChannelInitializer<NioSocketChannel>() {
@Override
protected void initChannel(NioSocketChannel nioSocketChannel) throws Exception {
nioSocketChannel.pipeline().addLast(new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
log.debug("msg:{}",buf.toString(Charset.defaultCharset()));
ctx.fireChannelRead(msg); // 让消息传递给下个 handler
}
}).addLast(eventLoop,"handler2",new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
log.debug("other msg:{}",buf.toString(Charset.defaultCharset()));
}
});
}
}).bind(8888);
}
客户端代码不变,启动三次,分别修改发送字符串为 hello (第一次),server(第二次)hi,server(第三次)
输出
16:11:06.262 [nioEventLoopGroup-4-1] DEBUG com.aodi.test.netty.event.EventLoopServer - msg:hello
16:11:06.262 [defaultEventLoopGroup-2-1] DEBUG com.aodi.test.netty.event.EventLoopServer - other msg:hello
16:11:25.018 [nioEventLoopGroup-4-1] DEBUG com.aodi.test.netty.event.EventLoopServer - msg:server
16:11:25.018 [defaultEventLoopGroup-2-1] DEBUG com.aodi.test.netty.event.EventLoopServer - other msg:server
16:11:39.477 [nioEventLoopGroup-4-2] DEBUG com.aodi.test.netty.event.EventLoopServer - msg:hi,server
16:11:39.477 [defaultEventLoopGroup-2-2] DEBUG com.aodi.test.netty.event.EventLoopServer - other msg:hi,server
可以看到,nio 工人 和 非 nio 工人也分别绑定了 channel ( 由 nio 工人执行,而我们自己的 handler 由非 nio 工人执行)
handler 执行中如何换人?
关键代码 io.netty.channel.AbstractChannelHandlerContext#invokeChannelRead()
static void invokeChannelRead(final AbstractChannelHandlerContext next, Object msg) {
final Object m = next.pipeline.touch(ObjectUtil.checkNotNull(msg, "msg"), next);
// 下一个 handler 的事件循环是否与当前的事件循环是同一个线程
EventExecutor executor = next.executor();
// 是,直接调用
if (executor.inEventLoop()) {
next.invokeChannelRead(m);
}
// 不是,将要执行的代码作为任务提交给下一个事件循环处理(换人)
else {
executor.execute(new Runnable() {
@Override
public void run() {
next.invokeChannelRead(m);
}
});
}
}
- 如果两个 handler 绑定的是同一个线程,那么就直接调用
- 否则,把要调用的代码封装为一个任务对象,由下一个 handler 的线程来调用
演示 NioEventLoop 处理普通任务
EventLoopGroup group = new NioEventLoopGroup(2);
group.submit(() -> {
try {
Thread.sleep(1000L);
} catch (InterruptedException e) {
throw new RuntimeException(e);
}
log.debug("success");
});
可以用来执行耗时较长的任务
演示 NioEventLoop 处理定时任务
EventLoopGroup group = new NioEventLoopGroup(2);
group.next().scheduleAtFixedRate(() -> {
log.debug("success to success");
},0,2, TimeUnit.SECONDS);
可以用来执行定时任务
3.2 Channel
channel 的主要作用
- close() 可以用来关闭 channel
- closeFuture() 用来处理 channel 的关闭
- sync 方法作用是同步等待 channel 关闭
- 而 addListener 方法是异步等待 channel 关闭
- pipline() 方法添加处理器
- write() 方法将数据写入
- writeAndFlush() 方法,将数据写入并清空缓冲区
ChannelFuture
原客户端代码
public static void main(String[] args) throws InterruptedException {
// 启动类
new Bootstrap()
// 添加 EventLoop
.group(new NioEventLoopGroup())
// 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder());
}
})
// 连接到服务器
.connect(new InetSocketAddress(8888))
.sync()
.channel();
}
拆分之后
public static void main(String[] args) throws InterruptedException {
// 启动类
ChannelFuture channelFuture = new Bootstrap()
// 添加 EventLoop
.group(new NioEventLoopGroup())
// 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder());
}
})
// 连接到服务器
.connect(new InetSocketAddress(8888));
channelFuture.sync().channel().writeAndFlush(" I love ");
}
- connect 处返回的是 ChannelFuture 对象,它的作用是利用 channel() 方法来获取 Channel 对象
**注意:**connect 方法是异步的,意味着不等连接建立完毕,方法就返回执行了,因此 channelFuture 对象中不能 【立刻】获取到正确的 Channel 对象
实验如下:
public static void main(String[] args) throws InterruptedException {
// 启动类
ChannelFuture channelFuture = new Bootstrap()
// 添加 EventLoop
.group(new NioEventLoopGroup())
// 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder());
}
})
// 连接到服务器
.connect(new InetSocketAddress(8888));
log.debug("{}",channelFuture.channel());
channelFuture.sync();
log.debug("{}",channelFuture.channel());
}
- 第一次 log 时,连接为建立 打印:
[id: 0xaad168ef] - 执行至
channelFuture.sync()时, sync 方法是同步等待连接建立完成 - 第二次 log 时,连接是已经建立完毕的,打印 :
[id: 0xaad168ef, L:/192.168.3.13:55642 - R:0.0.0.0/0.0.0.0:8888]
除了用 sync 方法可以让异步操作同步以外,还可以使用回调的方式:
public static void main(String[] args) throws InterruptedException {
// 启动类
ChannelFuture channelFuture = new Bootstrap()
// 添加 EventLoop
.group(new NioEventLoopGroup())
// 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder());
}
})
// 连接到服务器
.connect(new InetSocketAddress(8888));
log.debug("{}",channelFuture.channel());
channelFuture.addListener(new ChannelFutureListener() {
@Override
public void operationComplete(ChannelFuture channelFuture) throws Exception {
log.debug("{}",channelFuture.channel());
}
});
}
- 第一次 log 时,连接未建立,打印
[id: 0x3ba3e759] - 第二次 log 时,ChannelFutureListener 会在连接建立完毕后被调用 (其中的 operationComplete 方法),因此第二次 log 时,连接肯定建立了,打印:
[id: 0x3ba3e759, L:/192.168.3.13:55552 - R:0.0.0.0/0.0.0.0:8888]
CloseFuture
package com.aodi.test.netty.close;
import io.netty.bootstrap.Bootstrap;
import io.netty.channel.Channel;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelFutureListener;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.string.StringEncoder;
import io.netty.handler.logging.LogLevel;
import io.netty.handler.logging.LoggingHandler;
import lombok.extern.slf4j.Slf4j;
import java.net.InetSocketAddress;
import java.util.Scanner;
/**
* 完美关闭 channel
*/
@Slf4j
public class CloseFutureClient {
public static void main(String[] args) throws InterruptedException {
NioEventLoopGroup loopGroup = new NioEventLoopGroup();
//1. 启动类
ChannelFuture channelFuture = new Bootstrap()
//2. 添加 EventLoop
.group(loopGroup)
//3. 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
// 加入 netty 本身的日志输出
nch.pipeline().addLast(new LoggingHandler(LogLevel.DEBUG));
nch.pipeline().addLast(new StringEncoder());
}
})
//4. 连接到服务器
// 异步非阻塞 , main 线程发起了调用 , 真正执行 connect 是 nio 线程
.connect(new InetSocketAddress(8888));
Channel channel = channelFuture.sync().channel();
log.debug("{}",channel);
new Thread(()->{
Scanner scanner = new Scanner(System.in);
while (true){
String msg = scanner.nextLine();
if ("q".equals(msg)) {
channel.close();
break;
}
channel.writeAndFlush(msg);
}
},"input").start();
// 获取 ClosedFuture 对象 1) 同步等待关闭, 2) 异步处理关闭
ChannelFuture closeFuture = channel.closeFuture();
// 1)
// closeFuture.sync();
// log.debug("处理关闭之后的操作");
// 2)
closeFuture.addListener((ChannelFutureListener) channelFuture1 -> {
log.debug("处理关闭之后的操作");
// 优雅的关闭 EventLoopGroup 中的线程
loopGroup.shutdownGracefully();
});
}
}
Netty 异步提升的是什么
总结要点:
- 单线程没法异步提升效率,必须配合多线程,多核 CPU 才能发挥出异步的优势
- 异步并没有缩短时间,反而有所增加
- 合理进行任务拆分,也是利用异步的关键
举个例子
我们去做 核酸检测 从开始 核酸检测 到 拿到结果,假设每个人需要 15 分钟,那 3 个大白同时工作 假设一天工作 8 个小时 处理的核酸报告总数就是:3 * 8 * 4 = 96
经过研究发现 每个大白在 15 分钟内最多只能 守护一个 检测人员。于是 我们将检测流程 拆分为 3 步
- 进点扫码 5 分钟
- 戳嗓子 5 分钟
- 检验出报告 5 分钟
因此可以做如下优化
- 大白1 只负责扫码
- 大白2 只负责检测
- 大白3 只负责分析出报告
只要一开始 大白2,3 要等待 5,10 分钟才能执行工作,但是只要后续的检测人员,源源不断的进入检测点,他们就能够满负荷工作,减少了线程等待的时间
3.3 Future & Promise
在进行异步处理时,经常用到这两个接口
首先要说明 netty 中的 Future 与 jdk 中的 Future 同名,但是是两个接口,netty 的 Future 继承自 jdk 的 Future ,而 Promise 又对 netty Future 进行了扩展
- jdk Future 只能同步等待任务结束 (或成功,或失败) 才能得到结果
- netty Future 可以同步等待任务结束得到结果,也可以异步方式得到结果,但都是要等任务结束
- netty Promise 不仅有 netty Future 的功能, 而且脱离了任务独立存在,只作为两个线程传递结果的容器
| 功能/名称 | JDK Future | netty Future | Promise | |
|---|---|---|---|---|
| cancel | 任务取消 | - | - | |
| isCanceled | 任务是否取消 | - | - | |
| isDone | 任务是否完成,不能区分成功/失败 | - | - | |
| get | 获取任务结果,阻塞等待 | - | - | |
| getNow | - | 获取任务结果,非阻塞,还未产生结果时返回 NULL | - | |
| await | - | 等待任务结束,如果任务失败,不会抛出异常,而是通过 isSuccess 判断 | - | |
| sync | - | 等待任务结束,如果任务失败,抛出异常 | - | |
| isSuccess | - | 判断任务是否成功 | - | |
| cause | - | 获取失败信息,非阻塞,如果没有失败,返回 NULL | - | |
| addLinstener | - | 添加回调,异步接收结果 | - | |
| setSuccess | - | - | 设置成功结果 | |
| setFailure | - | - | 设置失败结果 |
例1
同步处理任务成功
public static void main(String[] args) throws ExecutionException, InterruptedException {
// 1. 准备 EventLoop 对象
EventLoop eventLoop = new NioEventLoopGroup().next();
// 2. 可以主动创建 Promise, 结果容器
DefaultPromise<Object> promise = new DefaultPromise<>(eventLoop);
new Thread(()->{
// 3. 任意一个线程执行计算, 计算完毕后向 promise 填充结果
log.debug("开始计算.....");
try {
Thread.sleep(1000);
promise.setSuccess(100);
} catch (InterruptedException e) {
e.printStackTrace();
promise.setFailure(e);
}
}).start();
// 接收结果的线程
log.debug("等待结果......");
log.debug("结果是: {}",promise.getNow());
log.debug("结果是: {}",promise.get());
}
输出
18:59:08 [DEBUG] [main] c.a.t.f.TestNettyPromise - 等待结果......
18:59:08 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - 开始计算.....
18:59:08 [DEBUG] [main] c.a.t.f.TestNettyPromise - 结果是: null
18:59:10 [DEBUG] [main] c.a.t.f.TestNettyPromise - 结果是: 100
例2
异步处理任务成功
public static void main(String[] args) throws ExecutionException, InterruptedException {
// 1. 准备 EventLoop 对象
EventLoop eventLoop = new NioEventLoopGroup().next();
// 2. 可以主动创建 Promise, 结果容器
DefaultPromise<Object> promise = new DefaultPromise<>(eventLoop);
promise.addListener(future -> log.debug("{}", future.getNow()));
new Thread(()->{
// 3. 任意一个线程执行计算, 计算完毕后向 promise 填充结果
log.debug("开始计算.....");
try {
Thread.sleep(1000);
promise.setSuccess(100);
} catch (InterruptedException e) {
e.printStackTrace();
promise.setFailure(e);
}
}).start();
// 接收结果的线程
log.debug("等待结果......");
}
输出
19:03:02 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - 开始计算.....
19:03:02 [DEBUG] [main] c.a.t.f.TestNettyPromise - 等待结果......
19:03:03 [DEBUG] [nioEventLoopGroup-2-1] c.a.t.f.TestNettyPromise - 100
例3
同步处理任务失败 - sync & get
public static void main(String[] args) throws ExecutionException, InterruptedException {
// 1. 准备 EventLoop 对象
EventLoop eventLoop = new NioEventLoopGroup().next();
// 2. 可以主动创建 Promise, 结果容器
DefaultPromise<Object> promise = new DefaultPromise<>(eventLoop);
new Thread(()->{
// 3. 任意一个线程执行计算, 计算完毕后向 promise 填充结果
log.debug("开始计算.....");
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
RuntimeException e = new RuntimeException("error...");
log.debug("set failure, {}", e.toString());
promise.setFailure(e);
}).start();
// 接收结果的线程
log.debug("等待结果......");
log.debug("结果是: {}",promise.getNow());
log.debug("结果是: {}",promise.get()); // sync() 也会出现异常,只是 get 会再赢 ExecutionException 包一层异常
输出
19:11:48 [DEBUG] [main] c.a.t.f.TestNettyPromise - 等待结果......
19:11:48 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - 开始计算.....
19:11:48 [DEBUG] [main] c.a.t.f.TestNettyPromise - 结果是: null
19:11:49 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - set failure, java.lang.RuntimeException: error...
Exception in thread "main" java.util.concurrent.ExecutionException: java.lang.RuntimeException: error...
at io.netty.util.concurrent.DefaultPromise.get(DefaultPromise.java:350)
at com.aodi.test.future.TestNettyPromise.main(TestNettyPromise.java:42)
Caused by: java.lang.RuntimeException: error...
at com.aodi.test.future.TestNettyPromise.lambda$main$0(TestNettyPromise.java:34)
at java.base/java.lang.Thread.run(Thread.java:834)
例3+1
同步处理任务失败 - await
public static void main(String[] args) throws ExecutionException, InterruptedException {
// 1. 准备 EventLoop 对象
EventLoop eventLoop = new NioEventLoopGroup().next();
// 2. 可以主动创建 Promise, 结果容器
DefaultPromise<Object> promise = new DefaultPromise<>(eventLoop);
new Thread(()->{
// 3. 任意一个线程执行计算, 计算完毕后向 promise 填充结果
log.debug("开始计算.....");
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
RuntimeException e = new RuntimeException("error...");
log.debug("set failure, {}", e.toString());
promise.setFailure(e);
}).start();
// 接收结果的线程
log.debug("等待结果......");
log.debug("结果是: {}",promise.getNow());
promise.await(); // 与 sync 和 get 的区别在于, await 不会抛异常
log.debug("结果是: {}",(promise.isSuccess() ? promise.getNow() : promise.cause()).toString());
}
输出
19:17:17 [DEBUG] [main] c.a.t.f.TestNettyPromise - 等待结果......
19:17:17 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - 开始计算.....
19:17:17 [DEBUG] [main] c.a.t.f.TestNettyPromise - 结果是: null
19:17:18 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - set failure, java.lang.RuntimeException: error...
19:17:18 [DEBUG] [main] c.a.t.f.TestNettyPromise - 结果是: java.lang.RuntimeException: error...
例5
异步处理任务失败
public static void main(String[] args) throws ExecutionException, InterruptedException {
// 1. 准备 EventLoop 对象
EventLoop eventLoop = new NioEventLoopGroup().next();
// 2. 可以主动创建 Promise, 结果容器
DefaultPromise<Object> promise = new DefaultPromise<>(eventLoop);
promise.addListener(future -> log.debug("result: {}", (future.isSuccess() ? future.getNow() : future.cause()).toString()));
new Thread(()->{
// 3. 任意一个线程执行计算, 计算完毕后向 promise 填充结果
log.debug("开始计算.....");
try {
Thread.sleep(1000);
} catch (InterruptedException e) {
e.printStackTrace();
}
RuntimeException e = new RuntimeException("error...");
log.debug("set failure, {}", e.toString());
promise.setFailure(e);
}).start();
// 接收结果的线程
log.debug("等待结果......");
}
输出
19:21:24 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - 开始计算.....
19:21:24 [DEBUG] [main] c.a.t.f.TestNettyPromise - 等待结果......
19:21:25 [DEBUG] [Thread-0] c.a.t.f.TestNettyPromise - set failure, java.lang.RuntimeException: error...
19:21:25 [DEBUG] [nioEventLoopGroup-2-1] c.a.t.f.TestNettyPromise - result: java.lang.RuntimeException: error...
例6
await 死锁检查
public static void main(String[] args) {
DefaultEventLoop eventExecutors = new DefaultEventLoop();
DefaultPromise<Integer> promise = new DefaultPromise<>(eventExecutors);
eventExecutors.submit(()->{
log.debug("1");
try {
promise.await();
// 注意: 不能仅捕获 InterruptedException 异常
// 否则 死锁检查抛出的 BlockingOperationException 会继续向上传播
// 而提交的任务会被包装为 PromiseTask, 它的 run 方法会 catch 所有异常然后设置为 Promise 的失败结果而不会抛出
} catch (Exception e) {
e.printStackTrace();
}
log.debug("2");
});
eventExecutors.submit(()->{
log.debug("3");
try {
promise.await();
} catch (Exception e) {
e.printStackTrace();
}
log.debug("5");
});
}
输出
19:44:53 [DEBUG] [defaultEventLoop-1-1] c.a.t.f.TestAwait - 1
19:44:53 [DEBUG] [defaultEventLoop-1-1] c.a.t.f.TestAwait - 2
19:44:53 [DEBUG] [defaultEventLoop-1-1] c.a.t.f.TestAwait - 3
19:44:53 [DEBUG] [defaultEventLoop-1-1] c.a.t.f.TestAwait - 5
io.netty.util.concurrent.BlockingOperationException: DefaultPromise@71f9f57a(incomplete)
at io.netty.util.concurrent.DefaultPromise.checkDeadLock(DefaultPromise.java:462)
at io.netty.util.concurrent.DefaultPromise.await(DefaultPromise.java:247)
at com.aodi.test.future.TestAwait.lambda$main$0(TestAwait.java:21)
at io.netty.util.concurrent.PromiseTask.runTask(PromiseTask.java:98)
at io.netty.util.concurrent.PromiseTask.run(PromiseTask.java:106)
at io.netty.util.concurrent.AbstractEventExecutor.runTask(AbstractEventExecutor.java:174)
at io.netty.channel.DefaultEventLoop.run(DefaultEventLoop.java:54)
at io.netty.util.concurrent.SingleThreadEventExecutor$4.run(SingleThreadEventExecutor.java:995)
at io.netty.util.internal.ThreadExecutorMap$2.run(ThreadExecutorMap.java:74)
at io.netty.util.concurrent.FastThreadLocalRunnable.run(FastThreadLocalRunnable.java:30)
at java.base/java.lang.Thread.run(Thread.java:834)
io.netty.util.concurrent.BlockingOperationException: DefaultPromise@71f9f57a(incomplete)
at io.netty.util.concurrent.DefaultPromise.checkDeadLock(DefaultPromise.java:462)
at io.netty.util.concurrent.DefaultPromise.await(DefaultPromise.java:247)
at com.aodi.test.future.TestAwait.lambda$main$1(TestAwait.java:34)
at io.netty.util.concurrent.PromiseTask.runTask(PromiseTask.java:98)
at io.netty.util.concurrent.PromiseTask.run(PromiseTask.java:106)
at io.netty.util.concurrent.AbstractEventExecutor.runTask(AbstractEventExecutor.java:174)
at io.netty.channel.DefaultEventLoop.run(DefaultEventLoop.java:54)
at io.netty.util.concurrent.SingleThreadEventExecutor$4.run(SingleThreadEventExecutor.java:995)
at io.netty.util.internal.ThreadExecutorMap$2.run(ThreadExecutorMap.java:74)
at io.netty.util.concurrent.FastThreadLocalRunnable.run(FastThreadLocalRunnable.java:30)
at java.base/java.lang.Thread.run(Thread.java:834)
3.3 + 1 Handler & Pipeline
ChannelHandler 用来处理 Channel 上的各种事件,分为入站、出站两种。所有的 ChannelHandler 被连成一串,就是 Pipeline
- 入站处理器通常是 ChannelInboundHandlerAdapter 的子类, 主要用来读取客户端数据,写回结果
- 出站处理器通常是 ChannelOutboundHandlerAdapter 的子类,主要对写回结果进行加工
打个比喻,每个 Channel 是一个产品的加工车间,Pipeline 是车间的流水线, ChannelHandler 就是流水线的各道工序,而后面要讲的 ByteBuf 是原材料,经过很多工序的加工:先经过一道道入站工序,再经过一道道出站工序最终产品
先搞清楚顺序,服务端
public static void main(String[] args) {
NioEventLoopGroup group = new NioEventLoopGroup();
new ServerBootstrap()
.group(group)
.channel(NioServerSocketChannel.class)
.childHandler(new ChannelInitializer<NioSocketChannel>() {
@Override
protected void initChannel(NioSocketChannel nioSocketChannel) throws Exception {
// 1. 通过 channel 拿到 pipeline
ChannelPipeline pipeline = nioSocketChannel.pipeline();
// 2. 添加处理器 head -> h1 -> h2 -> h3 -> o1 -> o2 -> o3 -> tail
pipeline.addLast("1",new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
log.debug("i1");
ByteBuf byteBuf = (ByteBuf) msg;
super.channelRead(ctx, byteBuf.toString(Charset.defaultCharset())); // 1
}
});
pipeline.addLast("i2",new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
log.debug("i2");
Student student = new Student(msg.toString());
super.channelRead(ctx, student);// 2 // 将数据传递给 下个 handler, 如果不调用 调用链就会断开
}
});
pipeline.addLast("i3",new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
log.debug("i3");
Student student = new Student(msg.toString());
log.debug("{}",student);
log.debug("class:{}",student.getClass());
// 写入
nioSocketChannel.writeAndFlush(ctx.alloc().buffer().writeBytes("server".getBytes())); // 3
}
});
pipeline.addLast("o1",new ChannelOutboundHandlerAdapter(){
@Override
public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
log.debug("o1");
super.write(ctx, msg, promise); // 3 + 1
}
});
pipeline.addLast("o2",new ChannelOutboundHandlerAdapter(){
@Override
public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
log.debug("o2");
super.write(ctx, msg, promise); // 5
}
});
pipeline.addLast("o3",new ChannelOutboundHandlerAdapter(){
@Override
public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
log.debug("o3");
super.write(ctx, msg, promise); // 6
}
});
}
}).bind(8888);
}
@Data
@AllArgsConstructor
static class Student {
private String name;
}
客户端
public static void main(String[] args) throws InterruptedException {
//1. 启动类
ChannelFuture channelFuture = new Bootstrap()
//2. 添加 EventLoop
.group(new NioEventLoopGroup())
//3. 选择客户端 channel 实现
.channel(NioSocketChannel.class)
// 添加处理器
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override // 在连接建立之后被 调用
protected void initChannel(NioSocketChannel nch) throws Exception {
nch.pipeline().addLast(new StringEncoder()); // 8.
}
})
//4. 连接到服务器
// 异步非阻塞 , main 线程发起了调用 , 真正执行 connect 是 nio 线程
.connect(new InetSocketAddress(8888));
channelFuture.addListener((ChannelFutureListener) channelFuture1 -> {
Channel channel = channelFuture1.channel();
log.debug("{}",channel);
channel.writeAndFlush("I love you");
});
}
服务器端打印
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - i1
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - i2
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - i3
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - TestPipeline.Student(name=TestPipeline.Student(name=I love you))
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - class:class com.aodi.test.netty.pipeline.TestPipeline$Student
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - o3
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - o2
20:04:30 [DEBUG] [nioEventLoopGroup-2-3] c.a.t.n.p.TestPipeline - o1
可以看到,ChannelInboundHandlerAdapter 是按照 addLast 的顺序执行的,而 ChannelOutboundHandlerAdapter 是按照 addLast 的 逆序执行的。ChannelPipline 的实现是一个 ChannelHandlerContext (包装了 ChannelHandler) 组成的双向链表
- 入站处理器中,ctx.fireChannelRead(msg) 是 调用下一个入站处理器
- 如果注释 1 处的代码,则仅会打印 1
- 如果注释 2 出的代码,则仅会打印 1 2
- 调用 ctx.fireChannelRead(msg) 是 将数据传递给 下个 handler, 如果不调用 调用链就会断开
- super.channelRead(ChannelHandlerContext ctx, Object msg) 是将消息交给下一个任务处理器处理
- 3 处的 ctx.channel().write(msg) 会 从尾部开始触发 后续出站处理器的执行
- 如果注释 3 处的代码,则仅会打印 1 2 3,因为 3 处调用的是 ==写出== 逻辑,不调用写出,剩下的出站处理器就不会执行
- 类似的,出站处理器中,ctx.write(msg,promise) 的调用也会 触发上一个出站处理器,因为出站的处理器是从尾部开始执行的
- ctx.channel.write(msg) vs ctx.write(msg)
- 都是触发出站处理器执行
- ctx.channel().wirte(msg) 从尾部开始查找出站处理器
- ctx.write(msg) 是从当前节点找上一个出站处理器
- 3 处的 ctx.channel().write(msg) 如果改为 ctx.write(ctx, msg, promise) 仅会打印 1 2 3, 因为节点 3 之前没有其他出站处理器了
- 6 处的 ctx.write(ctx, msg, promise) 如果改为 ctx.channel().write(msg) 仅会打印 1 2 3 6 6 6.... 因为 ctx.channel().write(msg) 是从尾部开始查找,6处本身就是最后一个出站处理器,所以会不停的打印
服务端的 pipeline 触发的原始流程,图中数字代表了处理步骤的先后次序
head and tail
head: 数据入站的第一个 handler
tail: 数据出站的第一个 handler
3.5 ByteBuf
是对字节数据的封装
1 创建
ByteBuf buffer = ByteBufAllocator.DEFAULT.buffer(10);
log(buffer);
上面代码创建了一个默认的 ByteBuf (池化基于直接内存的 ByteBuf), 初始容量是 10
池化:从内存池里拿到的内存,使用完毕后放回到内存池
直接内存:计算机的物理内存,不是 JVM 的内存,不受 GC 垃圾回收机制的影响
输出
read index:0 write index:0 capacity:10
log方法
public static void log(ByteBuf buffer) {
int length = buffer.readableBytes();
int rows = length / 16 + (length % 15 == 0 ? 0 : 1) + 4;
StringBuilder buf = new StringBuilder(rows * 80 * 2)
.append("read index:").append(buffer.readerIndex())
.append(" write index:").append(buffer.writerIndex())
.append(" capacity:").append(buffer.capacity())
.append(NEWLINE);
appendPrettyHexDump(buf, buffer);
System.out.println(buf.toString());
}
2 直接内存 vs 堆内存
创建池化基于==堆内存==的 ByteBuf
ByteBuf byteBuf = ByteBufAllocator.DEFAULT.heapBuffer(10);
创建池化基于==直接内存==的 ByteBuf
ByteBuf byteBuf1 = ByteBufAllocator.DEFAULT.directBuffer(10); // 池化 直接内存
- 直接内存创建和销毁的代价昂贵,单读写性能高 (少一次内存复制, 直接操作计算机内存,无需读取到 JVM) ,适合配合池化功能一起使用
- 直接内存对 GC 压力小,因为这部分内存不受 JVM 垃圾回收的管理,但也要注意及时释放
3 池化 vs 非池化
池化的最大意义在于可以重用 ByteBuf , 优点有
- 没有池化,则每次都是创建新的 ByteBuf 实例,这个操作对直接内存代价昂贵,就算是堆内存,也会增加 GC 压力
- 有了池化,则可以重用池中的 ByteBuf 实例,并且采用了与 jemalloc 类似的内存分配算法提升分配效率
- 高并发时,池化功能更能节约内存,减少内存溢出的可能
池化功能是否开启,可以通过下面的系统环境变量来设置
-Dio.netty.allocator.type={unpooled|pooled}
unpooled 关闭
pooled 开启
- 4.1 以后,非 Android 平台默认启用池化实现,Android 平台启用非池化实现
- 4.1 以前,池化功能还不成熟,默认是非池化实现
3 + 1 组成
ByteBuf 由四部分组成
最开始读写指针都在 0 位置
5 写入
方法列表,省略一些不重要的方法
| 方法名 | 含义 | 备注 |
|---|---|---|
| writeBoolean(boolean value) | 写入Boolean 值 | 用一字节 01|00 代表 true|false |
| writeByte(int value) | 写入 byte 值 | |
| writeShort(int value) | 写入 short 值 | |
| writeInt(int value) | 写入 int 值 | Big Endian, 即 0x250,写入后 00 00 02 50 |
| writeIntLE(int value) | 写入 int 值 | Little Endian,即 0x250,写入后 50 02 00 00 |
| writeLong(long value) | 写入 long 值 | |
| writeChar(int value) | 写入 char 值 | |
| writeFloat(float value) | 写入 float 值 | |
| writeDouble(double value) | 写入 double 值 | |
| writeBytes(ByteBuf src) | 写入 netty 的 ByteBuf | |
| writeBytes(byte[] src) | 写入 byte[] | |
| writeByte(ByteBuffer src ) | 写入 nio 的 ByteBuffer | |
| int writeCharSequence(CharSequence sequence,Charset charset) | 写入字符串 | |
注意:
- 这些方法的未指明返回值的,其返回值都是 ByteBuf , 意味着可以链式调用
- 网络传输,默认习惯是 Big Endian
先写入 5 个字节
buffer.writeBytes(new byte[]{1,2,3,4,5});
log(buffer);
结果是
read index:0 write index:5 capacity:10
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 |..... |
+--------+-------------------------------------------------+----------------+
再写入一个 int 整数,是 4 个字节
buffer.writeInt(6);
log(buffer);
结果是
read index:0 write index:9 capacity:10
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 00 00 00 06 |......... |
+--------+-------------------------------------------------+----------------+
还有一类方法是 set 开头的一系列方法,也可以写入数据,但不会改变写指针位置
6 扩容
再写入一个 int 整数时,容量不够了 (初始容量是 10),这时会引发扩容
buffer.writeInt(7);
log(buffer)
扩容规则是
- 如果写入后数据大小未超过 512 ,则选择下一个 16 的整数倍,例如写入后大小为 12 ,则扩容后 capacity 是 16
- 如果写入后数据大小超过 512,则选择下一个 2^n ,例如写入后大小为 513, 则扩容后 capacity 是 2^10=1024 (2^9=512 已经不够了)
- 扩容不能超过 max capacity 会报错
结果是
read index:0 write index:13 capacity:16
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 00 00 00 06 00 00 00 07 |............. |
+--------+-------------------------------------------------+----------------+
7 读取
例如读了 5 次,每次一个字节
System.out.println(buffer.readByte());
System.out.println(buffer.readByte());
System.out.println(buffer.readByte());
System.out.println(buffer.readByte());
System.out.println(buffer.readByte());
log(buffer);
读过的内容,就属于废弃部分了,再读只能读那些尚未读取的部分
read index:0 write index:13 capacity:16
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 00 00 00 06 00 00 00 07 |............. |
+--------+-------------------------------------------------+----------------+
1
2
3
4
5
read index:5 write index:13 capacity:16
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 00 00 00 06 00 00 00 07 |........ |
+--------+-------------------------------------------------+----------------+
如果需要重复读取 整数 6 怎么办
可以在 read 前做个标记 mark
// mark 标记
buffer.markReaderIndex();
System.out.println(buffer.readInt());
log(buffer);
结果
6
read index:9 write index:13 capacity:16
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 00 00 00 07 |.... |
+--------+-------------------------------------------------+----------------+
这时要重复读取的话,重置到标记位置 reset
// 读指针 重置到 mark 标记点
buffer.resetReaderIndex();
log(buffer);
这时
read index:5 write index:13 capacity:16
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 00 00 00 06 00 00 00 07 |........ |
+--------+-------------------------------------------------+----------------+
还有种办法是采用的 get 开头的 一系列方法,这些方法不会改变 read index
8 retain & release
由于 Netty 中有堆外内存的 ByteBuf 实现,堆外内存最好是手动来释放,而不是等 GC 垃圾回收
- UnpooledHeapByteBuf 使用的是 JVM 内存,只需等 GC 回收内存即可
- UnpooledDirectByteBuf 使用的是直接内存了,需要特殊的方法来回收内存
- PooledByteBuf 和它的子类使用了池化机制,需要更复杂的规则来回收内存
回收内存的源码实现,请关注下面方法的不同实现
protected abstract void deallocate()
Netty 这里采用了引用计数法来控制回收内存,每个 ByteBuf 都实现了 ReferenceCounted 接口
- 每个 ByteBuf 对象的初始计数为 1
- 调用 release 方法计数减 1,如果计数为 0,ByteBuf 内存被回收
- 调用 retain 方法计数加 1,表示调用者没用完之前,其他 handler 即使调用了 release 也不会造成回收
- 当计数为 0 是,底层内存会被回收,这时即使 ByteBuf 对象还在,其各个方法均无法正常使用
谁来负责 release 呢?
想象中的代码
ByteBuf buf = ....
try {
...
} finally {
buf.release();
}
因为 pipeline 的存在,一般需要将 ByteBuf 传递给下一个 ChannelHandler, 如果在finally 中 release 了,就失去了传递性 (当然,如果在这个 ChannelHandler 内这个 ByteBuf 已经完成了它的使命,那么便无需再传递)
基本规则是,谁是最后使用者,谁负责 release ,详细分析如下
- 起点, 对于 NIO 实现来说,在 io.netty.channel.nio.AbstractNioByteChannel.NioByteUnsafe#read方法中首次创建 ByteBuf 放入 pipline (pipeline.fireChannelRead(byteBuf))
- 入站 ByteBuf 处理原则
- 对原始 ByetBuf 不做处理,调用 ctx.fireChannelRead(msg) 向后传递,这时无需 release
- 将原始 ByetBuf 转换为其他类型的 Java 对象,这时 ByteBuf 就没用了, 必须 release
- 如果不调用 ctx.fireChannelRead(msg) 或者 super.channelRead(ChannelHandlerContext ctx, Object msg) 向后传递,那么也必须 release
- 注意各种异常,如果 ByteBuf 没有成功传递到下一个 ChannelHandler, 必须 release
- 假设消息一直向后传,那么 TailContext 会负责释放未处理消息 (原始的 ByteBuf)
- 出站 ByteBuf 处理原则
- 出站消息最终都会转为 ByteBuf 输出,一直向前传,由 HeadContext flush 后 release
- 异常处理原则
- 有时候不清楚 ByteBuf 被引用了多少次,但又必须彻底释放,可以循环调用 release 直到返回 true
TailContext 释放未处理消息逻辑
// io.netty.channel.DefaultChannelPipeline#onUnhandledInboundMessage(java.lang.Object)
protected void onUnhandledInboundMessage(Object msg) {
try {
logger.debug(
"Discarded inbound message {} that reached at the tail of the pipeline. " +
"Please check your pipeline configuration.", msg);
} finally {
ReferenceCountUtil.release(msg);
}
}
具体代码
// io.netty.util.ReferenceCountUtil#release(java.lang.Object)
public static boolean release(Object msg) {
if (msg instanceof ReferenceCounted) {
return ((ReferenceCounted) msg).release();
}
return false;
}
9 slice
【零拷贝】的体现之一,对原始 ByteBuf 进行切片成多个 ByetBuf, 切片后的 ByteBuf 并没有发生内存复制,还是使用原始 ByteBuf 的 内存,切片后的 ByteBuf 维护独立的 read ,write 指针
例,原始 ByteBuf 进行一些初始操作
ByteBuf origin = ByteBufAllocator.DEFAULT.buffer(10);
origin.writeBytes(new byte[]{1,2,3,4,5,6,7,8,9,0});
origin.readByte();
System.out.println(ByteBufUtil.prettyHexDump(origin));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 02 03 04 05 06 07 08 09 00 |......... |
+--------+-------------------------------------------------+----------------+
这时调用 slice 进行切片,无参 slice 是从原始的 ByteBuf 的 read index 到 write index 之间的内容进行切片,切片后的 max capacity 被固定为这个区间的大小,因此不能追加 write
ByteBuf slice1 = origin.slice(0,5);
ByteBuf slice2 = origin.slice(5,5);
//slice1.writeByte(9); 如果执行,会报 IndexOutOfBoundsException 异常
System.out.println(ByteBufUtil.prettyHexDump(slice1));
System.out.println(ByteBufUtil.prettyHexDump(slice2));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 |..... |
+--------+-------------------------------------------------+----------------+
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 06 07 08 09 00 |..... |
+--------+-------------------------------------------------+----------------+
如果原始 ByteBuf 又读取了一个字节
origin.readByte();
System.out.println(ByteBufUtil.prettyHexDump(origin));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 03 04 05 06 07 08 09 00 |........ |
+--------+-------------------------------------------------+----------------+
这时的 slice 不受影响,因为它有独立的读写指针
System.out.println(ByteBufUtil.prettyHexDump(slice1));
System.out.println(ByteBufUtil.prettyHexDump(slice2));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 |..... |
+--------+-------------------------------------------------+----------------+
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 06 07 08 09 00 |..... |
+--------+-------------------------------------------------+----------------+
如果 slice 的值发生了改变
slice1.setByte(2,9);
System.out.println(ByteBufUtil.prettyHexDump(slice1));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 09 04 05 |..... |
+--------+-------------------------------------------------+----------------+
这时,原始的 ByteBuf 也会受影响,因为底层都是同一块内存
System.out.println(ByteBufUtil.prettyHexDump(origin));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 09 04 05 06 07 08 09 00 |.......... |
+--------+-------------------------------------------------+----------------+
10 duplicate
【零拷贝】的体现之一,就好比截取了原始 ByteBuf 所有内容,并且没有限制 max capacity 的限制,截取的部分与原始 ByteBuf 使用同一块内存,只是读写指针是独立的
11 copy
会将底层数据进行深拷贝,因此无论读写,都与原始 ByteBuf 无关
- 浅拷贝:在拷贝一个对象时,对对象的基本数据类型的成员变量进行拷贝,但对引用类型的成员变量只进行引用的传递,并没有创建一个新的对象,当对引用类型的内容修改会影响被拷贝的对象。
- 深拷贝:在拷贝一个对象时,对对象的基本数据类型的成员变量进行拷贝,对引用类型的成员变量只进行拷贝时,创建一个新的对象,来保存新的对象保存引用类型的成员变量
12 CompositeByteBuf
【零拷贝】 的提现之一,可以将多个 ByteBuf 合并为一个逻辑上的 ByteBuf , 避免拷贝
有两个 ByetBuf 如下
ByteBuf buf1 = ByteBufAllocator.DEFAULT.buffer(5);
buf1.writeBytes(new byte[]{1,2,3,4,5});
ByteBuf buf2 = ByteBufAllocator.DEFAULT.buffer(5);
buf2.writeBytes(new byte[]{6,7,8,9,10});
System.out.println(ByteBufUtil.prettyHexDump(buf1));
System.out.println(ByteBufUtil.prettyHexDump(buf2));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 |..... |
+--------+-------------------------------------------------+----------------+
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 06 07 08 09 0a |..... |
+--------+-------------------------------------------------+----------------+
现需要一个新的 ByteBuf, 内容来自于刚刚的 buf1 和 buf2
方法1
ByteBuf buf3 = ByteBufAllocator.DEFAULT.buffer(buf1.readableBytes() + buf2.readableBytes());
buf3.writeBytes(buf1);
buf3.writeBytes(buf2);
System.out.println(ByteBufUtil.prettyHexDump(buf3));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 06 07 08 09 0a |.......... |
+--------+-------------------------------------------------+----------------+
这样虽然可以完成需求,但是还是进行了,数据的内存复制操作
方法 2:
CompositeByteBuf buf3 = ByteBufAllocator.DEFAULT.compositeBuffer();
// true 表示增加新的 ByteBuf 自动递增 write index, 否则 write index 会始终为 0
buf3.addComponents(true,buf1,buf2);
System.out.println(ByteBufUtil.prettyHexDump(buf3));
结果是一样的
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 06 07 08 09 0a |.......... |
+--------+-------------------------------------------------+----------------+
CompositeByteBuf 是一个组合的 ByteBuf, 它内部维护了一个 Componet 数组,每个 Componet 管理一个 ByteBuf , 记录了这个 ByteBuf 相对于整体偏移量等信息,代表着整体中某一段的数据。
- 优点, 对外是一个虚拟视图,组合这些 ByteBuf 不会产生内存复制
- 缺点,复杂了很多,多次操作会带来性能的损耗
13 Unpooled
Unpooled 是一个工具类,类如其名,提供了非池化的 ByteBuf 创建,组合,复制等操作
Unpooled 零拷贝
ByteBuf buf1 = ByteBufAllocator.DEFAULT.buffer(5);
buf1.writeBytes(new byte[]{1,2,3,4,5});
ByteBuf buf2 = ByteBufAllocator.DEFAULT.buffer(5);
buf2.writeBytes(new byte[]{6,7,8,9,10});
// 当包装 ByteBuf 个数超过 一个时, 底层使用了 CompositeByteBuf
ByteBuf buf3 = Unpooled.wrappedBuffer(buf1, buf2);
System.out.println(ByteBufUtil.prettyHexDump(buf3));
输出
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 04 05 06 07 08 09 0a |.......... |
+--------+-------------------------------------------------+----------------+
也可以用来包装普通字节数组,底层也不会有拷贝操作
ByteBuf buf3 = Unpooled.wrappedBuffer(new byte[]{1, 2, 3}, new byte[]{7, 8, 9});
System.out.println(buf3.getClass());
System.out.println(ByteBufUtil.prettyHexDump(buf3));
输出
class io.netty.buffer.CompositeByteBuf
+-------------------------------------------------+
| 0 1 2 3 4 5 6 7 8 9 a b c d e f |
+--------+-------------------------------------------------+----------------+
|00000000| 01 02 03 07 08 09 |...... |
+--------+-------------------------------------------------+----------------+
ByteBuf 优势
- 池化 - 可以重用池中 ByteBuf 实例,更节约内存,减少内存溢出的可能
- 读写分离指针,不需要像 ByteBuf 一样切换读写模式
- 可以自动扩容
- 支持链式调用,使用更流畅
- 很多地方体现零拷贝,例如: slice ,duplicate ,CompositeByteBuf
双向通信
demo, 客户端发送什么,服务器端返回什么
server
package com.aodi.test.echo;
import io.netty.bootstrap.ServerBootstrap;
import io.netty.buffer.ByteBuf;
import io.netty.buffer.ByteBufUtil;
import io.netty.channel.*;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.channel.socket.nio.NioSocketChannel;
import lombok.extern.slf4j.Slf4j;
import java.nio.charset.Charset;
@Slf4j
public class EchoServer {
public static void main(String[] args) {
new ServerBootstrap()
.group(new NioEventLoopGroup())
.channel(NioServerSocketChannel.class)
.childHandler(new ChannelInitializer<NioSocketChannel>() {
@Override
protected void initChannel(NioSocketChannel nioSocketChannel) throws Exception {
ChannelPipeline pipeline = nioSocketChannel.pipeline();
pipeline.addLast(new ChannelInboundHandlerAdapter(){
// 客户端报文
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
log.debug("{}",ByteBufUtil.prettyHexDump(buf));
super.channelRead(ctx,buf.toString(Charset.defaultCharset()));
}
});
// 下发指令到客户端
pipeline.addLast(new ChannelInboundHandlerAdapter(){
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
log.debug("{}",msg.toString());
log.debug("{}",msg.toString().getBytes());
ctx.channel().writeAndFlush(ctx.alloc().buffer().writeBytes(msg.toString().getBytes()));
}
});
pipeline.addLast(new ChannelOutboundHandlerAdapter(){
@Override
public void write(ChannelHandlerContext ctx, Object msg, ChannelPromise promise) throws Exception {
super.write(ctx, msg, promise);
}
});
}
}).bind(8888);
}
}
client
package com.aodi.test.echo;
import io.netty.bootstrap.Bootstrap;
import io.netty.buffer.ByteBuf;
import io.netty.buffer.ByteBufUtil;
import io.netty.channel.*;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioSocketChannel;
import io.netty.handler.codec.string.StringEncoder;
import lombok.extern.slf4j.Slf4j;
import java.net.InetSocketAddress;
import java.util.Scanner;
@Slf4j
public class EchoClient {
public static void main(String[] args) throws InterruptedException {
NioEventLoopGroup eventExecutors = new NioEventLoopGroup();
ChannelFuture future = new Bootstrap()
.group(eventExecutors)
.channel(NioSocketChannel.class)
.handler(new ChannelInitializer<NioSocketChannel>() {
@Override
protected void initChannel(NioSocketChannel nioSocketChannel) throws Exception {
ChannelPipeline pipeline = nioSocketChannel.pipeline();
// 字符串处理
pipeline.addLast(new StringEncoder());
pipeline.addLast(new ChannelInboundHandlerAdapter(){
// 接收服务器下发数据
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf = (ByteBuf) msg;
log.debug("{}", ByteBufUtil.prettyHexDump(buf));
super.channelRead(ctx, msg);
}
});
}
}).connect(new InetSocketAddress(8888));
// 同步等待连接建立完成
Channel channel = future.sync().channel();
new Thread(()->{
while (true){
Scanner scanner = new Scanner(System.in);
String msg = scanner.nextLine();
if ("exit".equals(msg)) {
channel.close();
break;
}
channel.writeAndFlush(msg);
}
},"input").start();
ChannelFuture closeFuture = channel.closeFuture();
// 异步关闭资源
closeFuture.addListener((ChannelFutureListener) channelFuture -> {
// 关闭
eventExecutors.shutdownGracefully();
});
}
}
读和写的误解
我最开始在认识上有这样的误区,认为只有在 netty ,nio 这样的多路复用 IO 模型时,读写才不会互相阻塞,才可以实现高效的双向通信,但实际上,JAVA Socket 是全双工的:在任意时刻,线路上存在 A 到 B 和 B 到 A 的双向信号传输。即使是阻塞 IO,读写也是可以同时进行的,只要分别采用读线程和写线程即可,读不会阻塞,写也不会阻塞。
引用
public class TestServer {
public static void main(String[] args) throws IOException {
ServerSocket ss = new ServerSocket(8888);
Socket s = ss.accept();
new Thread(() -> {
try {
BufferedReader reader = new BufferedReader(new InputStreamReader(s.getInputStream()));
while (true) {
System.out.println(reader.readLine());
}
} catch (IOException e) {
e.printStackTrace();
}
}).start();
new Thread(() -> {
try {
BufferedWriter writer = new BufferedWriter(new OutputStreamWriter(s.getOutputStream()));
// 例如在这个位置加入 thread 级别断点,可以发现即使不写入数据,也不妨碍前面线程读取客户端数据
for (int i = 0; i < 100; i++) {
writer.write(String.valueOf(i));
writer.newLine();
writer.flush();
}
} catch (IOException e) {
e.printStackTrace();
}
}).start();
}
}
客户端
public class TestClient {
public static void main(String[] args) throws IOException {
Socket s = new Socket("localhost", 8888);
new Thread(() -> {
try {
BufferedReader reader = new BufferedReader(new InputStreamReader(s.getInputStream()));
while (true) {
System.out.println(reader.readLine());
}
} catch (IOException e) {
e.printStackTrace();
}
}).start();
new Thread(() -> {
try {
BufferedWriter writer = new BufferedWriter(new OutputStreamWriter(s.getOutputStream()));
for (int i = 0; i < 100; i++) {
writer.write(String.valueOf(i));
writer.newLine();
writer.flush();
}
} catch (IOException e) {
e.printStackTrace();
}
}).start();
}
}