Java核心之文件复制,ZERO COPY 是啥?

851 阅读9分钟

Java 有几种文件拷贝方式?哪一种最高效?

1. 利用 java.io 类库,直接为源文件构建一个 FileInputStream 读取,然后再为目标文件构建一个 FileOutputStream,完成写入。

public static void copyFileByStream(File source, File dest) throws
        IOException {
    try (InputStream is = new FileInputStream(source);
         OutputStream os = new FileOutputStream(dest);){
        byte[] buffer = new byte[1024];
        int length;
        while ((length = is.read(buffer)) > 0) {
            os.write(buffer, 0, length);
        }
    }
 }

2. 利用 java.nio 类库提供的 transferTo 或 transferFrom 方法实现


public static void copyFileByChannel(File source, File dest) throws
        IOException {
    try (FileChannel sourceChannel = new FileInputStream(source)
            .getChannel();
         FileChannel targetChannel = new FileOutputStream(dest).getChannel
                 ();){
        for (long count = sourceChannel.size() ;count>0 ;) {
            long transferred = sourceChannel.transferTo(
                    sourceChannel.position(), count, targetChannel);            sourceChannel.position(sourceChannel.position() + transferred);
            count -= transferred;
        }
    }
 }

Java标准类库本身已经提供了集中File.copy的实现,对于Copy的效率,这个其实与操作系统的配置情况相互黏连,总体来说,NIO transferTo/From的方式大多数情况下更快,因为可以利用操作系统的底层机制,避免不必要的拷贝和上下文的切换。

拷贝分析

从实践角度来讲,NIO transfer的方案并不是百分之百是最快的,真是情况未必如果,从技术的情况,有一下的几个方面值得注意

  1. 不同的copy方式,底层机制有什么区别?
  2. 为什么零拷贝(zero-copy)可能有性能优势?
  3. BUffer分类与使用。
  4. Direct Buffer对垃圾收集等方面的影响

1. 拷贝实现机制分析

不同的拷贝方法,本质上有什么明显的区别. 首先,操作系统存在 用户态空间(User Space) 和 内核态空间(Kernel Space),这是操作系统的基本概念,操作系统内核,硬件驱动等运行在内核态空间,具有相对高的特权;然而用户态空间,则是给普通用户和服务使用。

两种态CPU程序编写
用户态CPU访问资源有限程序可靠性、安全性要求低程序编写简单
内核态CPU可以访问任何资源程序可靠性、安全性要求高编写维护成本高

当我们使用输入输出流进行读写时,实际上进行了多次上下文切换,比如应用读取数据是,先在内核态将数据从磁盘读取到内核缓存,再切换到用户态将数据从内核缓存读取到用户缓存。 写入操作原理相同,步骤相反

image.png

而基于 NIO transferTo 的实现方式,在 Linux 和 Unix 上,则会使用到零拷贝技术,数据传输并不需要用户态参与,省去了上下文切换的开销和不必要的内存拷贝,进而可能提高应用拷贝性能。注意,transferTo 不仅仅是可以用在文件拷贝中,与其类似的,例如读取磁盘文件,然后进行 Socket 发送,同样可以享受这种机制带来的性能和扩展性提高。

transferTo 的传输过程是:

image.png

Java IO / NIO 源码结构分析

Java标准库(File.copy),那么它是怎么实现的呢?

public static Path copy(Path source, Path target, CopyOption... options) throws IOException
public static long copy(InputStream in, Path target, CopyOption... options)  throws IOException
public static long copy(Path source, OutputStream out) throws IOException

copy 不仅仅是支持文件之间操作,没有人限定输入输出流一定是针对文件的,这是两个很实用的工具方法。

后面两种复制实现,都是使用InputStream.transferTo(),其内部实现其实是 stream在用户态的读写; 第一种方法的分析,参考下面的代码 :

public static Path copy(Path source, Path target, CopyOption... options)
    throws IOException
 {
    FileSystemProvider provider = provider(source);
    if (provider(target) == provider) {
        // same provider
        provider.copy(source, target, options);//这是本文分析的路径
    } else {
        // different providers
        CopyMoveHelper.copyToForeignTarget(source, target, options);
    }
    return target;
}

JDK 的源代码中,内部实现和公共 API 定义也不是可以能够简单关联上的,NIO 部分代码甚至是定义为模板而不是 Java 源文件,在 build 过程自动生成源码,下面顺便介绍一下部分 JDK 代码机制和如何绕过隐藏障碍。

  1. 首先,直接跟踪,发现 FileSystemProvider 只是个抽象类,阅读它的源码能够理解到,原来文件系统实际逻辑存在于 JDK 内部实现里,公共 API 其实是通过 ServiceLoader 机制加载一系列文件系统实现,然后提供服务。

  2. JDK 源码里搜索 FileSystemProvider 和 nio,可以定位到sun/nio/fs, NIO 底层是和操作系统紧密相关的,所以每个平台都有自己的部分特有文件系统逻辑。 image.png

  3. 省略掉一些细节,最后可以一步步定位到 UnixFileSystemProvider → UnixCopyFile.Transfer,发现这是个本地方法。

  4. 最后,明确定位到UnixCopyFile.c,其内部实现清楚说明竟然只是简单的用户态空间拷贝!

所以,明白这个最常见的 copy 方法其实不是利用 transferTo,而是本地技术实现的用户态拷贝。

从实践角度总结一下,如何提高类似拷贝等 IO 操作的性能,有一些宽泛的原则:

  1. 在程序中,使用缓存等机制,合理减少 IO 次数(在网络通信中,如 TCP 传输,window 大小也可以看作是类似思路)。

  2. 使用 transferTo 等机制,减少上下文切换和额外 IO 操作。

  3. 尽量减少不必要的转换过程,比如编解码;对象序列化和反序列化,比如操作文本文件或者网络通信,如果不是过程中需要使用文本信息,可以考虑不要将二进制信息转换成字符串,直接传输二进制信息。

掌握 NIO Buffer

Buffer 是 NIO 操作数据的基本工具,Java 为每种原始数据类型都提供了相应的 Buffer 实现(布尔除外),所以掌握和使用 Buffer 是十分必要的,尤其是涉及 Direct Buffer 等使用,因为其在垃圾收集等方面的特殊性,更要重点掌握。

image.png

Buffer 有几个基本属性:
  • capacity,它反映这个 Buffer 到底有多大,也就是数组的长度。

  • position,要操作的数据起始位置。

  • limit,相当于操作的限额。在读取或者写入时,limit 的意义很明显是不一样的。比如,读取操作时,很可能将 limit 设置到所容纳数据的上限;而在写入时,则会设置容量或容量以下的可写限度。

  • mark,记录上一次 postion 的位置,默认是 0,算是一个便利性的考虑,往往不是必须的。

Buffer 的基本操作:
  • 我们创建了一个 ByteBuffer,准备放入数据,capacity 当然就是缓冲区大小,而 position 就是 0,limit 默认就是 capacity 的大小。

  • 当我们写入几个字节的数据时,position 就会跟着水涨船高,但是它不可能超过 limit 的大小。

  • 如果我们想把前面写入的数据读出来,需要调用 flip 方法,将 position 设置为 0,limit 设置为以前的 position 那里。

  • 如果还想从头再读一遍,可以调用 rewind,让 limit 不变,position 再次设置为 0。

Direct Buffer 和垃圾收集

  • Direct Buffer:如果看 Buffer 的方法定义,你会发现它定义了 isDirect() 方法,返回当前 Buffer 是否是 Direct 类型。这是因为 Java 提供了堆内和堆外(Direct)Buffer,我们可以以它的 allocate 或者 allocateDirect 方法直接创建。

  • MappedByteBuffer:它将文件按照指定大小直接映射为内存区域,当程序访问这个内存区域时将直接操作这块儿文件数据,省去了将数据从内核空间向用户空间传输的损耗。我们可以使用FileChannel.map创建 MappedByteBuffer,它本质上也是种 Direct Buffer。

在实际使用中,Java 会尽量对 Direct Buffer 仅做本地 IO 操作,对于很多大数据量的 IO 密集操作,可能会带来非常大的性能优势,因为:

  • Direct Buffer 生命周期内内存地址都不会再发生更改,进而内核可以安全地对其进行访问,很多 IO 操作会很高效。

  • 减少了堆内对象存储的可能额外维护工作,所以访问效率可能有所提高。

但是请注意,Direct Buffer 创建和销毁过程中,都会比一般的堆内 Buffer 增加部分开销,所以通常都建议用于长期使用、数据较大的场景。

使用 Direct Buffer,我们需要清楚它对内存和 JVM 参数的影响。首先,因为它不在堆上,所以 Xmx 之类参数,其实并不能影响 Direct Buffer 等堆外成员所使用的内存额度,我们可以使用下面参数设置大小:-XX:MaxDirectMemorySize=512M

从参数设置和内存问题排查角度来看,这意味着我们在计算 Java 可以使用的内存大小的时候,不能只考虑堆的需要,还有 Direct Buffer 等一系列堆外因素。如果出现内存不足,堆外内存占用也是一种可能性。

另外,大多数垃圾收集过程中,都不会主动收集 Direct Buffer,它的垃圾收集过程,就是基于 Cleaner(后面会讲一个内部实现)和幻象引用(PhantomReference)机制,其本身不是 public 类型,内部实现了一个 Deallocator 负责销毁的逻辑。对它的销毁往往要拖到 full GC 的时候,所以使用不当很容易导致 OutOfMemoryError。

建议:

  1. 在应用程序中,显式地调用 System.gc() 来强制触发。

  2. 另外一种思路是,在大量使用 Direct Buffer 的部分框架中,框架会自己在程序中调用释放方法,Netty 就是这么做的,有兴趣可以参考其实现(PlatformDependent0)。

  3. 重复使用 Direct Buffer。

跟踪和诊断 Direct Buffer 内存占用

因为通常的垃圾收集日志等记录,并不包含 Direct Buffer 等信息,所以 Direct Buffer 内存诊断也是个比较头疼的事情。幸好,在 JDK 8 之后的版本,可以使用 Native Memory Tracking(NMT)特性来进行诊断,可以在程序启动时加上下面参数-XX:NativeMemoryTracking={summary|detail}

但是 MD,激活 NMT 通常都会导致 JVM 出现 5%~10% 的性能下降,有点让人陶醉啊!

拓展

运行时,可以采用下面命令进行交互式对比:

// 打印NMT信息
jcmd <pid> VM.native_memory detail 

// 进行baseline,以对比分配内存变化
jcmd <pid> VM.native_memory baseline

// 进行baseline,以对比分配内存变化
jcmd <pid> VM.native_memory detail.diff