I/O

181 阅读8分钟

本文主要介绍I/O模型(同步/异步IO),以及同步I/O下几种方式(阻塞、非阻塞、多路复用、信号驱动),同时针对零拷贝技术进行深入分析学习。

I/O读写过程

I/O指的输入输出的过程,对应就是程序中的read/write。

读取包括两个过程(等待数据和数据复制),后面的IO模型主要针对这两个过程来展开和优化。

一个完整的I/O过程:

  1. 应用程序调用kernel-read方法
  2. kernel准备数据,底层硬件数据读取到kernel缓冲区
  3. kernel将缓冲区数据读取到用户程序缓冲区
  4. 用户程序调用write方法
  5. kernel将用户程序缓冲区数据复制到kernel缓冲
  6. 最后kernel缓冲区数据写到硬件中

IO过程

在复制数据过程中,根据复制过程中,是否能并行处理其他程序来区分的话,可分为同步和异步

  • 同步:复制过程中只能等待复制完成,无法处理其它程序
  • 异步:复制过程中由kernel来完成,主线程无需等待该过程,可以处理后续程序。kernel复制完成后,会通知回调主程序(复制完成或失败)

同步IO

同步模型下,有阻塞、非阻塞、多路复用、信号驱动几种,下面一一详述。

阻塞

read时阻塞等待kernel数据准备完成后,等待kernel复制数据到用户缓冲区。

同步阻塞IO

非阻塞IO

read时,数据还未准备好时,进程会不断的询问kernel数据是否准备好。(该过程非阻塞)

当kernel数据准备好后,进程会读取数据到用户缓冲区。

同步阻塞IO

多路复用

select调用后,当kernel有数据包准备好,就会返回相应事件信息。

进程获取的事件信息后,就可以根据事件信息,调用kernel去执行相应的指令。

多路复用

在linux上,对多路复用,有三种方式:select/poll/epoll

select

struct timeval {
    long tv_sec; /*秒*/
    long tv_usec; /*毫秒*/
}

int select(int maxfdp,fd_set *readfds,fd_set *writefds,fd_set *errorfds,struct timeval*timeout);
  • maxfdp 指
  • struct fd_set是一个结构体集合,集合的元素为文字描述符(fd)
  • struct timeval代表时间信息,它表示阻塞时间
    • timout为NULL,一直阻塞等待,该等待可以被中断
    • tv_sec==0 && tv_usec==0,表示不等待,直接返回。它会对加入描述符集合逐一测试,并返回满足条件的描述符。
    • tv_sec!=0 || tv_usec!=0,表示等待指定时间。当有符合条件描述符或超时,会返回结果。

该方法会将符合条件的描述符存储在各自的集合中。

简要过程

  1. 各个描述符集合中包含了关注该事件对应的描述符,调用时,会将这些描述符传到kernel中
  2. kernel逐一检测描述符,看是否有感兴趣的事发生
  3. 若第2步有满足条件数据产生,就会返回

缺点:

  1. 每次调用select,都需要把fd集合从用户态拷贝到内核态
  2. 在调用select时,会逐个遍历fd
  3. select支持的文件描述符最大个数默认为1024

poll

poll和select类似,只是对fd的集合方式不同,另外就是poll没有文件描述符数量限制。poll使用的pollfd结构

# include <poll.h>
struct pollfd {
    int fd; /* 文件描述符 */
    short events; /* 等待的事件 */
    short revents; /* 实际发生的事件 */
} ;
int poll ( struct pollfd * fds, unsigned int nfds, int timeout);

上述两种都是采用事件轮询的方式来获取相应的文件描述符就绪事件,并且存在着大量的用户态向kernel态的数据拷贝。

当存在着大量的连接时,select/poll性能会非常差。

epoll

epoll采用被动通知的方式来获取就绪事件,而前述的两者的方式采用的是主动获取的方式。

使用方式如下

  1. 获取epoll的fd
/* Creates an epoll instance.  Returns an fd for the new instance.
   The "size" parameter is a hint specifying the number of file
   descriptors to be associated with the new instance.  The fd
   returned by epoll_create() should be closed with close().  */
extern int epoll_create (int __size) __THROW;

注意该fd在使用结束后,需调用close方法。

后面它的返回值,我们使用epfd来表示。

  1. 将被监听的描述符及其对应感兴趣的事件,加入到epfd的关注中
/* Valid opcodes ( "op" parameter ) to issue to epoll_ctl().  */
#define EPOLL_CTL_ADD 1 /* Add a file descriptor to the interface.  */
#define EPOLL_CTL_DEL 2 /* Remove a file descriptor from the interface.  */
#define EPOLL_CTL_MOD 3 /* Change file descriptor epoll_event structure.  */

/* Manipulate an epoll instance "epfd". Returns 0 in case of success,
   -1 in case of error ( the "errno" variable will contain the
   specific error code ) The "op" parameter is one of the EPOLL_CTL_*
   constants defined above. The "fd" parameter is the target of the
   operation. The "event" parameter describes which events the caller
   is interested in and any associated user data.  */
extern int epoll_ctl (int __epfd, int __op, int __fd,
              struct epoll_event *__event) __THROW;
  • __epfd:epoll_create返回的文件描述符
  • _op:表示EPOLL_CTL*
  • __fd:被监听的文件描述符
  • __event:被监听的描述符所关注的事件
  1. 获取已就绪事件
/* Wait for events on an epoll instance "epfd". Returns the number of
   triggered events returned in "events" buffer. Or -1 in case of
   error with the "errno" variable set to the specific error code. The
   "events" parameter is a buffer that will contain triggered
   events. The "maxevents" is the maximum number of events to be
   returned ( usually size of "events" ). The "timeout" parameter
   specifies the maximum wait time in milliseconds (-1 == infinite).

   This function is a cancellation point and therefore not marked with
   __THROW.  */
extern int epoll_wait (int __epfd, struct epoll_event *__events,
               int __maxevents, int __timeout);

__events,为已就绪事件集合

当文件描述符有事件产生时,kernel会将就绪事件及对应描述符信息放在epfd的链表中,当调用epoll_wait方法时,会判断该链表是否为空,不为空则返回,为空则等待直至超时(此时有就绪事件也会正常返回)。

多路复用实现方式总结

  1. select/poll都是采用轮询的方式来获取就绪事件集合(主动),而epoll采用epoll_wait来获取就绪事件。前者不断轮询,而后者只需判断就绪链表是否为空即可,性能提升很多
  2. select有文件描述符数量限制,poll/epoll是没有该限制
  3. select/poll都有fd列表由用户态向kernel态拷贝,而epoll只要在epoll_ctl时拷贝一次。

信号驱动

进程建立SIGIO的信号处理程序,进行sigaction调用,kernel会立即返回该调用是否成功。

当kernel数据准备好后,kernel会递交SIGIO给信号处理程序

进程开始读取数据,直至数据完全从kernel缓冲区复制到用户缓冲区。

信号驱动

异步IO

进程发起aio_read调用,kernel会返回调用成功,同时去准备数据

数据准备好后,kernel直接开始复制数据到用户缓冲区

复制完成后,会发送aio_read时指定的信号,进程获取信号后,就可以开始直接处理数据了。

整个过程是异步的,进程在这个阶段可以执行其他的任务。

异步IO

零拷贝

在开始讲述零拷贝之前,我们先看下拷贝的具体流程是怎么样的。

数据读取到写入的逻辑如下:

数据读取逻辑架构

拷贝过程包括

  • 读取:存储介质到kernel-buffer,kernel-buffer到用户buffer

  • 写入:用户buffer到kernel-buffer,kernel-buffer再到设备

读取时序图-仅cpu

当前有很多设备都支持dma功能,于是有了cpu+dma的方式

读取时序图-cpu+dma

IO过程-cpu+dma

可以看到,普通IO过程存在:

读:2次内核态与用户态切换,1次dma copy,1次cpu copy

写:2次内核态与用户态切换,1次cpu copy,1次dma copy

我们所说的零拷贝指的就是:kernel缓冲复制到用户缓冲的过程是0次,其他的拷贝过程仍然存在的,后面我们可以在图中看到。

零拷贝存在以下方案:mmap,sendfile,sendfile+dma收集,splice

mmap

kernel缓冲不再向用户缓冲拷贝,而是在用户缓冲引入映射区,映射区包含了内核数据的映射。

当需要write时,cpu直接将kernel-buffer拷贝至socket-buffer

mmap

sendfile

用户进程直接调用sendfile,kernel-buffer与用户缓冲无数据拷贝,用户缓冲也与socket-buffer无数据拷贝

sendfile

sendfile+dma收集

sendfile+dma收集

splice

该方案需要管道支持。

splice

总结

IO过程包括读取和写入

IO模型

一次完整的读取分为以下两个阶段

  • 等待数据完成,根据后面图,可以看到,其实就是存储介质到kernel-buffer这一过程,对于有dma支持的,这一步可能有dma来完成
  • 复制数据到用户缓冲区,由kernel-buffer到用户buffer这一阶段

根据第二阶段,又可分为同步或异步IO

其中同步模型下,又有阻塞、非阻塞、多路复用、信号驱动几种方式。其中最常用的就是多路复用。

linux对于多路复用,又有select/poll/epoll几种实现。

对于少量连接来说,select/poll的性能更优,但对于大量连接来说,epoll更优。

但epoll实现,需要三个方法,所以使用上会带来一定的复杂度,包括异常处理维护等,select/poll相对来说使用更简单。

零拷贝技术

后面我们又说到零拷贝,它是一次读取并写入的过程。

实现上零拷贝并不是一次拷贝没有,而只是在一定程度上省略了个别的拷贝过程,如:借助设备dma功能、引入其他优化,消除了kernel-buffer向用户buffer的拷贝。

零拷贝是一项优化技术,这里探讨的是IO层面的零拷贝优化技术,在其他方面也有零拷贝技术的应用,可能使用的其他方式,不应把零拷贝局限于此,如:netty中零拷贝的应用。