kafka怎么做到基于磁盘却比内存还快?

4,294 阅读5分钟

「这是我参与2022首次更文挑战的第37天,活动详情查看:2022首次更文挑战

想要学习kafka,请关注本专栏:juejin.cn/column/6996…

相信看见题目的同学都会很有疑问,甚至不服气,这都是基于个人对于kafka原理的理解,我可以说磁盘顺序写要比内存的随机读快吧。但是说到底,基于性能的优化方面,还是离不开内存的。

Kafka作为一个支持大数据量写入写出的消息队列,由于是基于Scala和Java实现的,而Scala和Java均需要在JVM上运行,所以如果是基于内存的方式,即JVM的堆来进行数据存储则需要开辟很大的堆来支持数据读写,从而会导致GC频繁影响性能。考虑到这些因素,kafka是使用磁盘存储数据的。

kafka文件存储形式

Kafka 中消息是以 topic 进行分类的,生产者生产消息,消费者消费消息,都是面向topic的。topic存储结构见下图:

image.png

由于生产者生产的消息会不断追加到 log 文件末尾,为防止 log 文件过大导致数据定位效率低下,Kafka 采取了分片索引机制,将每个partition分为多个segment。每个 segment对应两个文件——“.index”文件和“.log”文件。

partition文件夹命名规则

topic 名称+分区序号,举例有一个topic名称文“kafka”,这个topic有三个分区,则每个文件夹命名如下:

kafka-0
kafka-1
kafka-2

index和log文件的命名规则

1)partition文件夹中的第一个segment从0开始,以后每个segement文件以上一个segment文件的最后一条消息的offset+1命名(当前日志中的第一条消息的offset值命名)。

2)数值最大为64位long大小。19位数字字符长度,没有数字用0填充。

举例,有以下三对文件:

0000000000000000000.log
0000000000000000000.index
0000000000000002584.log
0000000000000002584.index
0000000000000006857.log
0000000000000006857.index

以第二个文件为例看下对应的数据结构:

image.png

稀疏索引需要注意下。

消息查找过程

找message-2589,即offset为2589:

1)先定位segment文件,在0000000000000002584中。

2)计算查找的offset在日志文件的相对偏移量 offset - 文件名的数量 = 2589 - 2584 = 5; 在index文件查找第一个参数的值,若找到,则获取到偏移量,通过偏移量到log文件去找对应偏移量的数据即可; 本例中没有找到,则找到当前索引中偏移量的上线最接近的值,即3,偏移量文246;然后到log文件中从偏移量为246数据开始向下寻找。

实现磁盘快于内存的原理

简单了解了kafka在数据存储方面的知识,线面我们具体分析下为什么kafka基于磁盘却快于内存。

顺序写磁盘

在前面了解存储结构过程中,我们发现kafka记录log日志使用的结尾追加的方式,即顺序写。这样要比随机写块很多,这与磁盘的机械机构有关,顺序写之所以快,是因为其省去了大量磁头寻址的时间。

MMAP(Memory Mapped Files)

mmap,简单描述其就是将磁盘文件映射到内存, 用户通过修改内存就能修改磁盘文件。

即便是顺序写磁盘,磁盘的读写速度任然比内存慢慢的多得多,好在操作系统已经帮我们解决这个问题。在Linux操作系统中,Linux会将磁盘中的一些数据读取到内存当中,我们称之为内存页。当需要读写硬盘的时候,都优先在内存页中进行处理。当内存页的数据比硬盘数据多的时候,就形成了脏页,当脏页达到一定数量,操作系统会进行刷脏,即将内存也数据写到磁盘。

问题:不可靠,写到 mmap 中的数据并没有被真正的写到硬盘,操作系统会在程序主动调用 Flush 的时候才把数据真正的写到硬盘。

Kafka 提供了一个参数 producer.type 来控制是不是主动 Flush:

如果 Kafka 写入到 mmap 之后就立即 Flush,然后再返回 Producer 叫同步 (Sync)。

如果 Kafka 写入 mmap 之后立即返回 Producer 不调用 Flush 叫异步 (Async)。

零拷贝技术

零拷贝并不是不需要拷贝,而是减少不必要的拷贝次数,通常使用在IO读写过程中。

传统io过程

image.png 如上图所示,上图共经历了四次拷贝的过程:

1)数据到内核态的read buffer;

2)内核态的read buffer到用户态应用层的buffer;

3)用户态到内核态的socket buffer;

4)socket buffer到网卡的buffer(NIC)。

DMA 引入DMA技术,是指外部设备不通过CPU而直接与系统内存交换数据的接口技术,网卡等硬件设备支持DMA技术。

image.png

如上图所示,上图共经历了两次拷贝的过程。

sendfile 在内核版本 2.1 中,引入了 Sendfile 系统调用,以简化网络上和两个本地文件之间的数据传输。同时使用了DMA技术。

image.png

如上图所示,上图共经历了一次拷贝的过程。

sendfile( DMA 收集拷贝) 之前我们是把页缓存的数据拷贝到socket缓存中,实际上,我们仅仅需要把缓冲区描述符传到 socket 缓冲区,再把数据长度传过去,这样 DMA 控制器直接将页缓存中的数据打包发送到网络中就可以了。

image.png

如上图所示,最后一次的拷贝也被消除了,数据->read buffer->NIC。

kafka实现零拷贝

kafka通过java和scala实现,而Java对sendfile是通过NIO 的 FileChannel (java.nio.channels.FileChannel )的 transferTotransferFrom 方法实现零拷贝。

注: transferTo 和 transferFrom 并不保证一定能使用零拷贝。实际上是否能使用零拷贝与操作系统相关,如果操作系统提供 sendfile 这样的零拷贝系统调用,则这两个方法会通过这样的系统调用充分利用零拷贝的优势,否则并不能通过这两个方法本身实现零拷贝。