LSMT存储引擎浅析
这是我参与「第四届青训营」笔记创作活动的的第十四天
1.LSMT与存储引擎介绍
1.LSMT的历史
- LSMT是Log-Structured Merge-Tree的缩写,由Patrick O‘Neil etc.在1996年的论文,The Log-Structured Merge-Tree (LSM-Tree),提出。
- 相较而言,B-Tree出现就早得多了,在1970年由Bayer, R.; McCreight, E.提出。
- 早期的数据库系统一般都采用B-Tree家族作为索引,例如MySQL。2000 年后诞生的数据库大多采用LSMT索引,例如Google BigTable, HBase, Canssandra 等。
2.LSMT概述
一言以蔽之,通过Append-only Write +择机Compact来维护结构的索引树。
3.存储引擎
- 以单机数据库MySQL为例,大致可以分为:
- 计算层
- 存储层(存储引擎层)
- 计算层主要负责SQL解析/查询优化/计划执行。
- 数据库著名的ACID特性,在MySQL中全部强依赖于存储引擎。
- 除了保障ACID以外,存储引擎还要负责:
- 屏蔽IO细节提供更好的抽象
- 提供统计信息与Predicate Push Down能力
- 存储引擎不掌控IO细节,让操作系统接管,例如使用mmap,会有如下问题:·
- 落盘时机不确定造成的事务不安全
- IO Stall
- 错误处理繁琐
- 无法完全发挥硬件性能
2.LSMT存储引擎的优势与实现
1.LSMT 与 B+Tree 异同
- 在B+Tree中,数据插入是原地更新的
- B+ Tree在发生不平衡或者节点容量到达阚值后,必须立即进行分裂来平衡
- LSMT与B+Tree可以用统一模型描述
- 从高层次的数据结构角度来看,二者没有本质的不同,可以互相转化
2.采用LSMT模型的原因
- 在计算机存储乃至整个工程界都在利用Indirection处理资源的不对称性
- 存储引擎面对的资源不对称性在不同时期是不同的 HDD 时代
- 顺序与随机操作性能不对称 由于机械硬盘需要磁盘旋转和机械臂移动来进行读写,顺序写吞吐是随机读的25倍。
SSD 时代
- 顺序写与随机写性能不对称 由于SSD随机写会给主控带来GC压力,顺序写吞吐是随机写的6倍。
小结:
- HDD时代,顺序操作远快于随机操作
- SSD时代,顺序写操作远快于随机写操作 这二者的共性是顺序写是一个对设备很友好的操作,LSMT符合这一点,而B+Tree依赖原地更新,导致随机写。
3.LSMT存储引擎的实现,以RocksDB为例
- RocksDB是一款十分流行的开源LSMT存储引擎,最早来自Facebook (Meta) ,应用于MyRocks, TiDB等数据库。
- 在字节内部也有Abase, ByteKV ,ByteNDB, Bytable 等用户。
1.Write
为了确保操作的原子性,RocksDB 在真正执行修改之前会先将变更写入 WAL(Write Ahead Log),WAL 写成功则写入成功。因为即使这时候程序 crash,在重启阶段可以通过回放 WAL 来恢复或者继续之前的变更。操作只有成功和失败两种状态。
RocksDB WAL 写入流程继承自 LevelDB。LevelDB 在 WAL 写入主要做的一个优化是多个写入者会选出一个 Leader,由这个 Leader 来一次性写入。这样的好处在于可以批量聚合请求,避免频繁提交小 IO。
但很多业务其实不会要求每次 WAL 写入必须落盘,而是写到 Kernel 的 Page Cache 就可以,Kernel 自身是会聚合小 IO 再下刷的。这时候,批量提交的好处就在于降低了操作系统调度线程的开销。
批量提交时,Leader 可以同时唤醒其余 Writer。
如果没有批量提交就只能链式唤醒了。
写完 WAL 实际还要写 MemTable,这步相比于写 WAL 到 Page Cache 更耗时而且是可以完全并行化的。RocksDB 在 LevelDB 的基础上主要又添加了并发 MemTable 写入的优化,由最后一个完成 MemTable 写入的 Writer 执行收尾工作。完整 RocksDB 写入流程如下:
为了方便更好表明哪些事件是同时发生的,相同时刻的事件的背景颜色是一样的。
RocksDB 为了保证线性一致性,必须有一个 Leader 分配时间戳,每条修改记录都会带着分配到的时间戳,也必须有一个 Leader 推进当前可见的时间戳。目前的写入流程已经相当优化了。
2.Snapshot & SuperVision
RocksDB 的数据由 3 部分组成,MemTable / ImmemTable / SST。直接持有这三部分数据并且提供快照功能的组件叫做 SuperVersion。
RocksDB 的 MemTable 和 SST 的释放与删除都依赖于引用计数,SuperVersion 不释放,对应的 MemTable 和 SST 就不会释放。对于读取操作来说,只要拿着这个 SuperVersion,从 MemTable 开始一级一级向下,就能查询到记录。那么拿着 SuperVersion 不释放,等于是拿到了快照。
如果所有读者开始操作前都给 SuperVersion 的计数加 1,读完后再减 1,那么这个原子引用计数器就会成为热点。CPU 在多核之间同步缓存是有开销的,核越多开销越大。一般工程上可以简单估计,核多了之后 CAS 同一个 cache line,性能不会超过 100W/s。为了让读操作更好的 scale,RocksDB 做了一个优化是 Thread Local SuperVersion Cache。每个读者都缓存一个 SuperVersion,读之前检查下 SuperVersion 是否过期,如果没有就直接用这个 SuperVersion,不需要再加减引用计数器。如果 SuperVersion 过期了,读者就必须刷新一遍 SuperVersion。为了避免某一个读者的 Thread Local 缓存持有一个 SuperVersion 太久导致资源无法回收,每当有新的 SuperVersion 生成时会标记所有读者缓存的 SuperVersion 失效。
没有 Thread Local 缓存时,读取操作要频繁 Acquire 和 Release SuperVersion
有 Thread Local 缓存时,读取只需要检查一下 SuperVersion 并标记缓存正在使用即可,可以看出多核之间的交互就仅剩检查 SuperVersion 缓存是否过期了。
3.LSMT 存储引擎的实现- Get & BloomFilter
- RocksDB的读取在大框架上和B+ Tree类似,就是层层向下。
- 相对于B+ Tree,LSMT点查需要访问的数据块更多。为了加速点查,一般LSMT引擎都会在SST中嵌入BloomFilter。 [1,10]表示这个索引块存储数据的区间在1-10之间。查询2,就是顺着标绿色的块往下。
4.Compact - Level
- Compact在LSMT中是将Key区间有重叠或无效数据较多的SST进行合并,以此来加速读取或者回收空间。Compact 策略可以分为两大类,Level 和Tier。下图是Level策略,
- Level策略直接来自于LevelDB,也是RocksDB的默认策略。每一个层不允许有SST的Key区间重合。
5.LSMT存储引擎的实现Compact - Tier
Tier策略允许LSMT每层有多个区间重合的SST
3.LSMT模型理论分析
1.Cloud-Native LSMT Storage Engine - HBase
- RocksDB是单机存储引擎,那么现在都说云原生,HBase比RocksDB就更「云」一些,SST直接存储于HDFS上。
- 二者在理论存储模型上都是LSMT。
2.LSMT模型算法复杂度分析
- T:sizeratio,每层LSMT比上一层大多少,LO大小为1,则L1大小为T,L2为T^2,以此类推
- L: level num,LSMT层数B:每个最小的IO单位能装载多少条记录
- M:每个BloomFilter有多少bits
- N:每个BloomFilter生成时用了多少条Key
- S:区间查询的记录数量
1.LSMT模型算法复杂度分析- Level
Write
- 每条记录抵达最底层需要经过L次Compact,每次Compact Ln的一个小SST和Ln+1的一 个大SST。
- 设小SST的大小为1,那么大SST的大小则为T,合并开销是1+T,换言之将1单位的Ln的 SST推到Ln+1要耗费1+T的IO,单次Compact写放大为T。
- 每条记录的写入成本为1/B次最小单位IO。
- O(Write_ Level) =LT1/B=T*L/B Point Lookup
- 对于每条Key, 最多有L个重叠的区间。
- 每个区间都有BloomFilter,失效率为e^(-M/N), 只有当BloomFilter失效时才会访问下一层。
- O(PointLookup_ _Leve1) = L* e^(-M/N)
- 注意,这里不乘1/B系数的原因是写入可以批量提交拉低成本,但是读取的时候必须对齐到最小读取单元尺寸。
2.LSMT模型算法复杂度分析 - Tier
Write
- 每条记录抵达最底层前同样要经过L次Compact,每次Compact Ln中T个相同尺寸的SST 放到Ln+1。
- 设SST大小为1,那么T个SSTCompact的合并开销是T,换言之将T单位的Ln的SST推 到Ln+1要耗费T的IO,单次Compact的写放大为T/T=1。
- 每条记录的写入成本为1/B次最小单位IO。
- O(Write_ _Tier) = L*1 *1/B=L/B Point Lookup
- 对于每条Key,有L层。
- 每层最多有T个重叠区间的SST,对于整个SST来说有T * L个可能命中的SST,乘上BloomFilter的失效率,e^(-M/N), 可得结果。
- O(PointLookup_ _Tier) = LT e^(-M/ N) = T * L* e^(-M/N)
- 注意,这里不乘1/B系数的原因是写入可以批量提交拉低成本,但是读取的时候必须对齐到最小读取单元尺寸。
3.总结
Tier策略降低了写放大,增加了读放大和空间放大,Level 策略增加了写放大,降低了读和空间放大。
4.LSMT存储引擎调优案例与展望
1.LSMT 存储引擎调优案例 - TerarkDB
- TerarkDB aka LavaKV是字节跳动内部基于RocksDB深度定制优化的自研LSMT存储引擎,其中完全自研的KV分离功能,上线后取得了巨大的收益。
- KV分离受启发于论文WiscKey: Separating Keys from Values in SSD-conscious Storage,概括起来就是Value较长的记录的Value单独存储。
2.LSMT 存储引擎调优案例- TerarkDB & Flink
在字节内部Flink流处理状态存储场景实测
收益结论:
- 平均CPU开销在3个作业.上降低了26%~39%
- 峰值CPU开销在广告作业上有明显的收益,降低了67%
- 平均容量开销在3个作业.上降低了17% ~ 31.2%
- 直播业务某集群容量不收缩,TerarkDB的schedule TTL GC彻底解决了该问题
3.存储引擎最新发展趋势-新硬件
随着硬件的发展,软件设计也会随着发生改变。近年来,出现了许多新的存储技术,例如SMR HDD,Zoned SSD / OpenChannel SSD,PMem等。如何在这些新硬件上设计/改进存储引擎是一大研究热点。
e.g. MatrixKV: Reducing Write Stalls and Write Amplification in LSM-tree Based KV Stores with Matrix Container in NVM
这篇论文中的设计将LO整个搬进了PMem,降低了写放大。
4.存储引擎最新发展趋势 - 新模型
经典LSMT模型是比较简单的,有时候不能应对所有工况,可以提出新的模型来解决问题。
e.g. WiscKey: Separating Keys from Values in SSD-conscious Storage 通过额外增加一个Value Store来存储大Value的记录来降低总体写放大。
e.g. REMIX: Efficient Range Query for LSM-trees 通过额外增加一种SST的类型来加速范围查询的速度
5.存储引擎最新发展趋势-新参数/新工况
已有的模型,在新的或者现有工况下,参数设置的不合理,可以通过更精确的参数设置来提升整体性能。
e.g The Log-Structured Merge-Bush & the Wacky Continuum,在最后一层使用Level Compaction,之上使用Tier Compaction,通过在除了最后一层以外的 SST加大BloomFilter的bits数来规避Tier Compaction带来的点查劣化。
5.总结
- 单机数据库的ACID特性依赖于存储引擎
- LSMT存储引擎的顺序写特性更适合现代计算机体系结构
- LSMT和B+Tree可以用同一模型描述并互相转化
- Level Compaction策略,降低了读放大和空间放大,增加了写放大
- Tier Compaction策略,降低了写放大,增大了读放大和空间放大
- 分布式KV存储,如HBase,背后的理论模型与单机存储引擎RocksDB一样都是 LSMT