Skip to content

Omit L0 Flush

rockeet edited this page Mar 21, 2022 · 22 revisions

省略 L0 Flush

  1. L0 中的数据很新,即便 Flush 到了 SST,实际上一般都在内存中
  2. 在实际场景中,L0 Flush 之后,一般很快就会发生 L0->L1 Compact
  3. 在最坏情况下,L0 中的同一份数据会存在至少存在 4 个甚至 5 个副本,比如提交一个较大的 WriteBatch时,同一份数据有以下副本:
    1. WriteBatch 中的副本
    2. MemTable 中的副本
    3. WAL Log 中的副本(WAL 一般不使用 Direct Write,从而在 PageCache 中)
    4. L0 SST 中(Flush 结束,新的 Version 产生,旧的 Version 还在使用中,L0 SST 在 PageCache 中,因为 L0 Flush 很频繁,所以这样的新旧 Version 经常同时存在)
      • BlockCache,用新的 Version 访问数据,导致数据被加入 BlockCache(从而又多了一个副本,共 5 个副本)
    5. 某些情况下,写入 WriteBatch 之前用户业务层还会维护一个副本,此时最多就是 6 个副本
      • 这个副本超出了引擎的管控范围,不在讨论范围内

副本数多了,最重要的不是浪费内存和磁盘空间(因为 L0 的数据总量并不大),而是浪费 CPU 和内存带宽,最最严重的是浪费 IO 带宽,并且因为 Flush 是在极短的时间内将内存中的数据写到 SST 文件中,会造成一个很大的 IO 尖刺。

然而我们仔细思考,L0 Flush 是可以省略掉的,但是引擎的 Write 流程和数据的组织方式需要进行大幅度的调整:

  1. 预留 WAL Log 文件空间,并 mmap 到内存(以只读方式,便于排错)
    • 写 WAL Log 仍然用 write,便于排错
  2. 关闭 WAL Log 时,写入结束标记(EOF)并 truncate 到文件实际尺寸
  3. WAL Log 中 Key 内部及 Value 内部不能有 Padding(以便在用户空间直接通过 Slice 访问)
    • RocksDB 当前的 WAL 中,当 KV 跨 Page 时,会填入 Padding
  4. WAL Log 中每个 WriteBatch 要有 checksum(至少 64 位)
    • 当进程挂掉时,WAL 中未完成的 WriteBatch 会发生 checksum 错误
    • Replay WAL 时,将 checksum 错误的认为是非正常的 EOF
  5. MemTable 中不保存 Value,而是保存指向 KV 在 WAL 中的偏移(从而可以通过 WAL 的 mmap 去访问)
  6. 借助 CSPP Trie,即便在 DB 异常关闭的情况下(进程挂掉,但OS和硬件都没挂),还可以省去 Replay WAL 阶段
    • 借助每次 WriteBatch 之后保存的 WAL 偏移来跳到最后失败的那个 WriteBatch
    • 当然,如果 OS 和硬件无法信赖,那就只能 Replay 了,借助 checksum 来尽量恢复数据

这样可以将副本减少到两个(WriteBatch 和 WAL,MemTab 中只是索引),注意,这里,最重要是节省了 CPU 和内存带宽的消耗,而不是内存空间!

并且,即便 DB 压力再提高 1 倍,也不会象 Flush 到 SST 那样产生 IO 带宽尖刺,因为数据写入 WAL 的速度是相对比较均匀的。

读放大也减少了

省略 L0 Flush 之后,就只有 Compact,最初的 Compact 就是 MemTab+WAL 的组合体(简称 MemTab 吧) 与 L1 的 Compact。以这样的方式,最多就只需要两个 MemTab:

  1. 一个正在执行 MemTab + L1 Compact 的 MemTab,此 MemTab 只读,不可写
  2. 一个活动中的可写的 MemTab

具体策略上,一旦可写的 MemTab2 达到尺寸限制(应该是两个限制并且很大,例如 10G 和 20G,对应 rocksdb 的 level0_slowdown_writes_triggerlevel0_stop_writes_trigger),就需要产生新的 MemTab3,并执行 MemTab2 + L1 Compact,如果此时上一个 MemTab1 + L1 仍在执行中,写入就要主动卡顿甚至暂停一下了。所以:

  1. MemTab + L1 Compact 最好是多线程执行,并且每个线程的数据量大致均等,也不做任何压缩
  2. 为了让后续的 L1 + L2 Compact 尽可能并发,L1 的 SST 文件数目要尽量多一点,大小要尽量均匀一点

这两个需求加到一起,就又需要 MemTab 有 GetRandomKeys 功能,以便在 MemTab + L1 Compact 中可以将输入和输出数据都分得更细更均匀。

更进一步

如果我们有能力进行更大的改造,WriteBatch 中的那份副本也可以省略,就是写 WriteBatch 时将数据直接写到 WAL 中,但这样在填充 WriteBatch 期间,就只能单线程运行,而这是我们不能接受的,所以,省略 WriteBatch 的副本,需要基于 thread local WAL 来实现。

即便如此,SeqNum 也是个问题,在这样的 WriteBatch 中,所有 KV 的 seqnum 必须是相同的(rocksdb 的 seq_per_batch),并且,在 commit 之前,这个 WriteBatch 中的数据必须是对外不可见的。