FLAT,一个轻量且高效的基数估计模型

3,511 阅读17分钟

引言

原文发表于 VLDB 2021,见:FLAT:Fast, Lightweight and Accurate Method for Cardinality Estimation (vldb.org)

准确的基数查询对数据库查询优化至关重要。基数查询的核心问题在于如何构建可靠的联合分布以应对复杂的连接查询,而难点在于如何有效处理属性之间,乃至表之间的关联性。近几年的研究中,人们开始尝试借助 ML 模型解决这一问题,但目前而言,大部分的模型要么过于简单以至于准确率不足,要么过于复杂导致时间成本高昂。

FLAT 提出了 FSPN 模型 —— 一个基于数据驱动,基于 SPN 的无监督模型。理想的基数估计模型应当同时满足高精确,快反应,低存储三大特点,而 FSPN 模型在这三面均有卓越的表现。总体的思路可以归纳为:

  1. 在单表内,将强关联属性和弱关联属性区分开来,并分别建模。
  2. 在涉及多表的查询中,则将相关的多个表聚合为一个节点并建模。

该模型天然地支持对属性的范围查询 ( 但本文不讨论 LIKE 模糊查询 ),同时支持单表查询和多表查询,支持增量更新。

属性关联对基数估计的影响

为了说明问题,这里举一个简单的例子。以此条简单的查询 QQ 为例:

SELECT * FROM stu WHERE name='me' AND Id='10001'

假设表中有 10 条数据,但仅有 1 条数据同时满足这两个谓词。在独立性假设成立的条件下,事件 E1={name=me}E_1=\{name=me\} 和事件 E2={id=10001}E_2=\{id=10001\} 相互独立,则查询 QQ 的命中率可简单计算为:

P(Q)=P(name=me)P(id=10001)=0.01P(Q) = P(name=me)·P(id=10001)=0.01

然而,该计算结果明显和实际情况不符,原因是没有考虑到这两个属性列之间潜在的关联性。考虑到现实场景,namenameidid 两属性列可被认为是存在函数依赖的关系。在此合理假设 P(name=meid=10001)P(name=me|id=10001) 的概率为 1,使用条件概率计算可得:

P(A)=P(name=meid=10001)P(id=10001)=0.1P(A)=P(name=me|id=10001)·P(id=10001) =0.1

尤其是对于 data-driven 的基数估计而言,其核心任务是借助模型对条件概率 P(AC)P(A|C) 做准确估计。在这个例子中, P(A)P(A) 被分解成多项式乘积的形式,该过程也称因子分解。

本文指出,目前的因子分解可以分为独立因子分解 independent factorization 和条件因子分解 conditional factorization。对于独立因子分解,目前流行的方法有 Histogram,SPN 模型等,虽然性能达标,但属于有损分解;对于条件因子分解而言,目前提出的方法有深度自回归网络123,贝叶斯网络45等,虽然可实现无损分解,但是时间成本更高。本文则提出综合利用两种因子分解:对于弱关联属性使用独立因子分解;对于强关联属性则使用条件因子分解,以此在准确率和时延之间找到一个最佳平衡。

本文提出的 FSPN 模型全称是 Factorize - Split - Sum - Product Network,是一个基于 SPN 树构建的模型。本文的核心创新点在于使用 factorize 节点对强 / 弱相关的属性集分别建模,同时使用 split 节点对强相关属性集内部进行建模。

整个模型分为三个部分:离线训练,在线分析,增量更新。从抽象的层级来看,功能如下:

  1. 离线训练接受输入表 TT 及其数据,训练出的模型记作 FT\mathcal{F}_T,输出 PT(A)^\widehat{P_T(A)}
  2. 在线分析模块接受外部的查询 QQ,该查询作用在 TT 表上。调用模型 FT\mathcal{F}_T ,输出 PT(Q)TP_T(Q)·|T| 作为近似的基数估计。

构建 FSPN 树

本文先以一张单表 TT 的 FSPN 模型构建过程为例子。属性集记作 A={A1,A2,A3,A4}A=\{A_1,A_2,A_3,A_4\},将 AiA_i 视作是 r.v,则表 TT 的基数估计问题可转化为求多元概率密度模型 p.d.f. P(A)P(A) 的问题。这里令 A3A_3A4A_4 是两个强相关属性,而 A1,A2A_1,A_2 则是弱相关属性,则属性集 AA 可被划分为弱相关属性集 W={A1,A2}W=\{A_1,A_2\},强相关属性集 H={A3,A4}H=\{A_3,A_4\}

factorize.png

将表 TT 视作是根节点 N1N_1,它将作为 factorize 节点:根据 H,WH,W 两个属性集将表 TT 垂直划分出了两个子表并建立子节点 N2,N3N_2,N_3

进一步划分 N2N_2 节点:A1A_1A2A_2 属性互为弱相关,但非完全独立。对于 SPN 及衍生的模型6而言,可以通过合适的聚簇 — 分片方式消弭弱相关关系,使得属性之间局部独立,这个过程被称之为 "上下文独立" ( context independent )。

比如,以 A2<50A_2<50 作为分片条件,将 N2N_2 节点的子表再次划分为 T1,T2T_1,T_2。在每个 TiT_i 内部,A1A_1A2A_2 被认为 ( 局部 ) 独立。对 TiT_i 继续做垂直分片,可以划分出 L1,L2,L3,L4L_1,L_2,L_3,L_4 四个区域,如图 2 所示:

n4.png

每一个 LiL_i 只包含一个属性列,因此被称之为 uni-leaf 节点。可得:

P(A1,A2)=PT1+PT2=w1PT1(A1)PT1(A2)+w2PT2(A!)PT2(A2)\begin{aligned} P(A_1, A_2) &= P_{T_1} + P_{T_2} \\ &=w_1·P_{T_1}(A_1)·P_{T_1}(A_2) + w_2·P_{T_2}(A_!)·P_{T_2}(A_2)\\ \end{aligned}

其中,wi=Ti/Tw_i={|T_i|} / {|T|}。从公式中可知 N2N_2sum 节点。

对于 N3N_3 节点,需要计算 P(A3,A4A1,A2)P(A_3,A_4|A_1,A_2),即 P(HW)P(H|W)。本文提出根据 WWHH 进行划分,假定划分出了子集 H1,H2,...H_1,H_2,... ,在同一个 HiH_i 内部,无需考虑 WW 的影响,此时可认为 P(HiW)=P(Hi)P(H_i|W)=P(H_i) 。本文称这种方式为上下文条件移除 contextual condition removal。此时将 N3N_3 记作 split 节点。

在当前的例子中,A3,A4A_3,A_4 通过谓词 A1<0.9A_1 < 0.9 划分出了两个子表 L5L_5L6L_6,并由此产生了两个新的包含多个属性列的叶子节点,被称之 multi-leaf 节点。

n56.png

以上是完整的 FSPN 树构建过程,如下图 ( 对应原文 Figure 1 ) 所示:

figure1.png

处理外部查询

建模得到的 FT\mathcal{F_T} 模型可以处理来自外界的查询 QQ。这里考虑的是范围查询,对于涉及到的属性 AiA_i,假设它的域为 [Li,Ui][L_i,U_i],则 QQ 本身可以被看作是 hyper-rectangle range:

Q={A1[L1,U1]A2[L2,U2],...Ak[Lk,Uk]}Q=\{A_1 \in [L_1,U_1] ∧ A_2 \in [L_2,U_2],...A_k \in [L_k,U_k]\}

假设每个属性 AiA_i 的域是 [LBi,UBi][LB_i,UB_i],则 LBiLiUiUBiLB_i ≤ L_i ≤ U_i ≤ UB_i。特殊地,对于等值查询,认为 Li=UiL_i=U_i。现有一个到达的 QQ 如下图 ( 见原文 Figure 2 ) 所示:

figure2.png

按照模型,将 QQ 划分出两个等价子查询 Q1Q_1Q2Q_2 。两个子查询可以视作和事件:

PT(Q)=PT(Q1)+PT(Q2)P_T(Q) =P_T(Q_1)+P_T(Q_2)

其中,PQ1(HW)P_{Q_1}(H|W)PQ2(HW)P_{Q_2}(H|W) 分别可以从模型 FT\mathcal{F}_T N3N_3 节点的左右两个 multi-leaf 叶子节点获得。而 PQ1(W)P_{Q_1}(W)PQ2(W)P_{Q_2}(W) 则可以通过模型的 N2N_2 节点获得。最终,这个模型当中的 PT(Q)P_T(Q) 将是可计算的。展开可得:

PT(Q)=w1PQ1(HW)PQ1(W)+w2PQ2(HW)PQ2(W)P_T(Q)=w_1·P_{Q_1}(H|W)·P_{Q_1}(W) + w_2·P_{Q_2}(H|W)·P_{Q_2}(W)

模型更新

当新的数据 ΔT\Delta T 到达时,FLAT 可以自上而下地实时更新表 TT 对应的 FSPN 模型。模型的不同节点将有不同的行为:

  1. factorize: 将 ΔT\Delta{T} 向下广播到各个节点。
  2. sum: 将 ΔT\Delta{T} 的每一条数据分发到相应的分片内。
  3. split: 类似 sum 节点。
  4. uni-leaf: 在该叶子节点中,仅需要简单更新模型参数即可。可选用的方法有 1-D Histogram7,高斯混合模型等。
  5. product: 在更新模型后,检查左右两部分的独立性是否被破坏。若否,则仅简单更新模型;否则,对该节点重新进行建模。
  6. multi-leaf: 在更新模型后,需要检查左右两部分的独立性是否被破坏。若否,则仅简单更新模型;否则,将该节点视作 split 节点,重新建模。

离线建模

FSPN 的构造是一个递归的过程。每个节点本质上是四元组 (AN,CN,TN,ON)(A_N,C_N,T_N,O_N)

  1. TNT_N 表示当前节点所包含的数据,它又被称之为节点 NN 的上下文。
  2. ANA_NCNC_N 分别代表该节点的两组属性。如果 CN=C_N = \varnothing,则该节点的建模过程可以用符号标记为 P(AN)P(A_N),反之,则标记为 P(ANCN)P(A_N|C_N)。在 FSPN 模型中,根节点的 AN=A,CN=,TN=TA_N=A,C_N=\varnothing,T_N=T。它代表的联合分布记为 P(A)P(A)
  3. ONO_N 代表了该节点的性质,即它属于:factorizesumsplituni-leafproductmulti-leaf 节点的其中一个。

本文使用 RDC8 方法 ( 全称 Randomized Dependence Coefficient ) 对属性集 AA 内的所有属性 Ai,AjA_i, A_j 进行成对检验。这里设定一个阈值 τh\tau_h,若能成功分割出强相关属性集 HH ,则该集合并为非空集合。此时,属性集合 AA 被划分为 HHAHA-H,并产生左右两个节点。

对于弱相关属性集的节点,特殊地,若 AN=1|A_N| = 1 ,则该节点被划分为 uni-leaf 节点。uni-leaf 节点的概率模型可以使用简单的方法进行建模,比如 Histogram 方法。

否则,设定阈值 τl\tau_l 来决定 ANA_N 内部的属性之间是否独立。若是,则该节点可作为 product 节点;否则,将该节点设置为 sum 节点,通过聚簇方式 ( 如 K-means9 ) 切分多个子表以消除上下文的影响。在每个子表内,认为属性之间是局部独立的,再进而使用 product 节点进行组织。

对于 factorize 节点划分出的右子节点,它的概率模型记作 P(ANCN)P(A_N|C_N),即 CNC_N \neq \varnothing。若 ANA_NCNC_N 集合相互独立,可被直接认为是 multi-leaf 节点,通过建立分段模型 piecewise regression 得到 P(AN)P(A_N)

否则,使用 d-way 分区方法对 TNT_N 做一步 split ,目前的节点即为 split 节点。假定分出了子簇 T1,T2,...,TdT_1,T_2,...,T_d,随后通过 FLAT-Offline 模型对每一簇进行建模得到 PTi(ANCN)P_{T_i}(A_N|C_N),其中 1id1 ≤ i ≤d

多表基数估计

首先是离线构建过程。将 DD 内所有的表根据它们的连接关系组织成一个树形结构,记作 JJJJ 内部的每一个节点代表一张表,每一条边表示两个表的连接关系。

本文提出,高度相关的表能够划分到一个组 group 内,而组间的表是弱相关的。以一条边 (A,B)(A,B) 为例子,系统首先从 ABA ⟗ B 表中做取样,并检测两表之间是否存在高度相关的属性列。如果部分列之间的相关性高于某个阈值,则直接对 ABA ⟗ B 表 ( 记作 T\mathcal{T} ) 进行建模,或者称将 A,B{A,B} merge 为一个节点。

整个 merge 的过程将递归执行,直到没有再需要 merge 的节点为止。每一个节点 TiT_i 将表示单表,或者多表的全外连接。

其次是在线构建过程。令 E={T1,T2,...,Td}E=\{T_1,T_2,...,T_d\} 表示某一个查询 QQ 所命中的 JJ 树的所有节点。QQ 将根据 EE 切分出对应的子查询 QiQ_i。在本文的假设当中,每个 QiQ_iE=A1A2...Ad\mathcal{E}= A_1 ⟗ A_2 ⟗ ... ⟗A_d 都是独立的,这意味着只需简单计算 iP(Qi)\prod_{i}P(Q_i) 即可得到 P(Q)P(Q)

多表查询对基数估计的影响

现假定有一个 JJ 的结构如下,A,BA,B 表被划分为同一个组:

j.png

当存在一个 QQ 的谓词仅与表 AA 相关时,直接从 T1T_1 节点的 T1\mathcal{T_1} ( 即 AB A ⟗ B ) 进行查找。需要注意的是,在全外连接的过程中,由于 AA 表的记录可能会和 BB 表发生一对多连接,从而产生更多的数据行,因此基于 T1\mathcal{T_1} 表计算的基数被高估了。为了抵消这种影响,需要对估计到的基数进行下调 ( scale-down ) 修正。

outer_join.png

另一个例子则是:查询 QQ 和表 BBCC 相关,但两表并不在一个分组内,因此不能面向 BCB ⟗ C 表进行基数估计。实际上,这会导致估计到的基数偏小,此时需要进行上调 ( scale-up ) 修正。

为了给基数修正留下足够的线索,本文提出:在原 T\mathcal{T} 表中新增名为 scattering coefficient 的额外属性列信息。

添加两个额外的列:SA,BS_{A,B}SB,AS_{B,A}。其中,SA,BS_{A,B} 属性列表示:对于 AA 表的每一条记录,BB 表可提供多少可供连接的行数,反之亦然。这两个属性列用于修正因连接非相关表 ( 对于 QQ 查询而言 ) 而需要下调基数估计的情况。此外,本例还需新增一列 ST1,{T1,T2}S_{T_1,\{T_1,T_2\}},以应对 TCT_CTATBT_A⟗T_B 进行连接的情况,以便进行基数上调。

表里的每一条数据可能同时需要进行上调 ( 记作 ee ) 和下调 ( 记作 ss ),则它满足查询 QQ 查询的概率被系数 e/se/s 修正。本文默认设定 eess 的最小值为 1 而非 0,原因是每条数据一定会在全外连接的表 T \mathcal{T} 中出现至少一次,完整计算过程,见10

简而言之,scattering coefficient 列的数量和 DD 中的表数目成线性关系。对于连接树 JJ 的任意一个节点 TiT_i ,其 scattering coefficient 列的各种信息将在构建 FSPN 模型 FTi\mathcal{F}_{T_i} 时一同计算,见11

多表模型的更新

当节点 TiT_i 中的任意一张子表有新数据到达时,会导致 Ti\mathcal{T_i} 更新数据。下面是一个简单的示例:

delta_t_1.png

BB 表有新数据 ΔB\Delta B 到达时,它可以与原表 AA 产生新的连接关系,将这部分新增数据记作:ΔF+\Delta\mathcal{F_+};而 F\mathcal{F} 表原有的数据也需要进行检查:有部分数据的 scattering coefficient 列需要进行更新,记作 ΔF\Delta\mathcal{F_*}。同时,原本没有连接关系的行可能已经失效,需要被及时删除,记作 ΔF\Delta\mathcal{F_-}。如下图所示:

delta_t_2.png

为了加速多表模型的更新过程,将 T\mathcal{T} 表的所有 scattering coefficient 列记作 STS_{\mathcal{T}},将所有属性列记作 ATA_{\mathcal{T}} ,则概率模型 P(ST,AT)P(S_{\mathcal{T}},A_{\mathcal{T}}) 可以被视为 split 节点,左右节点分别为 P(SA)P(S_{\mathcal{A}})P(STAT)P(S_{\mathcal{T}}|A_{\mathcal{T}})。对于左节点,可以直接将增量数据 ΔF+ΔF+ΔF\Delta\mathcal{F_+}-\Delta\mathcal{F_-}+\Delta\mathcal{F_*} 传播到 FSPN 模型,而 STS_{\mathcal{T}} 的更新则是耗时操作,本文则选择通过异步方式进行更新,以此提高模型效率。

性能对比

本文对已有的其它方法进行对比:Histogram,Naru,NeoroCard ( Naru 在多表查询的拓展 ),BN,DeepDB,SPN-Multi,MaxDiff,Sample,KDE,MSCN。FSPN 的 RDC 阈值设定为 τl=0.3\tau_l=0.3 ( 低于此值认为独立 ),τh=0.7\tau_h=0.7 ( 低于此值认为弱相关 )。性能的评测指标选择广泛使用的 q-error。计算方式为:

q-error=max{Card(T,Q)Card(T,Q)^,Card(T,Q)^Card(T,Q)}\text{q-error}=max\{\frac{Card(T,Q)}{\widehat{Card(T,Q)}},\frac{\widehat{Card(T,Q)}}{{Card(T,Q)}}\}

本文的算法基于 python 实现,实验环境为 CentOS 系统,64 核 Intel Xeon Platinum 8163 2.50 GHz,128 Gb DDR4 内存,以及 1 Tb SSD。

单表性能比较

本文使用 GAS 和 DMV 两个现实的数据集进行性能评测。GAS 包含了 3,843,159 条数据,而 DMV 包含了 11,591,877 条数据。

GAS 数据源:UCI Machine Learning Repository: Gas sensor array temperature modulation Data Set

DMV 数据源:Vehicle, Snowmobile, and Boat Registrations - CKAN (data.gov)

对于每一个数据集,本文随机生成了 1 万条查询,每个属性列被选择的概率均为 0.5。下表 ( 对应原文 Table 1) 展示了不同算法的 q-error 分布。

table1.png

总而言之,从准确率的角度分析,排名依次为:FLAT ≈ Naru12 ≈ SPN-Multi > BN > DeepDB >> Sample/MSCN13 >> KDE14 >> MaxDiff/Histogram。细节如下:

  1. Naru 的高准确率源于它基于 AR 的分解方法,以及庞大的 DNN 网络。
  2. SPN-Multi 同样达到了一个高准确率,因为它抛弃了属性之间完全独立的假设。
  3. BN 和 DeepDB 的准确率逊色于 FLAT。BN 的性能受到了其结构的制约,而 DeepDB 似乎并不能很好地处理高度关联的数据集。
  4. MSCN 和 Sample 的表现并不稳定。考虑到 MSCN 是一个 query-driven 的模型,它的表现取决于查询负载和训练的查询样本是否足够相似。
  5. FLAT 的性能远超 Histogram,MaxDiff 和 KDE:Histogram 和 MaxDiff 仅做了粗粒度的独立性假设;KDE 则无法有效地用核方法处理高维度数据 ( high-dimensional data )。

下方的图表展示了不同方法的平均延迟时间,为了公平起见,这里仅比较了基于 CPU 的方法。排名依次为:Histogram ≈ FLAT > MSCN > SPN-Multi/DeepDB > KDE/Sample >> 其它。

FLAT 在两个数据集的估计延时分别为 0.1ms 和 0.5ms,远超其它的方法。这证明了 FSPN 是高性能的模型。除此之外,MSCN 在这里仅需要对 DNN 做一次前向传播,因此也取得了不错的成绩。

DeepDB,SPN-Multi,KDE 和 Sample 需要 10ms 去处理每一条查询。DeepDB 和 SPN-Multi 同样是基于 SPN 的模型,而它们在本次测试中均构建出了约 800+ 个节点的树结构。而 FSPN 使用了更加轻量,紧凑的模型,相比之下只构建了 200 个节点。额外的,KDE 和 Sample 需要大量的样本进行检测,这有损了它们的性能。

Table 1 还反应出 FSPN 模型的训练时间要比其它模型更小。这得益于 FSPN 的模型,同时又不需要像基于 SGD 的 DNN 训练那样需要迭代式的梯度更新。

多表性能比较

本文使用经典的 IMDB 数据集测试多表查询的场景。同时,创建了包含了 70 个简单查询的轻量级 JOB-light,以及包含 1500 个复杂查询的 JOB-weight。表 2 ( 对应原文 Table 2 ) 展示了各个估计模型在 JOB-light 查询集的表现情况。

table2.png

FLAT 在准确率方面仍有显著优势。从存储方面,FLAT 仅仅位列 Histogram 和 BN 之后。但相较于单表情形,FSPN 模型变得十分庞大 —— 因为在多表情况下要构建 scattering coefficient 列并维护。

在 JOB-ours 查询集下,其它方法的性能发生了显著下降,但是 FLAT 仍然能够保持相对最佳的性能。下图 ( 对应原文 Figure 7 ) 表明了 FSPN 模型在两种工作负载下的查询延迟均在 5ms 左右,仅稍次于 Histogram 方法。

figure7.png

更新性能

本文提取了 IMDB 前 80% 的数据用于训练模型,并用剩下 20% 的数据用于测试数据更新的场景。如下表 ( 对应原文 Table 4 ) 展示:

table4.png

再训练模型 ( retrained model ) 的准确率最高,而代价是最长的训练时间。由于增量数据导致概率密度发生变化,那些不支持更新模型的方法的准确率在当前场景下是最低的。相比较而言,本文的 FSPN 模型在准确率和更新时延之间保持了良好的平衡。

结语

本文提出了一个基于 SPN 的改进模型 —— FSPN,一个轻量且高效的无监督图模型。它最大的亮点在于可以灵活根据属性列之间不同的依赖程度 ( 独立,弱相关,强相关 ),综合利用独立因子分解和条件因子分解的思路进行建模,同时保证了系统的准确性和时效性。

不同场景下的对比实验均验证了 FSPN 模型的高效性和稳定性,相信该模型在未来能够在数据库相关的工作中充当更加重要的角色。

参考文献

Footnotes

  1. Shohedul Hasan, Saravanan Thirumuruganathan, Jees Augustine, Nick Koudas,and Gautam Das. 2019. Multi-attribute selectivity estimation using deep learning.In SIGMOD.

  2. Zongheng Yang, Amog Kamsetty, Sifei Luan, Eric Liang, Yan Duan, Xi Chen, and Ion Stoica. 2021. NeuroCard: One Cardinality Estimator for All Tables. PVLDB 14, 1 (2021), 61–73.

  3. Zongheng Yang, Eric Liang, Amog Kamsetty, Chenggang Wu, Yan Duan, Xi Chen, Pieter Abbeel, Joseph M Hellerstein, Sanjay Krishnan, and Ion Stoica. 2019. Deep unsupervised cardinality estimation. PVLDB (2019).

  4. Lise Getoor, Benjamin Taskar, and Daphne Koller. 2001. Selectivity estimation using probabilistic models. In SIGMOD. 461–472.

  5. Kostas Tzoumas, Amol Deshpande, and Christian S Jensen. 2011. Lightweight graphical models for selectivity estimation without independence assumptions. PVLDB 4, 11 (2011), 852–863.

  6. Benjamin Hilprecht, Andreas Schmidt, Moritz Kulessa, Alejandro Molina, Kristian Kersting, and Carsten Binnig. 2019. DeepDB: learn from data, not from queries!. In PVLDB.

  7. P Griffiths Selinger, Morton M Astrahan, Donald D Chamberlin, Raymond A Lorie, and Thomas G Price. 1979. Access path selection in a relational database management system. In SIGMOD. 23–34.

  8. David Lopez-Paz, Philipp Hennig, and Bernhard Schölkopf. 2013. The randomized dependence coefficient. In NIPS. 1–9.

  9. K Krishna and M Narasimha Murty. 1999. Genetic K-means algorithm. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics) 29, 3 (1999),433–439.

  10. Rong Zhu, Ziniu Wu, Yuxing Han, Kai Zeng, Andreas Pfadler, Zhengping Qian, Jingren Zhou, and Bin Cui. 2020. FLAT: Fast, Lightweight and Accurate Method for Cardinality Estimation [Technical Report]. arXiv preprint arXiv:2011.09022 (2020).

  11. Zhuoyue Zhao, Robert Christensen, Feifei Li, Xiao Hu, and Ke Yi. 2018. Random sampling over joins revisited. In SIGMOD. 1525–1539.

  12. Zongheng Yang and Chenggang Wu. 2019. Github repository: naru project.github.com/naru-projec… (2019).

  13. Andreas Kipf, Thomas Kipf, Bernhard Radke, Viktor Leis, Peter Boncz, and Alfons Kemper. 2019. Learned cardinalities: Estimating correlated joins with deep learning. In CIDR.

  14. Luch Liu. 2020. Github repository: scikit-learn. github.com/scikit learn/scikit-learn (2020).