查询太慢?看看ES是如何把索引的性能压榨到极致的!

241 阅读6分钟
原文链接: mp.weixin.qq.com
推荐原创专栏   大叔的大数据杂谈

【每日五分钟学习大数据】系列 No.20 上一篇文章简单地介绍过了ES的相关概念,还没看的同学快去复习下: ES是什么?看完这篇就不要再问这种低级问题了! 文章的最后提到了倒排索引,不知道有没有勾起大家的好奇心,ES的索引是怎么做,为什么他会被广泛地叫做搜索引擎而不是数据库?根源在它的索引,所以这一篇带你一探究竟。 言归正传,说起索引肯定是绕不开经典的B-Tree,来看两张图简单回顾下你们大学的课本内容。 B-Tree             B+Tree   B+Tree是B-Tree的优化,两者的区别由图应该是可以看得比较清楚的。
  • 非叶子节点只存储键值信息。
  • 所有叶子节点之间都有一个链指针。
  • 数据记录都存放在叶子节点中。
  笼统的来说,b-tree 索引是为写入优化的索引结构。所以当我们不需要支持快速的更新的时候,可以用预先排序等方式换取更小的存储空间,更快的检索速度等好处,其代价就是更新慢。要进一步深入的化,还是要看一下 Lucene 的倒排索引是怎么构成的。           看个具体的倒排索引实例,写入如下三条数据;
ID Name Sex
1 Kate Female
2 John Male
3 Bill Male
ID是Elasticsearch自建的文档id,那么Elasticsearch建立的索引如下: Name
Term Posting List
Kate 1
John 2
Bill 3
Sex
Term Posting List
Female 1
Male [2,3]
  问题来了,在Term量非常大的时候,怎么快速找到目标Term的位置?来看看ES是怎么做的。           Term Dictionary: 把Term按字典序排列,然后用二分法查找Term (存在磁盘) Term Index: 是Term Dictionary的索引,存Term的前缀,和与该前缀对应的Term Dictionary中的第一个Term的block的位置,找到这个第一个Term后会再往后顺序查找,直到找到目标Term。(存在内存)  
Term Index的压缩 所以,理论上Term Index的数据结构就是: Map<Term的前缀, 对应的block的位置> 但是Term量大的情况下同样会把内存撑爆。所以有了基于FST的压缩技术。 Finite State Transducers(FST) :有穷状态转换器,Term Index采用的压缩技术。 举个例子: Map[“cat”  - > 5, “deep” - > 10, “do” - > 15, “dog” - > 2, “dogs” - > 8 ]             
  • 每条边有两条属性,一个表示label(key的元素,上图有点问题,应该是指向a的),另一个表示Value(out)。
  • 每个节点有两个属性,Final=true/false(有key再这个节点结束则为true); final为true时,还有个FinalOut,FinalOut=entry的value值-该路径out值之和。
  • 举个例子:8号节点,对应的entry的key是do,value是15,而该路径out值之和是2,所以FinalOut=15-2=13
  • out值怎么来的?
  • 当只有一条数据写入时如cat,则第一个字节即“c”的out值就等于该entry的value值即“5”;
  • 当deep写入时因为后面d开头的数据还没写,所以“d”的out值就是“10”;
  • 当do写入时,因为“d”=“10”,所以“o”=“15”-“10”=“5”
  • 当dog写入时,因为“d”=“10”,“o”=“5”,已经超过了dog的值“2”,此时,会把“d”设为“2”,“o”设为“0”,这样才能满足dog=“2”的情况。
  • 但是,这样deep和do的out值就要重新分配了
  • deep的整条路径和为“10”,已知“d”=“2”,所以“e”承包剩下的“8”。
  • do的整条路径和为“15”,已经“d”=“2”,“o”=“0”,没有label了,所以FinalOut=15-2-0=13。
  由上所述,不难得出,FST查询的复杂度时O(1),能快速定位到目的Term前缀的Block位置。    
Posting List的压缩 关键在于:增量编码压缩,将大数变小数,按字节存储。   原理就是通过增量,将原来的大数变成小数仅存储增量值,再精打细算按bit排好队,最后通过字节存储。   BitMaps 假设有某个posting list:  [1,3,4,7,10] 对应的bitmap就是:  [1,0,1,1,0,0,1,0,0,1] 用0/1表示某个值是否存在,比如10这个值就对应第10位,对应的bit值是1,这样用一个字节就可以代表8个文档id,旧版本(5.0之前)的Lucene就是用这样的方式来压缩的,但这样的压缩方式仍然不够高效,如果有1亿个文档,那么需要12.5MB的存储空间,这仅仅是对应一个索引字段(我们往往会有很多个索引字段)。Bitmap的缺点是存储空间随着文档个数线性增长。 Roaring bitmaps       将posting list按照65535为界限分块,比如第一块所包含的文档id范围在0~65535之间,第二块的id范围是65536~131071,以此类推。 再用<商,余数>的组合表示每一组id,这样每组里的id范围都在0~65535内了,剩下的就好办了,既然每组id不会变得无限大,那么我们就可以通过最有效的方式对这里的id存储。   short[] 占的空间:2bytes(65535 = 2^16-1  是2bytes 能表示的最大数) bitmap 占的空间: 65536/8 = 8192bytes   当block块里元素个数不超过4096,用short[],因为4096个short[]才等于 8192bytes;而一个bitmap就等于8192bytes了,虽然它能存65536个元素。    
联合索引 联合索引通俗地说就是找到满足多个搜索条件的文档ID。那么这种场景下,倒排索引如何满足快速查询的要求呢?
  • 利用跳表(Skip list)的数据结构快速做“与”运算,或者
  • 利用上面提到的bitset按位“与”
先看看跳表的数据结构: 将一个有序链表level0,挑出其中几个元素到level1及level2,每个level越往上,选出来的指针元素越少,查找时依次从高level往低查找,比如55,先找到level2的31,再找到level1的47,最后找到55,一共3次查找,查找效率和2叉树的效率相当,但也是用了一定的空间冗余来换取的。 假设有下面三个posting list需要联合索引: 如果使用跳表,对最短的posting list中的每个id,逐个在另外两个posting list中查找看是否存在,最后得到交集的结果。 如果使用bitset,就很直观了,直接按位与,得到的结果就是最后的交集。
>>   想学大数据?点击找大叔! << 智能人工推荐: 选方向?大数据的职位你了解多少 戏说数据中台 — 大佬玩概念,小弟写接口 在阿里一年,我颠覆了曾经坚信不疑的技术思维 Spark比MR快是因为在内存中计算?错! 觉得有价值请关注  ▼