Presto 架构原理与优化介绍

1,738 阅读6分钟

这是我参与「第四届青训营 」笔记创作活动的的第10天

OLAP演进

OLAP  (OnLine Analytical Processing) 对业务数据执行多维分析,并提供复杂计算,趋势分析和复杂数据建模的能力。是许多商务智能(BI)应用程序背后的技术。现如今OLAP已经发展为基于数据库通过SQL对外提供分析能力。

OLAP VS MapReduce

  1. MapReduce 代表了抽象的物理执行模型,使用门槛较高
  2. 与 Mapreduce Job 相比, OLAP 引擎常通过 SQL的形式,为数据分析、数据开发人员提供统一的逻辑描述语言,实际的物理执行由具体的引擎进行转换和优化。

名词介绍

服务相关

coordinator:负责meta管理,worker管理,query的解析调度(相当于hdfs里的namenode)master

  • 解析SQL语句
  • 生成执行计划
  • 分发执行任务给Worker节点

worker:负责计算读写

  • 执行Task处理数据
  • 与其他Worker交互传输数据

image.png

数据源相关

  • Connector:一个Connector代表一种数据源。可以认为Connector是由Presto提供的适配多数据源的统一接口。
  • Catalog:管理元信息与实际数据的映射关系。一个 Catelog 包含 Schema 和 Connector 。

query相关

  • Query:基于SQL parser后获得的执行计划。
  • Stage:根据是否需要 shuffle 将 Query 拆分成不同的 subplan,每一个subplan便是一个stage。
  • Fragment:基本等价于 Stage,属于在不同阶段的称呼,可以认为两者等价。
  • Task:单个Worker节点上的最小资源管理单元: 在一个节点上,一个Stage只有一个 Task,一个Query可能有多个Task。
  • Pipeline:Stage按照LocalExchange 切分为若干Operator集合,每个Operator集合定义一个Pipeline.
  • Driver:Pipeline的可执行实体 , Pipeline 和 Driver 的关系可类比 程序和进程,是最小的执行单元,通过火山迭代模型执行每一个Operator。
  • Split:输入数据描述(数据实体是Page),数量上和Driver一一对应,不仅代表实际数据源split,也代表了不同stage间传输的数据。
  • Operator:最小的物理算子。

image.png

数据传输相关

  • Exchange:表示不同 Stage 间的数据传输,大多数意义下等价于Shuffle
  • LocalExchange:Stage 内的 rehash 操作,常用于提高并行处理数据的能力 (Task在Presto 中只是最小的容器,而不是最小的执行单元)

LocalExchange的默认数值是16。

架构

image.png

Discovery Service:

  1. Worker 配置文件配置DiscoveryService地址
  2. Worker 节点启动后会向Discovery Service注册
  3. Coordiantor从Discovery Service 获取Worker的地址

通信机制

  1. Presto Client / JDBC Client 与 Server 间通信:Http
  2. Coordinator 与 Worker 间的通信:Thrift / Http
  3. Worker 与 Worker 间的通信:Thrift / Http

Http 1.1 vs Thrift

Thrift具有更好的数据编码能力,Http 1.1还不支持头部信息的压缩,Thrift具有更好的数据压缩率。

节点状态

  • Active
  • InActive
  • Shutdown

Presto重要机制

多租户资源管理

假设某租户用户通过Prestio-cli提交了一个sql

select customer_type,avg(cost) as a
from test_table
group by customer_type
order by a
limit 10;

Resource Group:

  • 类似Yarn多级队列的资源管理方式
  • 基于CPU、MEMORY、SQL执行数进行资源使用量限制

image.png

image.png

image.png

优点::轻量的 Query 级别的多级队列资源管理模式

缺点::存在一定滞后性,只会对Group 中正在运行的 SQL 进行判断

多租户任务调度

物理计划生成

  1. Antlr4解析生成AST
  2. 转换成 Logical Plan
  3. 按照是否存在Shuffle (Exchang同的 Stage(Fragment)

调度任务

  • stage
  • task
  • split

stage

参考presto中的AllAtOnce与Phased

配置query.execution-policy,有两个选项,一个是all-at-once,另一个是phased,分别对应以下两种策略

策略

  • 同时调度(AllAtOnceExecutionPolicy):low latency,存在cpu空消耗
  • 分阶段调度(PhasedExecutionPolicy)默认,不代表每个stage都得分开

join查询为例

select * 
from test1 
join test2 
on test1=test2.stuid

image.png

从执行计划上看,关键的有三个stage,分别是源头的stage2和stage3,以及做join的stage1。在这个简单的例子中,如果选择了AllAtOnceExecutionPolicy方式调度,那么stage(0,1,2,3)会在第一轮调度时一起进行调度,如果选择了PhasedExecutionPolicy调度方式,那么会进行两轮调度,第一轮调度stage(0,1,3),然后下一轮调度stage(2)。相当于AllAtOnceExecutionPolicy顾名思义所有的stage一次性调。,PhasedExecutionPolicy顾名思义是分阶段调度,但是阶段怎么分就是个问题了,比如在这个例子中,如果phased先调度stage(0,1,2)那么不考虑exchange buffer的话,stage2是不可以运行的,因为join build端还未进行build。

Phase有一定延迟,一定程度上避免的了cpu的空消耗,以及spilt队列过长的问题。

task

Task的数量如何确定:

  • Source : 根据数据meta决定分配多少个节点
  • Fixed:hash partition count 确定,如集群节点数量
  • Sink:汇聚结果,一台机器
  • Scaled:无分区限制,可拓展,如write数据
  • Coordinator_Only:只需要coordinator参与

选择什么样的节点:

  • HARD_AFFINITY:计算、存储Local模式,保障计算与存储在同一个节点,减少数据传输
  • SOFT_AFFINITY:基于某些特定算法,如一致性HASH函数,常用于缓存场景,保证相似的 Task调度到同一个 Worker
  • NO_PREFERENCE:随机选取,常用于普通的纯计算Task

split

  • FIFO: 顺序执行,绝对公平
  • 优先级调度:快速响应
  1. 按照固定的时间片,轮训Split处理数据,处理1s,再重新选择一个Split执行
  2. Split 间存在优先级

MultilevelSplitQueue:5个优先级 level 理论上分配的时间占比为16:8:4:2:1 (2-based)

优势:

  • 优先保证小Query快速执行
  • 保障大Query存在固定比例的时间片,不会被完全饿死

内存计算

Pipeline化的数据处理

Pipeline(按LocalExchange 折分):

  • Pipeline的引入更好的实现算子间的并行
  • 语义上保证了每个Task内的数据流式处理

image.png

Back Pressure Mechanism

什么叫“背压”?

管道满了后给发送者一个反向压力。

硬盘的写入速度,远远小于硬盘的读取速度。如果可读流太快,而可写流的无法迅速的消费可读流传输的数据,写入流将会把 chunk,push 到写队列中方便之后使用,这样就会造成数据在内存中的累积。这个时候将会触发 backpressur(背压)  机制。如果没有 backpressur(背压)  机制,系统将会出现如下的问题:

  1. 内存溢出
  2. 其他进程变得缓慢
  3. 垃圾收集器将超负荷运作

怎么做的?

  • 控制split生成流程
  • 控制Operator执行速度
  • 针对每个Task定时检查, 如果 OutputBuffers 使用率低于 0.5 (下游消费较快, 需要提高生产速度), Split 并发度+1
  • "sink.max-buffer-size" 写入buffer的大小控制;"exchange.max-buffer-size" 读取buffer的大小控制
  • Buffer 达到最大值时Operator会进入阻塞状态

多数据源联邦查询

将各个数据源进行统一的抽象,最后由 presto server 进行统一的物理执行。(多数据源

image.png

局限性

  • 元数据管理与映射(每个connector管理一套元数据服务)
  • 谓词下推
  • 数据源分片