Presto 架构原理与优化介绍 | 青训营笔记

66 阅读6分钟

image.png 这是我参与「第四届青训营 」笔记创作活动的的第七天

1.概述

大数据与OALP系统的演进

什么是大数据

关于大数据我们参考马丁·希尔伯特的总结:大数据其实是在2000年后,因为信息化的快速发展、信息交换、信息存储、信息处理三个方面能力的大幅增长而产生的数据。

  • 信息交换
    通信和网络带宽的大幅增长
  • 信息存储
    计算机存储量的大幅增长
  • 信息处理
    整理、转换、分析数据的能力大幅增长

Hadoop:基于廉价机器存算分离的大规模分布式处理系统(cpu性能好的进行计算,差的进行存储)

1.谷歌在2003、2004年发布Google File System论文,Mapreduce论文

2.2008年,Hadoop成为apache顶级项目

OLAP对业务数据执行多维分析,并提供复杂计算,趋势分析和复杂数据建模的能力。

常见的OLAP引擎:

  • 预计算引擎: Kylin,Druid
  • 批式处理引擎: Hive,Spark
  • 流式处理引擎: Flink
  • 交互式处理引擎: Presto,Clickhouse,Doris OLAP

核心概念:

  • 维度
  • 度量

image.png

Presto 设计思想

Presto 最初是由Facebook研发的构建于Hadoop/HDFS系统上的PB级交互式分析引擎。

特点:

  • 多租户任务的管理与调度
  • 多数据源联邦查询
  • 支持内存化计算
  • Pipeline式数据处理

2.Presto 基础原理与概念

基础概念

服务相关概念

  1. Coordinator
  • 解析SQL语句
  • 生成执行计划
  • 分发执行任务给Worker节点
  1. Worker
  • 执行Task处理数据
  • 与其他Worker交互传输数据
  1. Connector
  • 一个connector代表一种数据源,可以认为Connector是由Presto提供的适配多数据源的统一接口
  1. Catalog
  • 管理元信息与实际数据的映射关系

Query相关概念

  • Query:基于SQL parser后获得的执行计划
  • Stage:根据是否需要shuffle将Query拆分成不同的subplan,每一个subplan就是一个stage
  • Fragment:基本等价于Stage,属于在不同阶段的称呼
  • Task:单个Worker节点上的最小资源管理单元:在一个节点上,一个Stage只有一个Task,一个Query可能有多个Task
  • Pipeline:Stage按照LocalExchange切分为若干个Operator集合,每个Operator集合定义一个Pipeline
  • Driver:Pipeline的可执行实体,Pipeline和Driver的关系可类比程序和进程,是最小的执行单元,通过火山迭代模型执行每一个Operator
  • Split:输入数据描述(数据实体是Page),数量上和Driver一一对应,不仅代表实际数据源spilt,也代表了不同stage间传输的数据
  • Operator:最小的物理算子

数据传输相关

  • Exchange:表示不同Stage间的数据传输,大多数意义下等价于Shuffle
  • LocalExannge:Stage内的rehash操作,常用于提高并行处理数据的能力(Task在Presto中只是最小的容器,而不是最小的执行单元)默认数值是16
  • 如何衡量某个任务某个Stage的真实并行度?

答:在不同Pipeline下Split(Driver)的数目之和

核心组件架构

Presto架构图

服务发现

  • Worker配置文件配置Discovery Service地址
  • Worker节点启动后会向Discovery Service注册
  • Coordiantor从Discovery Service获取Worker的地址

通信机制

Presto Clinent / JDBC Client 与Service间通信Http
Coordinator 与 Worker间的通信Thrift / Http
Worker与Worker间的通信Thrift / Http

Thrift具有更好的数据编码能力,Http1.1还不支持头部信息的压缩,Thrift具有更好的数据压缩率

节点状态

  • ACTIVE:活跃
  • INACTIVE:不活跃
  • SHUTDOWN:代表想要关闭但是还可以处理作业的状态

3.Presto 重要机制

多租户资源管理

Resource Group

· 类似于Yarn多级队列的资源管理方式

· 基于CPU、MEMORY、SQL执行数进行资源使用量限制

优点: 轻量的Query级别的多级队列资源管理模式

缺点: 存在一定的滞后性,只会对Group中正在运行的SQL进行判断

多租户下的任务调度

物理计划生成

1.Antlr4解析生成AST

2.转换成Logical Plan

3.按照是否存在Shuffle,切分成不同的Stage

image.png

任务调度

  • Stage调度
    调度策略和分阶段调度
  • Task调度
    Task的数量与节点的确定
  • Split调度
    FIFO
    优先级调度:快速响应

内存计算

· Pipeline化的数据处理:更好的实现算子间的并行,保证了每个Task内的数据流式处理 · Back pressure Mechanism:控制split生成流程与operator的执行

4.Presto重要机制

多租户资源管理

Rescource Group

  • 类似Yarn多级队列的资源管理方式
  • 基于CPU\MEMORY\SQL执行数进行资源使用量限制

优点:轻量级(根据配置文件可以自动生成队列,不需要提前创建队列)

缺点:存在一定滞后性,只会对Group中正在运行的SQL进行判断

物理计划生成

  1. Antlr4解析生成AST
  1. 转换成Logical Plan
  1. 按照是否存在Shuffle,切分成不同的Stage

多租户下的任务调度

Stage调度

PhasedExecutionPolicy(分阶段调度)

不代表每个Stage都分开调度

应用场景(join查询)

  • Build端:右表构建用户join的hashable
  • Probe端:对左表数据进行探查,需要等待build端完成
  • Build端构建hashtable端时,probe端是一直在空跑的

AllAtOnceExecutionPolicy(同时调度)(默认)

延迟低,会存在任务空跑

Task调度

Task的数量如何确定?

  • Source:根据数据meta决定分配多少个节点
  • Fixed:hash partition count确定
  • Sink:汇聚结果,一台机器
  • Scaled:无分区限制,可扩展,如write数据
  • Coordinator_Only:只需要coordinator参与

选择节点的调度策略

  • HARD_AFFINITY:计算,存储Local模式,保障计算与存储在同一个节点,减少数据传输
  • SOFT_AFFINITY:基于某些特定算法,如一致性HASH函数,常用于缓存场景,保证相似的Task调度到同一个Worker
  • NO_PREFRENCE:随机选取,常用于普通的纯计算Task

Split调度

FIFO:顺序执行,绝对公平。优先级调度:快速响应

  1. 按照固定的时间片,轮训Split处理数据,处理1S,再重新选择一个split执行
  2. Split间存在优先级

MultilevelSpiltQueue

  • 5个优先级level理论上分配的实践占比为16:8:4:2:1(2-based)

优势:

  1. 优先保证小Query快速执行
  2. 保障大Query存在固定比例的时间片,不会被完全饿死

内存计算

Pipeline化的数据处理

Pipeline(按LocalExchange拆分):

  • pipeline的引入更好的实现算子间的并行
  • 语义上保证了每个Task内数据流式处理

Back Pressure Mechanism(反压机制)

  • 控制split生成流程
  • 控制operator的执行

多数据源联邦查询

将数个数据源进行统一的抽象,最后由presto server 进行统一的物理执行

局限性:

  • 元数据管理与映射(每个connector管理一套元数据服务)
  • 谓词下推
  • 数据源分片

5.性能优化

常用性能分析工具

  • Grafana
  • Jstack
  • JMX
  • JMAP & GC
  • Arthas:线上问题排查工具
  • Flame Figure
  • Presto UI