今日笔记:Exactly Once 语义在 Flink 中的实现 | 青训营笔记

90 阅读9分钟

这是我参与 「第四届青训营 」 笔记创作活动的第3天

第三节:Exactly Once 语义在 Flink 中的实现

3.1 概述

本节课程主要分为四个方面:

  1. 数据流和动态表

  2. Exactly-Once 和 Checkpoint

  3. 端到端 Exactly-Once 实现

  4. Flink 案例讲解

课前部分主要罗列课程中涉及到的概念。对于不熟悉的概念,同学们可以提前查询预习;课中部分主要罗列每一部分的关键思路,帮助同学们跟上课程的进度;课后部分是一些问题,帮助同学们在课后梳理本课程的重点。

3.2 课前 (必须)

3.2.1 数据流和动态表

  • Stream: 数据流

  • Dynamic Table: 动态表

  • Continuous Queries: 连续查询

  • Append-only Stream: Append-only 流(只有 INSERT 消息)

  • Retract Stream: Retract 流(同时包含 INSERT 消息和 DELETE 消息)

  • Upsert Stream:: Upsert 流(同时包含 UPSERT 消息和 DELETE 消息)

  • Changelog: 包含 INSERT/UPDATE/DELETE 等的数据流

  • State: 计算处理逻辑的状态

3.2.2 Exactly-Once 和 Checkpoint

  • Application Consistency Guarantees: 作业一致性保证

    • At-most-once:每条数据消费至多一次
    • At-least-once:每条数据消费至少一次
    • Exactly-once: 每条数据都被消费且仅被消费一次
  • Checkpoint: Flink 实现各个计算逻辑状态快照算法,也可指一次状态快照

  • Checkpoint barrier: 用于标识状态快照的制作,也将数据划分成不同的消费区间

  • Checkpoint Alignment: 等待多个上游的Checkpoint barrier到达的现象

  • JobManager: 负责协调和管理 Checkpoint

3.2.3 端到端 Exactly-Once 实现

  • Two-phase commit protocol: 两阶段提交协议

  • Transaction: 一系列保证原子性操作的集合,即操作同时执行或者都不执行

  • Kafka: 消息中间件

  • State Backend: 用于管理和保存状态到远端可靠存储

3.2.4 Flink 案例讲解

  • Deduplication:去重,在 state 保留的时间内对重复消息进行去重

  • Aggregation:聚合操作,比如求和、求最大值等

3.3 课中

3.3.1 数据流和动态表

  • 随处可见的流式数据:
    • 银行内的实时数据
    • 铁路运输实时产生的数据
    • 抖音里面点赞数据的实时体现
    • ……

传统SQL和流处理:

特征SQL流处理
处理数据的有界性处理的表是有界的流是一个无限元组序列
处理数据的完整性执行查询可以访问完整的数据执行查询无法访问所有的数据
执行时间批处理查询产生固定大小结果后终止查询不断更新结果,永不终止
  • 如何在实时数据流中定义 SQL 语义中的表?

    • 动态表 随时间不断变化的表,在任意时刻,可以像查询静态批处理表一样查询它们
  • 实时流的查询特点?

    • 查询从不终止
    • 查询结果会不断更新,并且会产生一个新的动态表
    • 结果的动态表也可转换成输出的实时流
  • 动态表到实时流的转换

    • Append-only Stream: Append-only 流(只有 INSERT 消息)
    • Retract Stream: Retract 流(retract:缩回)(同时包含 INSERT 消息和 DELETE 消息)

img

第一个+Bod,2表示的是Bod点击了两次,后面的-Bod,1,是把前面的+Bod,1给回撤或者删除这个数据

  • Upsert Stream:: Upsert 流(同时包含 UPSERT 消息和 DELETE 消息)

img

  • 算子状态
    • 在流式计算中,会存在有状态的计算逻辑(算子),有状态的算子典型处理逻辑如下图所示:

img

比如,需要计算某个用户在网上的点击量,该用户在网站当前的总点击次数就是算子状态,对于新的输入数据,先判断是否是该用户的点击行为,如果是,则将保留的点击次数(状态)增加一,并将当前累加结果输出。

  • 数据流和动态表的转换关系图

img

3.3.2 Exactly-Once 和 Checkpoint

一致性保证语义

不同数据处理保证的语义

语义具体
At-most-noce出现故障的时候,啥也不做,数据处理不保证任何语义,处理时延低
At-least-once保证每条数据均至少被处理一次,一条数据可能存在重复消费(每一条数据不会丢失)
Exactly-once最严格的处理语义,从输出结果看来,每条数据均被消费一次,仿佛故障从未发生
  • At-most-once:每条数据消费至多一次,处理延迟低

  • At-least-once:每条数据消费至少一次,一条数据可能存在重复消费

  • Exactly-once:每条数据都被消费且仅被消费一次,仿佛故障从未发生

制作快照的时间点
  • 状态恢复的时间点:需要等待所有处理逻辑消费完成 source 保留状态及之前的数据
  • 一个简单的快照制作算法
      1. 暂停处理输入的数据
      2. 等待后续所有处理算子消费当前已经输入的数据
      3. 待 2 处理完后,作业所有算子复制自己的状态并保存到远端可靠存储
      4. 恢复对输入数据的处理

c2356ba62c18657f9ace6baa9a9c4c3.jpg

Checkpoint

  • Checkpoint barrier 的下发
    • 每一个 source 算子都接收到 JM 发送的 Checkpoint Barrier 标识状态快照制作的开始。

img

  • 算子状态制作和 barrier 传递
    • 各个 source 保存自己状态后,向所有连接的下游继续发送 Checkpoint Barrier,同时告知 JM 自己状态已经制作完成

img

  • 多个上游的等待 barrier 对齐现象
    • 算子会等待所有上游的 barrier 到达后才开始快照的制作;
    • 已经制作完成的上游算子会继续处理数据,并不会被下游算子制作快照的过程阻塞

img

  • Checkpoint 并不阻塞算子数据处

img

  • Checkpoint ACK和制作完成
    • 所有算子都告知 JM 状态制作完成后,整个 Checkpoint 就结束了

img

Checkpoint 对作业性能的影响
  • 解耦了快照制作和数据处理过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作完成快照
  • 在快照制作和 Barrier Alignment 过程中需要暂停处理数据,仍然会增加数据处理延迟
  • 快照保存到远端也有可能极为耗时。

3.3.3 端到端 Exactly-Once 实现

两阶段提交协议(2PC)

在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事物性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑,这个中心节点叫做协作者,被中心节点调度的其他业务节点叫做参与者。

例如:

银行转账中,张三给李四转600元,张三的账户里面减少600元,李四的账户中多了600元,或者两边的账户金额不变,这是同步发生的。要么同步执行,要么同步不执行。

两阶段提交协仪——预提交阶段

  • 协作者向所有参与者发送一个 commit 消息
  • 每个参与的协作者收到消息后,执行事务,但是不真正提交
  • 若事务成功执行完成,发送一个成功的消息;执行失败,则发送一个失败的消息

两阶段提交协仪——提交阶段

若协作者成功接收到所有的参与者 vote yes 消息

  1. 协作者向所有参与者发送一个 commit 消息
  2. 每个收到 commit 消息的参与者释放执行事务所需的资源,并结束此次事务的执行
  3. 完成步骤 2 后,参与者发送一个 ack 消息给协作者
  4. 协作者收到所有参与者的 ack 消息后,标识该事务执行完成

img

  • Coordinator:协作者,同步和协调所有节点处理逻辑的中心节点

  • Participant:参与者,被中心节点调度的其他执行处理逻辑的业务节点

3.3.4 两阶段提交协议在 Flink 中的应用

  • Flink 中协作者和参与者的角色分配

img

  • 协作者(JobManager)发起阶段一提交

img

  • 各算子 Checkpoint 的制作

img

  • 提交阶段及 Checkpoint 的制作完成

img

3.3.5 Flink 两阶段提交总结

  1. 事务开启:在 sink task 向下游写数据之前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读
  2. 预提交阶段:Jobmanage 开始下发 Checkpoint barrier ,当各个处理逻辑接收到 barrier 后停止处理后续数据,对当前状态制作快照,此时 sink 也不在当前事务下继续处理数据(处理后续的数据需要重新打开下一个事务)。状态制作成功则向 JM 成功的消息,失败则发送失败的消息
  3. 提交阶段:若 JM 收到所有预提交成功的消息,则向所有处理逻辑(包括 sink )发送可以提交此次事务的消息,sink 接收到此消息后,则完成此次事务的提交,此时下游可以读到此次事务写入的数据;若 JM 有收到预提交失败的消息,则通知所有处理逻辑回滚这次事务的操作,此时 sink 则丢弃这次事务提交的数据下。

3.3.6 Flink 案例简介

A. 账单计算服务场景简介

从kafka中读取账单消息,进行处理后写入到 MySQL 中

课3案例.png

执行步骤:

  1. 在上次记录的位点之后,从 kafka 中读取固定大小的数据
  2. 对该批数据进行去重和聚合计算
  3. 处理完成后写入 mysql 中,若全部写入成功,则记录下当前读取到的消息的终止位置;若处理或者写入失败,则不记录位点
  4. 跳回步骤1

存在的问题:

  1. 非严格意义上的端到端的 Exactly-Once 语义:若该批数据处理完成后,在写入 Mysql 中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入
  2. 去重能力有限:只能在当前处理的一批数据内进行去重,无法在批与批之间进行去重;

Flink 解决方案

img

从kafka 中读取账单消息,进行处理后写入到mysql中:

优势:

  1. 严格意义上的端到端的 Exactly-Once 语义:下游读到的数据是不丢不重的
  2. 增强的去重能力:可以在更长的时间维度对数据进行去重