这是我参与「第四届青训营」笔记创作活动的的第3天,以下是我的课堂笔记。
本次课程主要分为四个大板块:
1. 数据流和动态表
2. Exactly-Once和Checkpoint
3. 端到端Exactly-Once 实现
4. Flink案例讲解
1. 数据流和动态表
1.1 传统的SQL和流处理
1.2 在流上定义表
下图显示了单击事件流(左侧)如何转换为表(右侧)。当插入更多的单击流记录时,结果表将不断增长:
动态表:与表示批处理数据的静态表不同,动态表是随时间变化的。可以像查询静态批处理表一样查询它们。
1.3 连表查询
连续查询:
· 查询从不终止
· 查询结果会不断更新,产生一个新的动态表
统计这个用户在这个网站的点击量
1.4 查询产生仅追加数据的动态表
每个窗口时间用户的点击次数(连续没有重叠的一小时内点击次数)
1.5 两个表查询的对比
虽然这两个示例查询看起来非常相似(都计算分组计数聚合),但它们在一个重要方面不同:
1.第一个查询更新先前输出的结果,即定义结果表的changelog流包含INSERT和
UPDATE操作;
2.第二个查询只附加到结果表,即结果表的changelog流只包含INSERT 操作。
1.6 Retract 消息的产生
1.7 不同数据处理保证的语义
1.At-most-once: 出现故障的时候,啥也不做。数据处理不保证任何语义,处理时延低;(对数据准确性要求不高的场景,当数据量特别大时,能保证计算结果时相似的,也能处理海量的数据,可以得到一个比较好的近似)
2. At-least-once: 保证每条数据均至少被处理一次,一条数据可能存在重复消费。(保证数据不丢失,但是某些数据会重复消费)
3. Exactly-once: 最严格的处理语义,从输出结果来看,每条数据均被消费且仅消费一次,仿佛故障从未发生。(如银行客户计费,不会数据丢失,且仅消费依次)
2. Exactly-Once和 Checkpoint
2.1 状态快照与恢复
2.2 制作快照的时间点
状态恢复的时间点:需要等待所有处理逻辑消费完成source保留状态及之前的数据。
一个简单的快照制作算法:
1.暂停处理输入的数据;
2.等待后续所有处理算子消费当前已经输入的数据;
3.待2处理完后,作业所有算子复制自己的状态并保
存到远端可靠存储;
4.恢复对输入数据的处理
2.3 Chandy -Lamport算法
同时处理两个数据流(并行独立的处理各自的数据)
两个输出结果(第一个数据只统计偶数累加和的流,第二个并行独立的处理各自的数据)
2.4 Checkpoint对作业性能的影响
- 解耦了快照制作和数据处理过程,各个算子制作完成状态快照后就可以正常处理数据,不用等下游算子制作制作完成快照;
2.在快照制作和Barrier Alignment过程中需要暂停处理数据,仍然会增加数据处理延迟;
3.快照保存到远端也有可能极为耗时。
3. Flink端到端的 Exactly-once语义
3.1 端到端Exactly-once语义
- Checkpoint能保证每条数据都对各个有状态的算子更新一次,sink输出算子仍然可能下发重复的数据;
- 严格意义的端到端的Exactly-once语义需要特殊的sink 算子实现。
3.2 两阶段提交协议
在多个节点参与执行的分布式系统中,为了协调每个节点都能同时执行或者回滚某个事务性的操作,引入了一个中心节点来统一处理所有节点的执行逻辑,这个中心节点叫做协作者(coordinator) 被中心节点调度的其他业务节点叫做参与者(participant)。
3.3 Flink中2PC Sink
这个链路的最上游是kafka
消息队列,二维数组,每个数组的长度都是无限长的,每个数组里面都是有序的,并且每个新增的数据后插在数组的后面,我们都从数据的前面开始读数,或者当做一个二维的队列,他们会有一些并行的队列,从队列的头开始读,回塞到队列尾,是一个无限的做消息队列的存储,既可以用于读又可以用于写,上游是从消息队列读数据,并写道下游消息队列中。
3.4 Flink两阶段提交总结
1. 事务开启 :在 sink task向下游写数据之前,均会开启一个事务,后续所有写数据的操作均在这个事务中执行,事务未提交前,事务写入的数据下游不可读;
2.预提交阶段 :JobManager开始下发Checkpoint Barrier,当各个处理逻辑接收到barrier后停止处理后续数据,对当前状态制作快照,此时sink 也不在当前事务下继续处理数据〈处理后续的数据需要新打开下一个事务)。状态制作成功则向JM成功的消息,失败则发送失败的消息;
3.提交阶段 :若JM收到所有预提交成功的消息,则向所有处理逻辑(包括sink)发送可以提交此次事务的消息,sink接收到此消息后,则完成此次事务的提交,此时下游可以读到这次事务写入的数据;若JM有收到预提交失败的消息,则通知所有处理逻辑回滚这次事务的操作,此时sink则丢弃这次事务提交的数据下。
4. Flink案例讲解
4.1 账单计算服务:场景简介
从Kafka中读取账单消息,进行处理后写入到MySQL中
不允许重复计费,不丢不重(类似于批处理作业)
执行步骤:
1.在上次记录的位点之后,从 Kafka中读取固定大小的数据;
2.对该批数据进行去重和聚合计算;
3.处理完成后写入 Mysql中,若全部写入
成功,则记录下当前读取到的消息的终
止位置;若处理或者写入失败,则不记
录位点;
4.跳回步骤1
存在的问题:
1.非严格意义上的端到端的 Exactly-Once语义:
若该批数据处理完成后,在写入MySQL中发生异常,则存在部分数据写入的情况,下次作业启动后,这部分数据仍然会重复写入;
2.去重能力有限:只能在当前处理的一批数据内
进行去重,无法在批与批之间进行去重;
4.2 账单计算服务:Flink解决方案
从 Kafka中读取账单消息,进行处理后写入到MySQL中
优势:
1.严格意义上的端到端的Exactly-Once语
义:下游读到的数据是不丢不重的;
2.增强的去重能力:可以在更长的时间维度
对数据进行去重。
5. 总结
· 数据流可以转换成动态表,动态表也能重新转换成数据流
· 处理无限数据流的算子可以是有状态的
. Flink通过Checkpoint机制实现故障前后的状态快照制作和恢复
· 支持两阶段提交协议的下游存储可以结合Flink Checkpoint机制实现严格意义上端到端的Exactly-Once语义实现