这是我参与「第四届青训营 」笔记创作活动的第4天
4.1 概述
1.流式计算与批式计算的比较
数据价值:实时性越高,数据价值越高
实时性和精准性往往不能两全
2.批处理
批处理模型典型的数仓架构为T十1架构,即数据计算时天级别的,当天只能看到前一天的计算结果。通常使用的计算引擎为Hive或者Spark等。计算的时候,数据是完全ready的,输入和输出都是确定性的。
小时级批计算
3.处理时间窗口
实时计算:处理时间窗口
数据实时流动,实时计算,窗口结束直接发送结果,不需要周期调度任务
4.处理时间和事件时间
处理时间:数据在流式计算系统中真正处理时所在机器的当前时间。
事件时间:数据产生的时间,比如客户端、传感器、后端代码等上报数据时的时间。
5.事件时间窗口
实时计算:事件时间窗口
数据实时进入到真实事件发生的窗口中进行计算,可以有效的处理数据延迟和乱序。
什么时候窗才算结束呢?
6.watermark
在数据中插入一些watermark来表示当前的真实时间
在数据存在乱序的时候,watermark用来在乱序容忍和实时性之间做一个平衡
7.小结
1)批式计算一般是T+1的数仓架构
2)数据实时性越高,数据的价值越高
3)实时计算分为处理时间和事件时间
4)事件时间需要Watermark配合来处理乱序
4.2 Watermark
1.什么是watermark
表示系统认为的当前真实的事件时间
2.如何产生watermark
SQL
DataStream
3.如何传递watermark
4.如何通过Flink UI观察Watermark
5.典型问题
1)Per-partition VS per-subtask watermark生成
.Per-subtask watermark生成
早期版本都是这种机制。典型的问题是如果一个 source subtask消费多个partition,那么多个partition之间的数据读取可能会加剧乱序程度。
.Per-partition watermark生成
新版本引入了基于每个partition单独的watermark生成机制,这种机制可以有效避免上面的问题。
2)部分partition/subtask断流
根据上面提到的watermark传递机制,下游subtask会将上游所有subtask的watermark值的最 小值作为自身的watermark值。如果上游有一个subtask的watermark不更新了,则下游的watermark都不更新。
解决方案: Idle source
当某个subtask断流超过配置的idle超时时间时,将当前subtask置为idle,并下发一个 idle的状态给下游。下游在计算自身 watermark的时候,可以忽略掉当前是idle的那些subtask.
3)迟到数据处理
因为watermark表示当前事件发生的真实时间,那晚于watermark的数据到来时, 系统会认为这种数据是迟到的数据。
算子自身来决定如何处理迟到数据:
a.Window聚合,默认会丢弃迟到数据
b.双流join,如果是outer join,则可以认为它不能join到任何数据
c.CEP,默认丢弃
6.小结
1) 含义:表示系统认为的当前真实时间
2)生成: 可以通过Watermark Generator来生成
3)传递: 取上游所有subtask的最小值
4)部分数据断流: ldle Source
5)迟到数据处理: Window 算子是丢弃; Join 算子认为跟之前的数据无法join到
4.3 Window
1.基本功能
1)典型:Tumble Window (滚动窗口)、Sliding Window (滑动窗口)、Session Window (会话窗口)
2)Window使用
Flink的API是分层结构,本图表示API抽象程度的分层,层次越高,抽象程度越高,用户的使用成本越低,表达能力更有限。
3)滚动窗口
窗口划分:
a.每个key单独划分
b.每条数据只会属于一个窗口
窗口触发:Window结束时间到达的时候一次性触发
4)滑动窗口
窗口划分:
a.每个key单独划分
b.每条数据可能会属于多个窗口
窗口触发:Window结束时间到达的时候一次性触发
5)会话窗口
窗口划分:
a. 每个key单独划分
b.每条数据会单独划分为一个窗口,如果window之间有交集,则会对窗口进行merge
窗口触发:Window结束时间到达的时候一次性触发
6)迟到数据处理
迟到定义:一条数据到来后,会用WindowAssigner给它划分一个window,一般时间窗口是一个时间区间, 比如10:00, 11:00),如果划分出来的window end比当前的watermark值还小,说明这个窗口已经触发了计算了,这条数据会被认为是迟到数据。
什么情况下会产生迟到数据?
只有事件时间下才会有迟到的数据。
迟到数据默认处理:丢弃
7)迟到数据其他处理
a. Allow lateness(修正)
这种方式需要设置一个允许迟到的时间。 设置之后,窗口正常计算结束后,不会马上清理状态,而是会多保留allowl ateness这么长时间,在这段时间内如果还有数据到来,则继续之前的状态进行计算。适用于: DataStream、 SQL
b. SideOutput (侧输出流)
这种方式需要对迟到数据打一个tag,然后在DataStream上根据这个tag获取到迟到数据流,然后业务层面自行选择进行处理。适用于: DataStream
8)增量VS全量计算
增量计算(可以使计算过程更加平缓,保存数据的量更少):每条数据到来,直接进行计算,window只存储计算结果。比如计算sum,状态中只需要存储sum的结果,不需要保存每条数据。典型的reduce、aggregate等函数都是增量计算, SQL中的聚合只有增量计算。
全量计算:每条数据到来,会存储到window的state中。等到window触发计算的时候,将所有数据拿出来起计算。典型的process函数就是全量计算。
9)EMIT触发
什么叫EMIT?
通常来讲,window都是在结束的时候才能输出结果,比如1h的tumble window,只有在1个小时结束的时候才能统一输出结果。如果窗口比较大,比如1h或者1天,甚至于更大的话,那计算结果输出的延迟就比较高,失去了实时计算的意义。
EMIT输出指的是,在window没有结束的时候,提前把window计算的部分结果输出出来。
怎么实现? 在DataStream里面可以通过自定义Trigger来实现,Trigger的结果可以是:
CONTINUE
FIRE (触发计算, 但是不清理)
PURGE
FIRE_AND_PURGE
SQL也可以使用,通过配置:
table.exec.emit.early-fire.enabled=true
table.exec.emit.early-fire.delay= {time}
10)小结
a.三种(滚动、滑动、会话)窗口的定义
b.迟到数据处理: AllowLateness、SideOutput
c.增量计算和全量计算模型
d.EMIT触发提前输出窗口的结果
2.高级优化
1)Mine-batch优化(解决中间结果偏多,端点访问频繁)
简单来说,就是让算子转移一小批数据,这批数据读一次状态,处理这批数据,输出,写回状态。
2)倾斜优化-local-global
3)distinct计算状态复用
可以认为key是每一个数据,value是一个固定值 4)Pane优化
5)小结
a. Mini-batch 优化解决频繁访问状态的问题
b. local-global 优化解决倾斜问题
c. Distinct 状态复用降低状态量
d. Pane 优化降低滑动窗口的状态存储量
4.4 案例分析
1.使用flink SQL计算抖音的日活曲线
所有数据都需要在一个subtask中完成窗口计算,无法并行
做滚动窗口,用EMIT将结果输出
table.exec.emit.early-fire.enabled=true
table.exec.emit.early-fire.delay=5min
通过两阶段聚合来把数据打散,完成第一轮聚合,第二轮聚合只需要对各个分桶的结构求和即可
table.exec.window.allow-retract-input=ture
2.使用Flink SQL计算大数据任务的资源使用
问题描述:大数据任务(特指离线任务)运行时通常会有多个container启动并运行,每个 container在运行结束的时候,YARN会负责将它的资源使用(CPU、内存)情况上报。一般大数据任务运行时间从几分钟到几小时不等。
需求:根据YARN上报的各个container的信息,在任务结束的时候,尽快的计算出一一个 任务运行所消耗的总的资源。假设前后两个container结束时间差不超过10min
典型的可以通过会话窗口来将数据划分到一个window中,然后再将结果求和即可
3.总结
1)第一部分介绍了流式计算基本概念,以及和批式计算的区别
2)第二部分介绍了watermark的含义、如何生成、如何传递,以及如何处理部分partition断流的问题
3)第三部分介绍了三种基本的window的定义,以及迟到数据处理、增量计算VS全量计算、EMIT输出; 同时也介绍了local-global优化、mini-batch优化、 distinct状态优化、滑动窗口的pane的优化等
4)两个案例介绍滚动窗口、会话窗口,以及两阶段聚合解决倾斜问题
作者:夏末秋至sll
链接:juejin.cn/post/712574…
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。