首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Flink
NBI可视化
创建于2022-08-08
订阅专栏
Flink日常知识点分享
等 4 人订阅
共13篇文章
创建于2022-08-08
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
(6)Flink CEP SQL模拟账号短时间内异地登录风控预警
本篇文章我们来模拟一个真实的风险识别场景,模拟XX平台上可能出现盗号行为。 技术实现方案: (1)通过将xxx平台用户登录时的登录日志发送到kafka(本文代码演示用的socket); (2)Flin
(5)Flink CEP SQL四种匹配模式效果演示
Flink CEP SQL中提供了四种匹配策略: (1)skip to next row 从匹配成功的事件序列中的第一个事件的下一个事件开始进行下一次匹配 (2)skip past last row
(4)Flink CEP SQL贪婪词量演示
基于上一篇(3)Flink CEP SQL宽松近邻代码演示的延展,在上一篇中我们使用贪婪词量 +(至少匹配1行或多行),本篇将演示多种贪婪词量的效果: (1)使用贪婪词量 *(匹配0行或多行) 匹配到
(3)Flink CEP SQL宽松近邻代码演示-风控系统规则引擎
上一篇我们演示了严格近邻模式的效果,接着上一篇我们来演示一下宽松近邻: (1)pom依赖: (2)定义一个消息对象 (3)构造数据,定义事件组合 (4)关键代码解释: 需要借着贪婪词量来实现宽松近邻效
(1)Flink CEP复杂事件处理引擎介绍
(1)简介及应用场景: 复杂事件处理(CEP)既是把不同的数据看做不同的事件,并且通过分析事件之间的关系建立起一套事件关系序列库。利用过滤,聚合,关联性,依赖,层次等技术,最终实现由简单关系产生高级事
(8)FlinkSQL自定义UDF
Flink提供了自定义函数的基础能力,在需要满足特殊业务场景需求时,根据自身需要按需定制自己的UDF 下面将简单演示一个UDF的定义和UDF的使用过程: (1)定义一个UDF (2)使用UDF (3)
(7)FlinkSQL将kafka数据写入到mysql方式二
FlinkSQL将kafka数据写入到mysql方式二 public static void main(String[] args) throws Exception {
(6)FlinkSQL将kafka数据写入到mysql方式一
这里不展开zookeeper、kafka安装配置 (1)首先需要启动zookeeper和kafka (2)定义一个kafka生产者 (3)定义一个消息对象 (4)从kafka接入数据,并写入到mysq
(5)FlinkSQL将socket数据写入到mysql方式二
FlinkSQL将socket数据写入到mysql方式二public static void main(String[] args) throws Exception { Strea
(4)FlinkSQL将socket数据写入到mysql方式一
本章节主要演示从socket接收数据,通过滚动窗口每30秒运算一次窗口数据,然后将结果写入Mysql数据库 (1)准备一个实体对象,消息对象 (2)编写socket代码,模拟数据发送 (3)从sock
(3)FlinkSQL滑动窗口demo演示
滑动窗口(Sliding Windows)与滚动窗口类似,滑动窗口的大小也是固定的。区别在于,窗口之间并不是首尾相接的,而是可以“错开”一定的位置。如果看作一个窗口的运动,那么就像是向前小步“滑动”一
(2)FlinkSQL滚动窗口demo演示
滚动窗口(Tumbling Windows) 滚动窗口有固定的大小,是一种对数据进行均匀切片的划分方式。窗口之间没有重叠,也不会有间隔,是“首尾相接”的状态。滚动窗口可以基于时间定义,也可以基于数据个
(1)通过FlinkSQL将数据写入mysql demo
FlinkSQL的出现,极大程度上降低了Flink的编程门槛,更加容易理解和掌握使用。今天将自己的笔记分享出来,希望能帮助在这方面有需要的朋友。 (1)首先引入POM依赖: (2)编写代码 (3)执行