首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
Spark
订阅
TUTU928
更多收藏集
微信扫码分享
微信
新浪微博
QQ
29篇文章 · 0订阅
【详谈 Delta Lake 】系列技术专题 之 湖仓一体( Lakehouse )
简介: 本文翻译自大数据技术公司 Databricks 针对数据湖 Delta Lake 的系列技术文章。众所周知,Databricks 主导着开源大数据社区 Apache Spark、Delta
「大数据成神之路」第四版更新完毕
《大数据成神之路》第四个版本更新完毕。我们的口号是:为希望从事大数据开发或者由后端转型为大数据开发的工程师们指出需要学习的知识点和路径。
面试官: Flink双流JOIN了解吗? 简单说说其实现原理
摘要:今天和大家聊聊Flink双流Join问题。这是一个高频面试点,也是工作中常遇到的一种真实场景。
剖析Spark数据分区之Spark streaming & TiSpark
1. Kafka +Spark Streaming Spark Streaming从Kafka接收数据,转换为Spark Streaming中的数据结构DStream即离散数据流。 当前spark已经不支持该模式。 receiver模式的并行度由spark.streaming.…
Spark Streaming :基本工作原理
Spark Streaming是Spark Core API的一种扩展,它可以用于进行大规模、高吞吐量、容错的实时数据流的处理。它支持从很多种数据源中读取数据,比如Kafka、Flume、Twitter、ZeroMQ、Kinesis或者是TCP Socket。并且能够使用类似高…
Spark Structured Streaming系列(一)之初体验
Structured Streaming将持续流动的数据看作一张无限进行插入的表,当有查询操作时,它会根据具体代码生成"结果表",在间隔时间内每有一条数据进来,"结果表"都会被更新。当然Structured Streaming不会真正的将整张表实现,它其实只是读取最新的数据进行…
Spark Structured Streaming 集成 Kafka - Sample
简要介绍 Structured Streaming 和 Spark Streaming是什么关系呢? 1.编程模型不同 2.Structured Streaming是 2.x版本新功能,未来会取代Sp
图解大数据 | 流式数据处理-Spark Streaming
Spark Streaming是Spark核心API的扩展,实现实时数据的可拓展、高吞吐量。本文讲解其架构、作业提交和工作原理,以及DStream的创建、转换和Graph,并通过案例代码展示应用细节。
Spark-Spark Streaming(3)-- 缓存、检查点、广播变量
1、Caching / Persistence 缓存/持久化 与 RDDs 类似,DStreams 也允许开发人员将流的数据保存在内存中。也就是说,在 DStream 上使用 persist ()方法