首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
Spark
订阅
雅轩
更多收藏集
微信扫码分享
微信
新浪微博
QQ
21篇文章 · 0订阅
Apache Kyuubi 助力 CDH 解锁 Spark SQL
Apache Kyuubi(Incubating)(下文简称Kyuubi)是⼀个构建在Spark SQL之上的企业级JDBC网关,兼容HiveServer2通信协议,提供高可用、多租户能力。
Flink在饿了么的应用与实践
来源于多个数据源的数据写到 kafka 里,计算引擎主要是 Storm , Spark 和 Flink,计算引擎出来的结果数据再落地到各种存储上。 目前 Storm 任务大概有100多个,Spark任务有50个左右,Flink暂时还比较少。 目前我们集群规模每天数据量有60TB…
Spark SQL五大关联策略
1、五种连接策略 选择连接策略的核心原则是尽量避免shuffle和sort的操作,因为这些操作性能开销很大,比较吃资源且耗时,所以首选的连接策略是不需要shuffle和sort的hash连接策略。 ◦
spark工程化项目-Java
spark_demo spark工程,依据Java项目常见三层架构模式,分为: controller:控制层 service:服务层 dao:持久层 application:应用程序层 common:
深度对比Apache CarbonData、Hudi和Open Delta三大开源数据湖方案
我们已经看到,人们更热衷于高效可靠的解决方案,拥有为数据湖提供应对突变和事务处理的能力。在数据湖中,用户基于一组数据生成报告是非常常见的。随着各种类型的数据汇入数据湖,数据的状态不会一层不变。需要改变各种数据的用例包括随时间变化的时序数据、延迟到达的时延数据、平衡实时可用性和回…
大数据系列之:读取parquet文件统计数据量
一、Spark读取parquet文件统计数据量 首先,创建一个 SparkSession 对象: 然后,使用 SparkSession 读取 Parquet 文件并将其转换为 DataFrame: 最
spark-submit 参数详解
cluster:Driver端在Yarn分配的ApplicationMaster上启动一个Driver。与其他Excute交互 JARS:你程序依赖的jar包。如果有多个用,分隔 个别作业需要单独设置spark-conf参数,就在这里加。有10个就--conf十次 程序所依赖的…
spark sql写入到Clickhouse
加入依赖Demo
SparkSQL外部数据源读写Oracle
SparkSQL外部数据源读写Oracle SparkSQL外部数据源读写Oracle SparkSQL外部数据源读写Oracle
spark调用HTTP请求并返回数据落地到数仓(or数据库)
spark调用HTTP请求并返回数据落地到数据库 spark调用HTTP请求并返回数据落地到数据库 spark调用HTTP请求并返回数据落地到数据库