首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
spark面试
订阅
sunlovefly
更多收藏集
微信扫码分享
微信
新浪微博
QQ
23篇文章 · 0订阅
面试|spark模块 - spark的工作流程?
所有spark程序都离不开程序初始化和执行任务这两部分,所以该问题可以从这两部分开始回答。 用户通过sparksubmit提交程序以后,driver程序开始运行(driver程序就是运行起来的提交的程序,可以理解为spark的main程序)。 driver程序运行起来会首先初始…
重学Spark之RDD
什么是RDD?RDD(ResilientDistributedDataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合。Spark的惰
一文带你过完Spark RDD的基础概念
上一篇权当吹水了,从这篇开始进入正题。 RDD(Resilient Distributed Dataset)叫做 弹性分布式数据集 ,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合. 一个分区(Partition)列表,组成了该RDD的数据…
Spark调优总结
数据倾斜(shuffle优化)小文件合并其他效率问题参数调优SparkContext初始化动态申请资源Spark性能优化指南——基础篇Spark性能优化指南——高级篇AdaptiveExecution
Spark 源码系列(五)分布式缓存
这一章想讲一下 Spark 的缓存是如何实现的。这个 persist 方法是在 RDD 里面的,所以我们直接打开 RDD 这个类。 它调用 SparkContext 去缓存这个 RDD,追杀下去。 它居然是用一个 HashMap 来存的,具体看这个 map 的类型是 TimeS…
Sprk submit 过程
折腾了很久,终于开始学习 Spark 的源码了,第一篇我打算讲一下 Spark 作业的提交过程。 这个是 Spark 的 App 运行图,它通过一个 Driver 来和集群通信,集群负责作业的分配。今天我要讲的是如何创建这个 Driver Program 的过程。 我们先看一下…
Spark 提交任务 源码解析 (一)
最令人头秃的就是看源码 环境 本次使用的spark版本是 3.0.0 1.这是我们提交任务的脚本 2.咱们看下 spark-submit 脚本代码
Spark的两种核心Shuffle详解(建议收藏)
在 MapReduce 框架中, Shuffle 阶段是连接 Map 与 Reduce 之间的桥梁, Map 阶段通过 Shuffle 过程将数据输出到 Reduce 阶段中。由于 Shuffle 涉
【大数据学习日记】Spark之shuffle调优
答案:每个Spark作业启动运行的时候,首先Driver进程会将我们编写的Spark作业代码分拆为多个stage,每个stage执行一部分代码片段,并为每个stage创建一批Task,然后将这些Task分配到各个Executor进程中执行。一个stage的所有Task都执行完毕…
Spark 大厂面试题
Spark解决什么问题 二 Spark为什么会有自己的资源调度器 三 Spark运行模式 四 Spark常用端口号 五 Spark提交作业参数 六 Spark的transformation算子