大数据Spark学习之旅第二篇

759 阅读4分钟

「这是我参与11月更文挑战的第37天,活动详情查看:2021最后一次更文挑战」。

一、Spark 核心编程

Spark 计算框架为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的应用场景。三大数据结构分别是:

  1. RDD : 弹性分布式数据集

  2. 累加器:分布式共享只写变量

  3. 广播变量:分布式共享只读变量

1.1、RDD

1.1.1、什么是 RDD

RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是 Spark 中最基本的数据处理模型。代码中是一个抽象类,它代表一个弹性的、不可变、可分区、里面的元素可并行计算的集合。

  • 弹性

    • 存储的弹性:内存与磁盘的自动切换;
    • 容错的弹性:数据丢失可以自动恢复;
    • 计算的弹性:计算出错重试机制;
    • 分片的弹性:可根据需要重新分片。
  • 分布式:数据存储在大数据集群不同节点上

  • 数据集:RDD 封装了计算逻辑,并不保存数据

  • 数据抽象:RDD 是一个抽象类,需要子类具体实现

  • 不可变:RDD 封装了计算逻辑,是不可以改变的,想要改变,只能产生新的 RDD,在新的 RDD 里面封装计算逻辑

  • 可分区、并行计算

1.1.2、核心属性

image.png

  • 分区列表

    RDD 数据结构中存在分区列表,用于执行任务时并行计算,是实现分布式计算的重要属性。

    image.png

  • 分区计算函数

    Spark 在计算时,是使用分区函数对每一个分区进行计算

    image.png

  • RDD 之间的依赖关系

    RDD 是计算模型的封装,当需求中需要将多个计算模型进行组合时,就需要将多个 RDD 建立依赖关系

    image.png

  • 分区器(可选)

    当数据为 KV 类型数据时,可以通过设定分区器自定义数据的分区

    image.png

  • 首选位置(可选)

    计算数据时,可以根据计算节点的状态选择不同的节点位置进行计算

    image.png

1.1.3、执行原理

从计算的角度来讲,数据处理过程中需要计算资源(内存 & CPU)和计算模型(逻辑)。执行时,需要将计算资源和计算模型进行协调和整合。

Spark 框架在执行时,先申请资源,然后将应用程序的数据处理逻辑分解成一个一个的计算任务。然后将任务发到已经分配资源的计算节点上, 按照指定的计算模型进行数据计算。最后得到计算结果。

RDD 是 Spark 框架中用于数据处理的核心模型,接下来我们看看,在 Yarn 环境中,RDD的工作原理:

  1. 启动 Yarn 集群环境

    image.png

  2. Spark 通过申请资源创建调度节点和计算节点

    image.png

  3. Spark 框架根据需求将计算逻辑根据分区划分成不同的任务

    image.png

  4. 调度节点将任务根据计算节点状态发送到对应的计算节点进行计算

    image.png

从以上流程可以看出 RDD 在整个流程中主要用于将逻辑进行封装,并生成 Task 发送给Executor 节点执行计算,接下来我们就一起看看 Spark 框架中 RDD 是具体是如何进行数据处理的。

1.1.4、基础编程

1.1.4.1 RDD 创建

在 Spark 中创建 RDD 的创建方式可以分为四种:

  1. 从集合(内存)中创建 RDD

    从集合中创建 RDD,Spark 主要提供了两个方法:parallelize 和 makeRDD

    def main(args: Array[String]): Unit = {
    
      // 准备环境
      val sparkConf = new SparkConf().setMaster("local[*]").setAppName("RDD")
      val sc = new SparkContext(sparkConf)
    
      // 创建RDD
      // 从内存中创建RDD,将内存中集合的数据作为处理的数据源
      val seq = Seq[Int](1, 2, 3, 4)
    
      // parallelize:并行
      val rdd1: RDD[Int] = sc.parallelize(seq)
      // makeRDD方法在底层实现时其实就是调用了rdd对象的parallelize方法。
      val rdd2: RDD[Int] = sc.makeRDD(seq)
    
      rdd1.collect().foreach(println)
      rdd2.collect().foreach(println)
    
      // 关闭环境
      sc.stop()
    }
    

    从底层代码实现来讲,makeRDD 方法其实就是 parallelize 方法

    def makeRDD[T: ClassTag](
        seq: Seq[T],
        numSlices: Int = defaultParallelism): RDD[T] = withScope {
      parallelize(seq, numSlices)
    }
    
  2. 从外部存储(文件)创建 RDD

    由外部存储系统的数据集创建 RDD 包括:本地的文件系统,所有 Hadoop 支持的数据集,比如 HDFS、HBase 等。

    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("spark")
    val sparkContext = new SparkContext(sparkConf)
    val fileRDD: RDD[String] = sparkContext.textFile("input")
    fileRDD.collect().foreach(println)
    sparkContext.stop()
    
  3. 从其他 RDD 创建

    主要是通过一个 RDD 运算完后,再产生新的 RDD。

  4. 直接创建 RDD(new)

    使用 new 的方式直接构造 RDD,一般由 Spark 框架自身使用。

1.2、累加器

1.3、广播变量

二、友情链接

大数据Spark学习之旅第一篇