首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
spark
订阅
郑漂撸代码
更多收藏集
微信扫码分享
微信
新浪微博
QQ
7篇文章 · 0订阅
Spark 系列(二)—— Spark开发环境搭建
Local 模式是最简单的一种运行方式,它采用单节点多线程方式运行,不用部署,开箱即用,适合日常测试开发。 local[*]:启动跟 cpu 数目相同的工作线程数。 安装完成后可以先做一个简单的词频统计例子,感受 spark 的魅力。准备一个词频统计的文件样本 wc.txt,内…
一文带你过完Spark RDD的基础概念
上一篇权当吹水了,从这篇开始进入正题。 RDD(Resilient Distributed Dataset)叫做 弹性分布式数据集 ,是Spark中最基本的数据抽象,它代表一个不可变、可分区、里面的元素可并行计算的集合. 一个分区(Partition)列表,组成了该RDD的数据…
5小时推开Spark的大门——05.RDD
大家好,我是一条~ 5小时推开Spark的大门,最后一小时,聊聊提了这么久的RDD。 话不多说,开干! 什么是RDD Spark为了能够进行高并发和高吞吐的数据处理,封装了三大数据结构,用于处理不同的
5小时推开Spark的大门——04.Spark 运行架构
求推荐! 大家好,我是一条~ 5小时推开Spark的大门,第四小时,带大家理解Spark的核心概念。 话不多说,开干! 运行架构
5小时推开Spark的大门——03.WordCount案例
求推荐!大家好,我是一条~ 5小时推开Spark的大门,第三小时,带大家做一个大数据入门的经典案例——WordCount。 话不
5小时推开Spark的大门——02.搭建开发环境。
求推荐! 大家好,我是一条~ 5小时推开Spark的大门,第二小时,带大家搭建开发环境。 主要分两步, Spark的安装 Scal
一文初探spark
对spark的初步了解,加入个人理解更加通俗易懂。通过本文可了解spark的出现原因,与MapReduce的对比,spark的架构和数据处理流程。