首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
spark
订阅
chengwp
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
Spark 系列(二)—— Spark开发环境搭建
Local 模式是最简单的一种运行方式,它采用单节点多线程方式运行,不用部署,开箱即用,适合日常测试开发。 local[*]:启动跟 cpu 数目相同的工作线程数。 安装完成后可以先做一个简单的词频统计例子,感受 spark 的魅力。准备一个词频统计的文件样本 wc.txt,内…
Spark 踩坑记:数据库(Hbase+Mysql)
最近一个实时消费者处理任务,在使用 spark streaming 进行实时的数据流处理时,我需要将计算好的数据更新到 hbase 和 mysql 中,所以本文对 spark 操作 hbase 和 mysql 的内容进行总结,并且对自己踩到的一些坑进行记录。
在spring boot三分钟上手无界流处理系统Spark Streaming,并实现流式点赞统计
在页面上每次点赞,把这个被点赞的文章id发送到kafka,然后通过sparkstreaming读取kafka里的数据,统计出点赞的数量,更新回mysql中完整案例代码已上传github:https:/
Spark Streaming学习——DStream
SparkStreaming是流式处理框架,是Spark API的扩展,支持可扩展、高吞吐量、容错的实时数据流处理,实时数据的来源可以是:Kafka, Flume, Twitter, ZeroMQ或者TCP sockets,并且可以使用高级功能的复杂算子来处理流数据。例如:ma…
Spark Streaming入门
本文将帮助您使用基于HBase的Apache Spark Streaming。Spark Streaming是Spark API核心的一个扩展,支持连续的数据流处理。 首先,什么是流(streaming)?数据流是连续到达的无穷序列。流处理将不断流动的输入数据分成独立的单元进行…