首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
秋名山车仙
掘友等级
全栈
|
NeteaseMusic
从事后端开发,对前后端、大数据均有开发经验。爱思考、爱安静、不争名好利,物质欲望比较低。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
23
文章 6
沸点 17
赞
23
返回
|
搜索文章
最新
热门
Spark读取hdfs文件多行缓存后刷入redis,最后如何clean up本地缓存
Hadoop MapReduce提供了setUp()和cleanUp()操作,用于执行作业前后的初始化和清理,而Spark并没有提供这些Hook。 场景:假设Spark读取一个1T的文件,每一行解析后
Mac本地docker容器安装Apache Druid
本文介绍如何在Mac本地Docker环境下安装Apache Druid,过程均经过验证有效,希望对你有所帮助。
个人成就
文章被阅读
981
掘力值
26
关注了
36
关注者
0
收藏集
4
关注标签
10
加入于
2019-07-02