首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
游龙975
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
12
文章 12
沸点 0
赞
12
返回
|
搜索文章
最新
热门
肺气虚证

Apache Kafka 版本 1.1.0 Java版本的Consumer client 先看接口声明: Consumer的API可以分为以下几类: 订阅指定topic列表或者匹配某种模式的topic
Spark Streaming 使用Direct模式读取Kafka数据源码分析
Spark Streaming 使用Direct模式读取Kafka数据源流程,主要分为两部分,一部分是driver端,给每个批次分配offsetRanges(fromOffset -- untilOf
Bully选举算法
翻译于 https://www.cs.colostate.edu/~cs551/CourseNotes/Synchronization/BullyExample.html 开始有6个节点,两两互相通信
zookeeper(3.6.1)源码解读二 —— QuorumPeer启动流程分析
接上一篇文章zookeeper源码解读一 —— 节点启动流程初步分析,已经了解到了Zookeeper节点启动的整体流程,最后分析到QuorumPeer的启动步骤。本篇文章继续从源码上分析QuorumP
Spark Streaming执行流程分析
为了探索Spark Streaming的完整执行流程,我们先看下Spark源码项目examples模块里面提供的Spark Streaming案例: org.apache.spark.examples
zookeeper源码解读一 —— 节点启动流程初步分析
Apache Zookeeper是一款分布式协调服务开源组件,自身提供高可用保障,因此被广泛用于其他组件的服务高可用保障基础设施。 我们从源码层次解读一下zookeeper服务节点启动流程,从而熟悉z
Spark数据输入--DataFrame/Dataset生成
之前文章Spark数据输入--RDD生成里讲过,Spark的数据输入,主要有三类,这里我们开始研究一下其中的第三类,即Spark如何加载数据生成DataFrame/Dataset。 先介绍一下什么是D
下一页
个人成就
文章被点赞
18
文章被阅读
8,334
掘力值
344
关注了
2
关注者
1
收藏集
0
关注标签
0
加入于
2021-06-10