首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
dessler
掘友等级
一个运维
公众号《运维小路》 10年以上的Linux使用运维经验
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
Hadoop HDFS-用户 (User)
我们上个小节介绍了回收站的功能,在里面提到一个用户的概念,这个概念在回收站里面其实就是涉及到一个目录问题。
Hadoop HDFS-回收站(Trash)
上个小节我们已经介绍了HDFS可用使用快照方式来保护我们的数据,今天我们来介绍另外方式就是回收站,他就和Windows回收站类似,当然也有不一样的地方,下面我们就来详细介绍。
Hadoop HDFS-快照(Snapshots)
前面讲了很多HDFS的基本操作,并且其他软件也讲解过快照的相关概念:kvm-快照,ZooKeeper-快照。本小节我们来讲解HDFS的快照。
Hadoop HDFS-配额(Quotas)
HDFS作为一个类Linux的目录的树形目录,我们业务在使用HDFS的时候也会根据不同的应用放置在不同的目录,或者不同环境使用不同的目录,实际这个和ZooKeeper的目录结构结构类似。我们对单个目录
Hadoop HDFS-端口&web管理
我们的高可用集群部署完成以后,不同的进程会监听不同的端口,下面我们就来详细介绍下端口,每个进程都有对应的端口。
Hadoop HDFS-读写流程
当客户端需要向HDFS写入数据时,会经历以下步骤: 客户端请求写入文件 ,NameNode分配DataNode,建立数据写入管道(Pipeline), 数据分块传输与ACK,确认关闭写入流
Hadoop HDFS-设计哲学(分块&副本)
在传统的Linux里面,我们受限物理磁盘,我们无法生成或者使用一个很大的文件,虽然我们可以通过命令对文件进行切割和组合(Linux进阶命令-split),但是这里的只是实现切割,如果要使用还得重新组合
Hadoop HDFS-高可用集群验证
上个小节我们部署了3个节点的HDFS高可用集群,本小节我们就来介绍这3个核心组件是怎么来实现高可用的。
Hadoop HDFS-高可用集群部署
前面介绍高可用集群部署的几个组件,本小节就以常见的3节点来搭建一个高可用的HDFS集群。基于下面的规划来实现(实际为了简单,这里的ZooKeeper使用的单节点)
Hadoop HDFS-ZKFailoverController(ZKFC)详细介绍
前面3个小节,我们介绍了单机情况下的HDFS的3个组件,其中nn和dn无论单机还是集群都是需要的,而2nn则只在单机下才有用,后面几个我们将介绍高可用集群模式涉及到的几个组件:JournalNode,
下一页
个人成就
优秀创作者
文章被点赞
79
文章被阅读
100,603
掘力值
7,411
关注了
7
关注者
86
收藏集
0
关注标签
1
加入于
2017-07-26