这是我参与「第四届青训营 」笔记创作活动的第7天
Lecture08. HDFS 原理与应用
01.HDFS基本介绍
HDFS:Hadoop Distributed File System
1.1 Windows单机文件系统
常见:
- NTFS
- FAT32
- exFAT
1.2 Linux单机文件系统
常见:
- BTRFS
- ZFS
- XFS
- EXT4
Linux目前支持将近100种文件系统
1.3 分布式文件系统
单机文件系统的衍生
好处:
- 大容量:更多的机器,更多的存储介质
- 高可靠:多个副本提高容错能力
- 低成本:不需要高端硬件来扩容
1.4 分布式存储系统
1.5 HDFS功能特性
业务发展推动技术创新
-
分布式:受GFS启发,用Java实现的开源系统,没有实现完整的POSIX文件系统语义
- GFS:第一次将研究大规模用到业界上
-
容错:自动处理、规避多种错误场景,例如常见的网络错误、机器宕机等。
-
高可用:一主多备模式实现元数据高可用,数据多副本实现用户数据的高可用
-
高吞吐:Client直接从DataNode读取用户数据,服务端支持海量client并发读写
-
可扩展:支持联邦集群模式,DataNode数量可达10w级别
-
廉价:只需要通用硬件,不需要定制高端的昂贵硬件设备
1.6 演示环境 - HDFS节点
Zookeeper、JournalNode:实现了高可用
NameNode、DataNode:存储
02.架构原理
2.1 HDFS组件
HDFS三大件
NameNode:
- 数量少,但是最复杂的部分
- 是整个系统的中枢节点
2.2 Client写流程
RPC流程
- 写在哪里?
- 写三个副本pipeline写
2.3 Client读流程
- 放在哪里了?
- 只需要和一个节点交互就可读
2.4 元数据节点NameNode
-
维护目录树
- 维护目录树的增删改查操作,保证所有修改都能持久化,以便机器掉电不会造成数据丢失或不一致。
-
维护文件和数据块的关系
- 文件被切分成多个块,文件以数据块为单位进行多副本存放
-
维护文件块存放节点信息
- 通过接收DataNode的心跳汇报信息,维护集群节点的拓扑结构和每个文件块所有副本所在的DataNode类表。
-
分配新文件存放节点
- Client创建新的文件时候,需要有NameNode来确定分配目标DataNode
2.5 数据节点DataNode
-
数据块存取
- DataNode需要高效实现对数据块在硬盘上的存取
-
心跳汇报
- 把存放在本机的数据块列表发送给NameNode,以便NameNode能维护数据块的位置信息,同时让NameNode确定该节点处于正常存活状态
-
副本复制
- 数据写入时 Pipeline IO操作
- 机器故障时补全副本
03.关键设计
分布式存储系统基本概念
-
容错能力
- 能够处理绝大部分异常场景,例如服务器宕机、网络异常、磁盘故障、网络超时等。
-
一致性模型
- 为了实现容错,数据必须多副本存放,一致性要解决的问题是如何保障这多个副本的内容都是一致的
-
可扩展性
- 分布式存储系统需要具备横向扩张scale-out的能力
-
节点体系
- 常见的有主从模式(大规模采用)、对等模式等,不管哪种模式,高可用是必须的功能。
-
数据放置
- 系统是由多个节点组成,数据是多个副本存放时,需要考虑数据存放的策略。
-
单机存储引擎
- 在绝大部分存储系统中,数据都是需要落盘持久化,单机引擎需要解决的是根据系统特点,如何高效得存取硬盘数据。
3.1 NameNode目录树维护
FsImage:镜像文件
- 文件系统目录树
- 完整的存放在内存中
- 定时存放到硬盘上
- 修改是只会修改内存中的目录树
EditLog:实时刷到硬盘上
如何实现EditLog的共享?
- 目录树的修改日志
- client更新目录树需要持久化EditLog后才能表示更新成功
- EditLog可存放在本地文件系统,也可存放在专用系统上
- NameNode HA方案一个关键点就是如何实现EditLog共享
3.2 NameNode数据放置
客户端向NameNode询问放在哪
NameNode是以数据块block为单位做副本存放:一个文件被分为多个块
数据块信息维护
- 目录树保存每个文件的块id
- NameNode维护了每个数据块所在的节点信息
- NameNode根据DataNode汇报的信息动态维护位置信息
- NameNode不会持久化数据块位置信息:通过DataNode汇报,再自己动态构造,不会持久化保存
数据放置策略
- 新数据存放到哪写节点
- 数据均衡需要怎么合理搬迁数据
- 3个副本怎么合理放置(每个节点放一点:高可用)
3.3 DataNode
数据块的硬盘存放
- 文件在NameNode已分割成block
- DataNode以block为单位对数据进行存取
启动扫盘
- DataNode需要知道本机存放了哪些数据块
- 启动时把本机硬盘上的数据块列表加载在内存中
3.4 HDFS写异常处理
Lease Recovery
情景:文件写了一半,client自己挂掉了。可能出现的问题:
- 副本不一致
- Lease无法释放
租约:Client 要修改一个文件时,需要通过NameNode上锁,这个锁就是租约(Lease)。
解决方法:Lease Recovery
副本不一致:选最小的作最终版本
Lease无法释放:十分钟的超时时间,无法续约,就判断为挂
Pipeline Recovery
情景︰文件写入过程中,DataNode侧出现异常挂掉了。
异常出现的时机∶
- 创建连接时
- 数据传输时
- complete阶段
解决方法︰Pipeline Recovery,重新构建
3.5 Client读异常处理
情景∶读取文件的过程,DataNode侧出现异常挂掉了
增强情景:DataNode半死不活,读取非常慢
解决方法∶节点Failover、慢节点检测
3.6 旁路系统
异步解决一些问题:项目上线后,之前隐藏的问题越积越多
Balancer:均衡DataNode的容量
Mover:确保副本放置符合策略要求
3.7 控制面建设
可观测性设施
- 指标埋点
- 数据采集
- 访问日志
- 数据分析
运维体系建设
- 运维操作需要平台化
- NameNode操作复杂
- DataNode机器规模庞大
- 组件控制面API