这是我参与「第四届青训营」笔记创作活动的第 9 天。
一、笔记内容
1. HDFS基本介绍
2. HDFS架构原理
3. HDFS关键设计
4. HDFS应用场景
二、HDFS基本介绍
HDFS: Hadoop Distributed File System
1.技术体系
Hadoop技术体系
-
存储层:HDFS
-
调度层:YARN
-
应用层计算框架:MapReduce / Spark
开源计算框架Apache Spark,当前业界的使用已经远超于MapReduce,虽它不属于Hadoop项目,但也和Hadoop也有紧密关系。
2.文件系统
graph TD
文件系统 --> 单机文件系统 --> WindowsNTFS
单机文件系统 --> LinuxExt4
单机文件系统 --> ...
文件系统 --> 分布式文件系统
分布式文件系统:
-
大容量:更多的机器,更多的存储介质;
-
高可靠:多个副本提高容错能力;
-
低成本:不需要高端硬件来扩容。
分布式存储系统:
graph TD
分布式存储系统 ------> 文件系统 --> hadoopHDFS
文件系统 --> GLUSTER
文件系统 --> lustre
文件系统 --> CubeFS
分布式存储系统 --> 对象存储 --> AmazonS3
对象存储 --> 阿里云OSS
对象存储 --> MINIO
对象存储 --> ceph
分布式存储系统 ----> 块存储 --> AmazonEBS
块存储 --> CurveBS
块存储 --> LONGHORN
块存储 --> ceph
分布式存储系统 --> 数据库 --> cassandra
数据库 --> scylla
数据库 --> OCEANBASE
数据库 --> CockroachDB
数据库 --> TIDB
3.HDFS功能特性
1.分布式
受GFS启发,用Java实现的开源系统,没有实现完整的POSIX文件系统语义。
2.容错
自动处理、规避多种错误场景,例如常见的网络错误、机器宕机等。
3.高可用
一主多备模式实现元数据高可用,数据多副本实现用户数据的高可用。
4.高吞吐
Client直接从DataNode读取用户数据,服务端支持海量client并发读写。
5.可扩展
支持联邦集群模式,DataNode数量可达10w级别。
6.廉价
只需要通用硬件,不需要定制高端的昂贵硬件设备。
三、HDFS架构原理
HDFS组件
-
Client/SDK:读写操作的发起点,HDFS很多读写逻辑都是在SDK中实现的。
-
NameNode:元数据节点,是HDFS的中枢节点,也是服务的入口。
-
DataNode:数据节点,存放实际用户数据。
1.Client/SDK
Client写流程
Client读流程
2.NameNode
1.维护目录树
维护目录树的增删改查操作,保证所有修改都能持久化,以便机器掉电不会造成数据丢失或不一致。
2.维护文件和数据块的关系
文件被切分成多个块,文件以数据块为单位进行多副本存放。
3.维护文件块存放节点信息
通过接收DataNode的心跳汇报信息,维护集群节点的拓扑结构和每个文件块所有副本所在的DataNode类表。
4.分配新文件存放节点
Client创建新的文件时候,需要有NameNode来确定分配目标DataNode。
3.DataNode
1.数据块存取
DataNode需要高效实现对数据块在硬盘上的存取。
2.心跳汇报
把存放在本机的数据块列表发送给NameNode,以便NameNode能维护数据块的位置信息,同时让NameNode确定该节点处于正常存活状态。
3.副本复制
-
数据写入时Pipeline IO操作
-
机器故障时补全副本
四、HDFS关键设计
1.分布式存储系统基本概念
1.容错能力
能够处理绝大部分异常场导,例如服务器宕机、网络异常、磁盘故障、网络超时等。
2.一致性模型
为了实现容错,数据必须多副本存放,一致性要解决的问题是如何保障这多个副本的内容都是一致的。
3.可扩展性
分布式存储系统需要具备横向扩张scale -out的能力。
4.节点体系
常见的有主从模式对等模式等,不管哪种模式,高可用是必须的功能。
5.数据放置
系统是由多个节点组成,数据是多个副本存放时,需要考虑数据存放的策略。
6.单机存储引擎
在绝大部分存储系统中,数据都是需要落盘持久化,单机引擎需要解决的是根据系统特点,如何高效得存取硬盘数据。
2.NameNode
1.NameNode目录树维护
-
fsimage
-
文件系统目录树
-
完整的存放在内存中
-
定时存放到硬盘上
-
修改是只会修改内存中的目录树
-
-
EditLog
-
目录树的修改日志
-
clien更新目录树需要持久化Edit og后才能表示更新成功
-
EditLog可存放在本地文件系统,也可存放在专用系统上
-
NameNode HA方案一个关键点就是如何实现EditLog共享
-
2.NameNode数据放置
-
数据块信息维护
-
目录树保存每个文件的块id
-
NameNode维护了每个数据块所在的节点信息
-
NameNode根据DataNodeE[报的信息动态维护位置信息
-
NameNode不会持久化数据块位置信息
-
-
数据放置策略
-
新数据存放到哪写节点
-
数据均衡需要怎么合理搬迁数据
-
3个副本怎么合理放置
-
3.DataNode
-
数据块的硬盘存放
-
文件在NameNode已分割成block
-
DataNode以block为单位对数据进行存取
-
-
启动扫盘
-
DataNode需要知道本机存放了哪些数据块
-
启动时把本机硬盘上的数据块列表加载在内存中
-
4.HDFS异常处理
1.HDFS写异常处理 - Lease Recovery
异常情景:文件写了一半,client自己挂掉了。
此时可能产生的问题:
1.副本不一致
2.Lease无法释放
租约(Lease): Client要修改一个文件时,需要通过NameNode上锁,这个锁就是租约(L ease)。
解决方法:Lease Recovery
-
副本不一致:对比系统中副本的长度,选取最小长度的副本为最终版本,对它进行更新后,作为最终写入的结果。
-
Lease无法释放:Client无法续租,若超出续租时限,NameNode认定Client挂掉,如果有其它的Client需要租约,则NameNode踢掉挂掉的Client。
2.HDFS写异常处理 - Pipeline Recovery
异常情景:文件写入过程中,DataNode 侧出现异常挂掉了。
异常可能出现的时机:
1.创建连接时
2.数据传输时
3.complete阶段
解决方法:Pipeline Recovery
-
创建连接时:重新选择一个连接;
-
数据传输时:Pipeline 重新构建,将挂掉的节点去除;
-
complete阶段:Pipeline 重新构建,重新选取节点。
3. Client读异常处理
异常情景:读取文件的过程, DataNode 侧出现异常挂掉了。
解决方法:节点 Failover
放弃出现异常的节点,继续读取下一个节点。
增强异常情景: 节点出现故障,半死不过,读取很慢。
解决方法:做节点间的切换(Failover)。
难题:
1. 如何判断读取是“慢”的;
2. 读取很慢,可能是因为客户端的原因。
5.旁路系统
异步解决系统中可能会积累恶化的问题,简化系统设计。
1.Balancer: 均衡DataNode的容量
2.Mover:确保副本放置符合策略要求
6.控制面建设
-
可观测性设施
-
指标埋点
-
数据采集
-
访问日志
-
数据分析
-
-
运维体系建设
-
运维操作需要平台化
-
NameNode操作复杂
-
DataNode机器规模庞大
-
组件控制面API
-
五、HDFS应用场景
1.ETL:Extract,Transform,Load
2.HBase
3.机器学习
-
TensorFlow
- 原生支持HDFS读写
-
PyTorch
-
通过Alluxio访问HDFS
-
修改源码增加对HDFS的支持
-
4.通用存储应用
graph TD
HDFS --> 对象存储
HDFS --> 消息队列
HDFS --> 冷数据层
HDFS --> 海量日志
HDFS --> 备份数据