这是我参与「第四届青训营」笔记创作活动的第9天。
知识点小记
HDFS特点
更多的机器,更多的存储介质,从而提供更大的存储空间。多个副本提高容错能力,可靠性较高。不需要高端的硬件来扩容,成本较低。
HDFS功能特性
- 分布式:受GFS启发,用Java实现的开源系统,没有实现完整的POSIX文件系统语义。
- 容错:自动处理,规避多种错误场景,例如常见的网络错误、机器宕机。
- 高可用:一主多备模式实现元数据高可用,数据多副本实现用户数据的高可用。
- 高吞吐:Client直接从DataNode读取用户数据,服务端支持海量client并发读写。
- 可扩展:支持联邦集群模式,DataNode数量可达10w级别。
- 廉价:只需要通用硬件,不需要定制高端的昂贵硬件设备。
架构原理
HDFS组件图:
图源:青训营课堂
HDFS三大件:
Client/SDK:访问hdfs进行读写操作的发起点。
NameNode:HDFS的中枢节点,是三大件中最为复杂的一个,进行元数据的管理。
DataNode:所有用户的数据都是放在该节点上的硬盘里。
Client写流程
- Client向NameNode请求写入新数据块
- NameNode根据根据自己管理的DataNode来选择若干个DataNode形成DN列表返回给向Client。
- Client根据拿到的列表去和对应的DataNode建立连接并将数据写到列表中的某一个DataNode节点,收到数据的DataNode节点再将数据复制到其他的DataNode节点中去。
Client读流程
- Client向NameNode请求写读数据块。
- NameNode根据根据自己管理的DataNode来找到请求块所在的节点列表并返回给Client。
- Client根据拿到的节点列表去读,只需要读列表中的其中一个节点就可以,其他的节点都是副本。
元数据节点NameNode功能职责
- 维护目录树:维护目录树的增删改查操作,保证所有修改都能持久化,以便机器掉电不会造成数据丢失或不一致。
- 维护文件和数据块的关系:文件被切分为多个块,文件以数据块为单位进行多副本存放。
- 维护文件块存放节点信息:通过接受DataNode的心跳汇报信息,维护集群节点的拓扑结构和每个文件块所有副本所在的DataNode列表。
- 分配新文件存放节点:Client创建新的文件时候,需要有NameNode来确定分配目标DataNode。
数据节点DataNode功能职责
- 数据块存取:DataNode需要高效实现对数据块在硬盘上的存取。
- 心跳汇报:把存放在本机的数据列表发送给DataNode,以便NameNode能维护数据块的位置信息,同时让NameNode确定该节点出于正常存活状态。
- 副本复制:数据写入Pipline IO操作,机器故障时补全副本。
分布式存储系统基本概念
- 容错能力:能够处理绝大部分异常场景,例如服务器宕机、磁盘故障、网络异常、超时等。
- 一致性模型:为了实现容错,数据必须多副本存放,一致性要解决的问题是如何保障这多个副本的内容都是一致的。
- 可扩展性:分布式存储系统需要具备横向扩张scale-out的能力。
- 节点体系:常见的有主从模式、对等模式。不管哪种模式,高可用是必须的功能。
- 数据放置:系统时由多个节点组成,数据是多个副本存放时,需要考虑数据存放的策略。
- 单机存储引擎:在绝大部分存储系统中,数据都是需要落盘持久化,单机引擎需要解决的是根据系统特点,如何高效得存取数据。
NameNode数据放置
- 目录树保存每个文件的块id
- NameNode维护了每个数据块所在的节点信息
- NameNode根据DataNode汇报的信息动态维护位置信息。
- NameNode不会持久化数据块的位置。
HDFS写异常处理
写异常可分为两种情况:写数据时Client出现异常挂掉了、写数据时DataNode出现异常挂掉了。
- 写数据时Client出现异常可能会产生的问题有:副本不一致、Lease(租约)无法释放。其解决方法为:Lease Recovery。
- 写数据时DataNode出现异常的时机有:创建连接时、数据传输时、complete阶段。解决方法:Pipline Recovery。
HDFS读异常处理
在读取文件时DataNode出现异常,解决方法:切换副本节点读取。