HDFS原理与应用 | 青训营笔记

81 阅读5分钟

这是我参与「第四届青训营 」笔记创作活动的第7天

01 HDFS基本介绍

HDFS:Hadoop Distributesd File System

Hadoop技术体系

1.jpg

1.1 Windows单击文件系统

2.jpg

3.jpg

1.2 Linux单击文件系统

4.jpg

BTRFS,ZFS,XFS,EXT4

Linux目前支持将近100种文件系统

1.3 分布式文件系统

5.jpg

大容量:更多的机器,更多的存储介质

高可靠:多个副本提高容错能力

低成本:不需要高端硬件来扩容

1.4 分布式存储系统

对象存储:

6.jpg

文件系统:

7.jpg

块存储:

8.jpg

数据库:

9.jpg

1.5 HDFS功能特性

01、分布式

受GFS启发,用Java实现的开源系统,没有实现完整的POSIX文件系统语义

02、容错

自动处理、规避多种错误场景,例如常见的网络错误、机器宕机等

03、高可用

一主多模式实现元数据高可用,数据多副本实现用户数据的高可用

04、高吞吐

Client直接从DataNode读取用户数据,服务端支持海量client并发读写

05、可扩展

支持联邦集群模式,DataNode数量可达10w级别

06、廉价

只需要通用硬件,不需要定值高端的昂贵硬件设备

1.6 演示环境 - HDFS节点

10.jpg

11.jpg

小结

Hadoop技术体系

分布式文件系统

分布式存储系统的类型

HDFS功能特性

演示环境

02 架构原理

2.1 HDFS组件

12.jpg

2.2 Client写流程

13.jpg

2.3 Client读流程

14.jpg

2.4 源数据节点NameNode

维护目录树

维护目录树的增删改查操作,保证所有修改都能持久化,以便机器掉电不会造成数据丢失或不一致

维护文件和数据块的关系

文件被切分成多个块,文件以数据块为单位进行多副本存放

维护文件块存放节点信息

通过接收DataNode的心跳汇报信息,维护集群节点的额拓扑结构和每个文件块所有副本所在的DataNode类表

分配新文件存放节点

Client创建新的文件时候,需要有NameNode来确定分配目标DataNode

15.jpg

2.5 数据节点DataNode

数据块存取:

DataNode需要高效实现对数据块在硬盘上的存取

心跳汇报:

把存放在本机的数据块列表发送给NameNode,以便NameNode能维护数据块的位置信息,同时让NameNode确定该节点处于正常存活状态

副本复制:

1、数据写入时Pipeline IO操作

2、机器故障时补全副本

16.jpg

小结

  • 分布式存储系统基本概念
  • HDFS组件功能职责

03 关键设计

分布式存储系统基本概念

01、容错能力

能够处理绝大部分异常场景,例如服务器宕机、网络异常、磁盘故障、网络超时等

02、一致性模型

为了实现容错,数据必须多副本存放,一致性要解决的问题是如何保障这多个副本的内容都一致

03、可扩展性

分布式存储系统需要具备横向扩张scale-out的能力

04、节点体系

常见的有主从模式、对等模式等,不管哪种模式,高可用是必须的功能

05、数据放置

系统是由多个节点组成,数据时多个副本存放时,需要考虑数据存放的策略

06、单机存储引擎

在绝大部分存储系统中国,数据都是需要落盘持久化,单机引擎需要解决的是根据系统特点,如何高效地存取硬盘数据

3.1 NameNode目录树维护

fsimage

  • 文件系统目录树
  • 完整的存放在内存中
  • 定时存放到硬盘上
  • 修改是只会修改内存中的目录树

17.jpg

EditLog

  • 目录树的修改日志
  • client更新目录树需要持久化EditLog后才能表示更新成功
  • EditLog可存放在本地文件系统,也可存放在专用系统上
  • NameNode HA方案一个关键点就是如何实现EditLog共享

18.jpg

3.2 NameNode数据放置

数据块信息维护

  • 目录树保存每个文件的块id
  • NameNode维护了每个数据块所在的节点信息
  • NameNode根据DataNode汇报的信息动态维护位置信息
  • NameNode不会持久化数据块位置信息

19.jpg

数据放置策略

  • 新数据存放到哪写节点
  • 数据均衡需要怎么合理搬迁数据
  • 3个副本怎么合理放置

20.jpg

3.3 DataNode

数据块的硬盘存放

  • 文件在NameNode已分割成block
  • DataNode以block为单位对数据进行存取

21.jpg 22.jpg

启动扫盘

  • DataNode需要知道本机存放了哪些数据块
  • 启动时把本机硬盘上的数据块列表加载在内存中

3.4 HDFS写异常处理:Lease Recovery

租约: Client要修改一个文件时,需要通过NameNode上锁,这个锁就是租约(Lease)

**情景:**文件写了一半,client自己挂掉了。

可能产生的问题:

√ 副本不一致

√ Lease无法释放

解决方法: Lease Recovery

23.jpg

Pipeline Recovery

情景: 文件写入过程中,DataNode侧出现异常挂掉了

异常出现的时机:

  • 创建连接时
  • 数据传输时
  • complete阶段

解决方法: Pipeline Recovery

24.jpg

3.5 Client读异常处理

情景: 读取文件的过程,DataNode侧出现异常挂掉了

解决方法: 节点Failover

增强情景: 节点半死不活,读取很慢

25.jpg

3.6 旁路系统

26.jpg

27.jpg

3.7 控制面建设

可观测性设施

  • 指标埋点
  • 数据采集
  • 访问日志
  • 数据分析

运维体系建设

  • 运维操作需要平台化
  • NameNode操作复杂
  • DataNode操作复杂
  • DataNode机器规模庞大
  • 组件控制面API

小结

√ NameNode目录树设计

√ NameNode副本放置

√ DataNode设计

√ Client读写流程异常处理

√ HDFS旁路系统

√ HDFS控制面建设

04 应用场景

4.1 使用HDFS的公司

28.jpg

4.2 初窥大数据生态

29.jpg

4.3 演示:PySpark读写HDFS文件

  • 读取本地文件系统上的文件
  • 把查询结果保存到本地文件
  • 读取HDFS上的文件
  • 把查询结果保存到HDFS上

4.4 ETL:Extract,Transform,Load

30.jpg

4.5 OLAP查询引擎

31.jpg

4.6 HBase

32.jpg

4.7 机器学习

33.jpg

  • 原生支持HDFS读写

34.jpg

  • 通过Alluxio访问HDFS
  • 修改源码增加对HDFS的支持

4.8 通用存储应用

35.jpg

小结

  • PySpark读写HDFS演示
  • ETL概念
  • OLAP查询引擎
  • 通用存储场景

05 总结

√ HDFS架构

√ HDFS关键设计

√ 大数据应用场景

√ 通用存储场景