Day6 HDFS 原理与应用 | 青训营笔记

153 阅读5分钟

这是我参与「第四届青训营 」笔记创作活动的的第6天

01 HDFS基本介绍

image.png

1.1 Windows单机文件系统

1.2 Linux单机文件系统

1.3 分布式文件系统

image.png

  • 大容量

更多的机器,更多的存储介质

  • 高可靠

多个副本提高容错能力

  • 低成本

不需要高端硬件来扩容

1.4 分布式存储系统

数据库、文件系统、块存储、对象存储

1.5 HDFS功能特性

  1. 分布式

受GFS启发,用Java实现的开源系统,没有实现完整的POSIX文件系统语义

  1. 容错

自动处理、规避多种错误场景,例如常见的网络错误、机器宕机等。

  1. 高可用

一主多备模式实现元数据高可用,数据多副本实现用户数据的高可用

  1. 高吞吐

Client直接从DataNode读取用户数据,服务端支持海量client并发读写

  1. 可扩展

支持联邦集群模式,DataNode数量可达10w级别

  1. 廉价

只需要通用硬件,不需要定制高端的昂贵硬件设备

1.6 演示环境-HDFS节点

image.png

01.本章小结

  • Hadoop技术体系

  • 分布式文件系统

  • 分布式存储系统的类型

  • HDFS功能特性

  • 演示环境

02 架构原理

HDFS架构介绍和组件用途

2.1 HDFS组件

image.png

2.2 Client 写流程

image.png

2.3 Client 读流程

image.png

2.4 元数据节点NameNode

image.png

  • 维护目录树

维护目录树的增删改查操作,保证所有修改都能持久化,以便机器掉电不会造成数据丢失或不一致。

  • 维护文件和数据块的关系

文件被切分成多个块,文件以数据块为单位进行多副本存放

  • 维护文件块存放节点信息

通过接收DataNode的心跳汇报信息,维护集群节点的拓扑结构和每个文件块所有副本所在的DataNode类表。

  • 分配新文件存放节点

Client创建新的文件时候,需要有NameNode来确定分配目标DataNode

2.5 数据节点 DataNode

image.png

  • 数据块存取

DataNode需要高效实现对数据块在硬盘上的存取

  • 心跳汇报

把存放在本机的数据块列表发送给NameNode,以便NameNode能维护数据块的位置信息,同时让NameNode确定该节点处于正常存活状态

  • 副本复制
  1. 数据写入时Pipeline IO操作

  2. 机器故障时补全副本

02.本章小结

  • 分布式存储系统基本概念

  • HDFS组件功能职责

03 关键设计

分布式存储系统基本原理

HDFS各组件的重要设计

3.0 分布式存储系统基本概念

  1. 容错能力

能够处理绝大部分异常场景,例如服务器宕机、网络异常、磁盘故障、网络超时等。

  1. 一致性模型

为了实现容错,数据必须多副本存放,一致性要解决的问题是如何保障这多个副本的内容都是一致的

  1. 可扩展性

分布式存储系统需要具备横向扩张scale-out的能力

  1. 节点体系

常见的有主从模式、对等模式等,不管哪种模式,高可用是必须的功能。

  1. 数据放置

系统是由多个节点组成,数据是多个副本存放时,需要考虑数据存放的策略。

  1. 单机存储引擎

在绝大部分存储系统中,数据都是需要落盘持久化,单机引擎需要解决的是根据系统特点,如何高效得存取硬盘数据。

3.1 NameNode 目录树维护

  • fsimage

  • 文件系统目录树

  • 完整的存放在内存中

  • 定时存放到硬盘上

  • 修改是只会修改内存中的目录树

EditLog

  • 目录树的修改日志

  • client更新目录树需要持久化EditLog后才能表示更新成功

  • EditLog可存放在本地文件系统,也可存放在专用系统上

  • NameNode HA方案一个关键点就是如何实现EditLog共享

image.png

image.png

3.2 NameNode数据放置

  • 数据块信息维护

  • 目录树保存每个文件的块id

  • NameNode维护了每个数据块所在的节点信息

  • NameNode根据DataNode汇报的信息动态维护位置信息

  • NameNode不会持久化数据块位置信息

  • 数据放置策略

  • 新数据存放到哪写节点

  • 数据均衡需要怎么合理搬迁数据

  • 3个副本怎么合理放置

image.png

image.png

3.3 DataNode

  • 数据块的硬盘存放

  • 文件在NameNode已分割成block

  • DataNode以block为单位对数据进行存取

image.png

image.png

  • 启动扫盘

  • DataNode需要知道本机存放了哪些数据块

  • 启动时把本机硬盘上的数据块列表加载在内存中

3.4 HDFS写异常处理:Lease Recovery

租约:Client要修改一个文件时,需要通过NameNode 上锁,这个锁就是租约(Lease)。

情景:文件写了一半,client自己挂掉了。

可能产生的问题:

  • 副本不一致

  • Lease无法释放

解决方法:

Lease Recovery

image.png

3.4 HDFS写异常处理:Pipeline Recovery

情景:文件写入过程中,DataNode侧出现异常挂掉了。

异常出现的时机:

  • 创建连接时

  • 数据传输时

  • complete阶段

解决方法:Pipeline Recovery

image.png

3.5 Client 读异常处理

情景:读取文件的过程,DataNode侧出现异常挂掉了

解决方法:节点Failover

增强情景:节点半死不过,读取很慢

3.6 旁路系统

Balancer:均衡DataNode的容量

image.png

Mover:确保副本放置符合策略要求

image.png

3.7 控制面建设

  • 可观测性设施

  • 指标埋点

  • 数据采集

  • 访问日志

  • 数据分析

  • 运维体系建设

  • 运维操作需要平台化

  • NameNode 操作复杂

  • DataNode 机器规模庞大

  • 组件控制面API

03.本章小结

  • NameNode目录树设计

  • NameNode副本放置

  • DataNode设计

  • Client读写流程异常处理

  • HDFS旁路系统

  • HDFS控制面建设

04 应用场景

大数据生态中的应用、通用存储场景

4.1 使用HDFS的公司

image.png

4.2 初窥大数据生态

4.3 演示:PySpark 读写HDFS文件

4.4 ETL: Extract, Transform, Load

image.png

image.png

4.5 OLAP查询引擎

image.png

4.6 HBase

image.png

4.7机器学习

TensorFlow

  • 原生支持HDFS读写

PyTorch

  • 通过 Alluxio 访问HDFS

  • 修改源码增加对HDFS的支持

4.8 通用存储应用

image.png

04.小结

  • PySpark读写HDFS演示

  • ETL概念

  • OLAP查询引擎

  • 通用存储场景