深入浅出HBase实战 | 青训营笔记

93 阅读6分钟

这是我参与「第四届青训营 」笔记创作活动的的第11天。


✔「课程回顾」 HDFS是一种开源的分布式文件系统,基于常见商用硬件构建海量大规模存储集群,提供极低 的存储成本,极大的存储容量支持。

HDFS提供高可靠性的数据保障,通常采用三副本冗余存储数据到不同的机器来实现容灾备份 能力。

HBase基于HDFS实现存储计算分离架构的分布式表格存储服务。


HBase基础

什么是HBase

HBase是一个开源的NoSQL分布式数据库,是Apache软件基金会顶级项目之一。

参考Google BigTable的设计,对稀疏表提供更高的存储空间使用率和读写效率。

采用存储计算分离架构

🚩存储层基于HDFS存储数据,提供容错机制和高可靠性;

🚩计算层提供灵活快速的水平扩展、负载均衡和故障恢复能力;


HBase和关系型数据库的区别

image.png


HBase数据模型

HBase以列族(column family)为单位存储数据,以行键(rowkey) 索引数据。 ✔列族需要在使用前预先创建,列名(column qualifier) 不需要预先声明,因此支持半结构化数据模型。 ✔支持保留多个版本的数据, (行键+列族+列名+版本号)定位一个具体的值。


👇数据模型中的概念用途

image.png


HBase数据模型的逻辑结构

HBase是半结构化数据模型。以列族(column family)为单位存储数据,以行键(rowkey) 索引数据。

HBase数据模型的物理结构

物理数据结构最小单元是KeyValue结构


使用场景

半结构化/字典序有序索引的数据

“近在线”海量分布式KV /宽表存储

写密集型的高吞吐场景


HBase数据模型的优缺点

image.png


自主思考

HBase 是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。

逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从HBase 的底层物理存储结构(K-V)来看,HBase 更像是一个multi-dimensional map

HBase是通过zookeeper集群协调进行数据的写入,Client客户端首先会访问Zookeeper,从Zookeeper中获取表的相关信息以及表的Region相关信息,根据我们要插入数据的rowkey,获取指定RegionServer的信息。


HBase架构设计

🎈主要组件包括:

  • HMaster:元数据管理,集群调度、保活。
  • RegionServer:提供数据读写服务,每个实例
  • 负责若干个互不重叠的rowkey区间内的数据。
  • ThriftServer:提供Thrift API读写的代理层。

🎈依赖组件包括:

  • Zookeeper:分布式一致性共识协作管理, 例如
  • HMaster选主、任务分发、元数据变更管理等。
  • HDFS:分布式文件系统,HBase数据存储底座。

对于组件的扩展知识

image.png

  • Region Server Region Server 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下: 对于数据的操作:get, put, delete; 对于Region 的操作:splitRegion、compactRegion。

  • Master Master 是所有 Region Server 的管理者,其实现类为 HMaster,主要作用如下: 对于表的操作:create, delete, alter 对于 RegionServer 的操作:分配 regions 到每个 RegionServer,监控每个 RegionServer 的状态,负载均衡和故障转移。

Master负责管理 RegionServer,实现其负载均衡; 管理和分配 Region,比如在 Region split时分配新的 Region,在 RegionServer 退出时迁移其内的 Region 到其他 RegionServer上; 管理namespace和table的元数据(实际存储在HDFS上); 权限控制(ACL)。

  • Zookeeper HBase 通过 Zookeeper 来做 Master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作。

  • HDFS HDFS 为 HBase 提供最终的底层数据存储服务,同时为 HBase 提供高可用的支持。


HMaster的主要组件

  • ActiveMasterManager:管理HMaster的active/backup状
  • ServerManager:管理集群内RegionServer的状态
  • AssignmentManager:管理数据分片(region) 的状态
  • SplitWalManager:负责故障数据恢复的WAL拆分工作
  • LoadBalancer:定期巡检、调整集群负载状态
  • RegionNormalizer:定期巡检并拆分热点、整合碎片
  • CatalogJanitor:定期巡检、清理元数据
  • Cleaners:定期清理废弃的HFile / WAL等文件
  • MasterFileSystem:封装访问HDFS的客户端SDK

RegionServer的主要组件

  • MemStore:基于SkipL ist数据结构实现的内存态存储,定期批量写入硬盘
  • Write Ahead-Log:顺序记录写请求到持久化存储,用于故障恢复内存中丢失的数据
  • Store:对应一个Column Family在一个region下的数据集合,通常包含多个文件
  • StoreFile:即HFile,表示HBase在HDFS存储数据的文件格式,其内数据按rowkey字典序有序排列
  • BlockCache: HBase 以数据块为单位读取数据并缓存在内存中以加速重复数据的读取

大数据支撑

HBase在大数据生态的定位

  • 对TB、 PB级海量数据支持强一致、近实时的读写性能,支持快速的ad-hoc分析查询任务;
  • 支持字典序批量扫描大量数据,支持只读取部分列族的数据,
  • 灵活支持不同查询模式,避免读取不必要的数据;
  • 存储大规模任务(例如MapReduce, Spark Flink) 的中间/最终计算结果;
  • 平滑快速的水平扩展能力,能够敏捷应对大数据场景高速增长的数据体量和大规模的并发访问;
  • 精细化的资源成本控制,计算层和存储层分别按需扩展,避免资源浪费。

Region热点切分

  • 当某个region数据量过多,切分成两个独立的子region分摊负载。
  • RegionServer在特定时机(flush、 compaction) 检查region是否应该切分,计算切分点并RPC.上报HMaster,由 AssignmentManager负责执行RegionState Transition。
  • 不搬迁实际数据,切分产生的新region数据目录下生成一 个以原region文件信息命名的文件,内容是切分点对应的 rowkey, 以及标识新region是上/下半部分的数据。

Region碎片整合

  • 当某些region数据量过小、碎片化,合并相邻region整合优化数据分布。
  • AssignmentManager创建Merge TableRegionsProcedure执行整合操作。
  • 不搬迁实际数据,通过reference file 定位原region的文件,直到下次compaction时实际处理数据。
  • 注意:只允许合并相邻region,否则会打破rowkey空间连续且不重合的约定。

Region负载均衡

定期巡检各RegionServer上的region数量,保持region的数量均匀分布在各个Region Server上。


Distributed Log Split原理

  • RegionServer 故障,Zookeeper 检测到心跳超时或连接断开,删除对应的临时节点并通知监听该节点的客户端
  • active HMaster监听到RS临时节点删除事件,从HDFS梳理出该RS负责的WAL文件列表
  • HMaster为每个WAL文件发布一个log split task到ZK
  • 其他在线的RS监听到新任务,分别认领
  • 将WAL entries按region拆分,分别写入HDFS.上该region的recovered.edits目录
  • HMaster监听到log split任务完成,调度region到其他RS
  • RS打开region前在HDFS找到先回放recovered.edits 目录下的WAL文件将数据恢复到Memstore里,再打开region恢复读写服务