《深入浅出 HBase 实战》|青训营笔记

136 阅读14分钟

这是我参与「第四届青训营」笔记创作活动的第12天

本节课程目录:

  1. HBase 适用场景
  2. HBase 架构设计
  3. 大数据支撑
  4. 最佳实践

1,HBase 适用场景

1.1 什么是 HBase ?

HBase 是一个开源的 NoSQL 分布式数据库,是 Apache 软件基金会顶级项目之一。参考 Google BigTable 的设计,对稀疏表提供更高的存储空间使用率和读写效率。

采用存储计算分离架构

  • 存储层基于 HDFS 存储数据,提供容错机制和高可靠性
  • 计算层提供灵活快速的水平扩展、负载均衡和故障恢复能力

提供强一致语义,在 CAP 理论中属于 CP 系统(Consistency,Availability,Partition Tolerance)

1.2 HBase 和关系型数据库的区别

截屏2022-08-07 14.53.16.png

1.3 HBase 数据模型

HBase 以列族 column family 为单位存储数据,以 rowkey 索引数据

  • 列族需要在使用前预先创建,列名 column qualifier 不需要预先声明,因此支持半结构化数据模型
  • 支持保留多个版本的数据,行键 + 列族 + 列名 + 版本号 定位一个具体的值

截屏2022-08-07 14.57.03.png

逻辑结构

通过非关系型视图理解 HBase 数据模型:

  • 适合稀疏数据,缺省列不占用存储空间
  • 通过 rowkey,column famaily,column qualifier,version 唯一指定一个具体的值
  • 允许批量读取多行的部分列族/列数据

image.png

物理结构

物理数据结构最小单元是 KeyValue 结构

  • 每个版本的数据都携带全部行列信息
  • 同一行、同一列族的数据物理上连续有序存储
  • 同列族内的 KeyValue 按 rowkey 字典序升序,column qualifier 升序,version 降序排列

image-2.png

  • 不同列族的数据存储在相互独立的物理文件,列族间不保证数据全局有序
  • 同列族下不同物理文件间不保证数据全局有序
  • 仅单个物理文件内有序

image-3.png

1.4 使用场景

适用场景

  • “近在线”的海量分布式 KV/宽表存储,数据量级达到百 TB 级以上
  • 写密集型应用,高吞吐,可接受一定的时延抖动
  • 字典序主键索引、批量顺序扫描多行数据的场景
  • Hadoop 大数据生态友好兼容
  • 结构化、半结构化数据模型,行列稀疏的数据分布,可以经常新增/更新列属性
  • 敏捷平滑的水平扩展能力,快速响应数据体量、流量变化

典型应用

  • 电商订单数据:抖音电商每日交易订单数据基于 HBase 存储,支持海量数据存储的同时满足稳定低延时的查询需求,并且只需相对很低的存储成本。通过多个列存储订单信息和处理进度,快速查询近期新增/待处理订单列表。同时也可将历史订单数据用于统计、用户行为分析等离线任务。
  • 搜索推荐引擎:存储网络爬虫持续不断抓取并处理后的原始网页信息,通过 MapReduce、Flink、Spark 等大数据计算框架分析处理原始数据后产出粗选、精选、排序后的网页索引集,再存储到 HBase 以提供近实时的随机查询能力,为上层的多个字节跳动应用提供通用的搜索和推荐能力。
  • 大数据生态:天生融入 Hadoop 大数据生态。对多种大数据组件、框架拥有良好的兼容性,工具链完善,快速打通大数据链路,提高系统构建落地效率,并借助 HDFS 提供可观的成本优势。敏捷平滑的水平扩展能力可以自如地应对数据体量和流量的快速增长。
  • 广告数据流:存储广告触达、点击、转化等事件流,为广告分析系统提供快速的随机查询及批量读取能力,助力提升广告效果分析和统计效率。
  • 用户交互数据:Facebook 曾使用 HBase 存储用户交互产生的数据,例如聊天、评论、帖子、点赞等数据,并利用 HBase 构建用户内容搜索功能。
  • 时序数据引擎:基于 HBase 构建适用于时序数据的存储引擎,例如日志、监控数据存储。例如 OpenTSDB(Open Time Series Database)是一个基于 HBase 的时序存储系统,适用于日志、监控打点数据的存储查询。
  • 图存储引擎:基于 HBase 设计图结构的数据模型,如节点、边、属性等概念,作为图存储系统的存储引擎。例如 JanusGraph 可以基于 HBase 存储图数据。

1.5 HBase 数据模型的优缺点

截屏2022-08-07 15.21.47.png

2. HBase 架构设计

2.1 HBase 架构设计

主要组件包括:

  • HMaster:元数据管理,集群调度、保活
  • RegionServer:提供数据读写服务,每个实例负责若干个互不重叠的 rowkey 区间内的数据
  • ThriftServer:提供 Thrift API 读写的代理层

依赖组件包括:

  • ZooKeeper:分布式一致性共识协作管理,例如 HMaster 选主、任务分发、元数据变更管理等
  • HDFS:分布式文件系统,HBase 数据存储底座

image-5.png

2.2 HMaster 主要职责

  1. 管理 RegionServer 实例生命周期,保证服务可用性
  2. 协调 RegionServer 数据故障恢复,保证数据正确性
  3. 集中管理集群元数据,执行负载均衡等维护集群稳定性
  4. 定期巡检元数据,调整数据分布,清理废弃数据等
  5. 处理用户主动发起的元数据操作如建表、删表等

image-6.png

主要组件

  • ActiveMasterManager:管理 HMaster 的 active/backup 状态
  • ServerManager:管理集群内 RegionServer 的状态
  • AssignmentManager:管理数据分片 region 的状态
  • SplitWalManager:负责故障数据恢复的 WAL 拆分工作
  • LoadBalancer:定期巡检、调整集群负载状态
  • RegionNormalizer:定期巡检并拆分热点、整合碎片
  • CatalogJanitor:定期巡检、清理元数据
  • Cleaners:定期清理废弃的 HFile/WAL 等文件
  • MasterFileSystem:封装访问 HDFS 的客户端 SDK

2.3 RegionServer 主要职责

  1. 提供部分 rowkey 区间数据的读写服务
  2. 如果负责 meta 表,向客户端 SDK 提供 rowkey 位置信息
  3. 认领 HMaster 发布的故障恢复任务,帮助加速数据恢复过程
  4. 处理 HMaster 下达的元数据操作,如 region 打开/关闭/分裂/合并操作等

image-7.png

主要组件

  • MemStore:基于 SkipList 数据结构实现的内存态存储,定期批量写入硬盘
  • Write-Ahead-Log:顺序记录写请求到持久化存储,用于故障恢复内存中丢失的数据
  • Store:对应一个 Column Family 在一个 region 下的数据集合,通常包含多个文件
  • StoreFile:即 HFile,表示 HBase 在 HDFS 存储数据的文件格式,其内数据按 rowkey 字典序有序排列
  • BlockCache:HBase 以数据块为单位读取数据并缓存在内存中以加速重复数据的读取

2.4 ZooKeeper 主要职责

  1. HMaster 登记信息,对 active/backup 分工达成共识
  2. RegionServer 登记信息,失联时 HMaster 保活处理
  3. 登记 meta 表位置信息,供 SDK 查询读写位置信息
  4. 供 HMaster 和 RegionServer 协作处理分布式任务

image-8.png

2.5 ThriftServer 主要职责

  1. 实现 HBase 定义的 Thrift API,作为代理层向用户提供 RPC 读写服务
  2. 用户可根据 IDL 自行生成客户端实现
  3. 独立于 RegionServer 水平扩展,用户可访问任意 ThriftServer 实例(scan 操作较特殊,需要同实例维护 scan 状态)

3. 大数据支撑

3.1 HBase 在大数据生态的定位

  1. 对 TB、PB 级海量数据支持强一致、近实时的读写性能,支持快速的 ad-hoc 分析查询任务
  2. 支持字典序批量扫描大量数据,支持只读取部分列族的数据,灵活支持不同查询模式,避免读取不必要的数据
  3. 存储大规模任务(MapReduce,Spark,Flink)的中间/最终计算结果
  4. 平滑快速的水平扩展能力,能够敏捷应对大数据场景高速增长的数据体量和大规模的并发访问
  5. 精细化的资源成本控制,计算层和存储层分别按需扩展,避免资源浪费

3.2 水平扩展能力

image-10.png

  • 增加 RegionServer 实例,分配部分 region 到新实例
  • 扩展过程平滑,无需搬迁实际数据
  • 可用性影响时间很短,用户基本无感知

image-11.png

3.3 Region 热点切分

  • 当某个 region 数据量过多,切分成两个独立的子 region 分摊负载
  • RegionServer 在特定时机(flush、compaction)检查 region 是否应该切分,计算切分点并 RPC 上报 HMaster,由 AssignmentManager 负责执行 RegionStateTranstition
  • 不搬迁实际数据,切分产生的新 region 数据目录下生成一个以原 region 文件信息命名的文件,内容是切分点对应的 rowkey,以及标识新 region 是上/下半部分的数据

切分点选取

HBase 原生提供的多种切分策略使用相同的切分点选择策略。

目标:优先把最大的数据文件均匀切分。

  • 切分点选择步骤:
    • 找到该表中哪个 region 的数据大小最大 image-13.png
    • 找到该 region 内哪个 column family 的数据大小最大 image-14.png
    • 找到 column family 内哪个 HFile 的数据大小最大 image-15.png
    • 找到 HFile 里处于最中间位置的 Data Block
    • 用这个 Data Block 的第一条 KeyValue 的 rowkey 作为切分点 image-16.png

切分过程

  • 所有 Column Family 都按照统一的切分点来切分数据

  • 目的是优先均分最大的文件,不保证所有 Column Family 的所有文件都被均分

  • HFile 1 作为最大的文件被均分,其他文件也必须以相同的 rowkey 切分以保证对齐新 region 的rowkey 区间 image-17.png

  • 切分出新的 region 分别负责 rowkey 区间 [2000,2500)和 [2500,4000) image-18.png

  • 在 compaction 执行前不实际切分文件,新 region 下的文件通过 reference file 指向原文件读取实际数据 image-19.png

流程设计

AssignmentManager 检查 cluster、table、region 的状态后,创建 SplitTableRegionProcedure 通过状态机实现执行切分过程

截屏2022-08-07 16.14.03.png

3.4 Region 碎片整合

  • 当某些 region 数据量过小、碎片化,合并相邻 region 整合优化数据分布
  • AssignmentManager 创建 MergeTableRegionProcedure 执行整合操作
  • 不搬迁实际数据,通过 reference file 定位原 region 的文件,直到下次 compaction 时实际处理数据
  • 注意:只允许合并相邻 region,否则会打破 rowkey 空间连续且不重合的约定

流程设计

类似于 region 切分,不立刻处理实际数据文件,而是通过创建 reference files 引用到原文件,然后原子地更新元数据来完成碎片整合,后续靠 compaction 整合数据文件,靠 CatalogJanitor 异步巡检元数据处理遗留数据

截屏2022-08-07 16.20.00.png

3.5 Region 负载均衡

定期巡检各 RegionServer 上的 region 数量,保持 region 的数量均匀分布在各个 RegionServer 上

SimpleLoadBalancer 具体步骤

  1. 根据总 regine 数量和 RegionServer 数量计算平均 region 数,设定弹性上下界避免不必要的操作
  2. 将 RegionServer 按照 region 数量降序排序,对 region 数量超出上限的选取要迁出的 region 并按创建时间从新到老排序。 image-20.png
  3. 选取出 region 数量低于下限的 RegionServer 列表,round-robin 分配步骤2 选取的 regions,尽量使每个 RS 的 region 数量都不低于下限
  4. 处理边界情况,无法满足所有 RS 的 region 数量都在合理范围内时,尽量保持 region 数量相近

image-21.png

其他策略

  • StochasticLoadBalancer

    • 随机尝试不同的 region 放置策略,根据提供的 cost function 计算不同策略的分值排名(0为最优,1为最差)
    • cost 计算将下列指标纳入统计:region 负载、表负载、数据本地性(本地访问 HDFS)、Memstore 大小,HFile 大小
    • 根据配置加权计算最终 cost,选择最优方案进行负载均衡
  • FavoredNodeLoadBalancer

    • 用于充分利用本地读写 HDFS 文件来优化读写性能
    • 每个 region 会指定优选的 3 个 RegionServer 地址,同时会告知 HDFS 在这些优选节点上放置该 region 的数据
    • 即使第一节点出现故障,HBase 也可以将第二节点提升为第一节点,保证稳定的读时延

3.6 故障恢复机制 - HMaster

HMaster 通过多实例基于 ZooKeeper 选主实现高可用性

  • 所有实例尝试向 ZooKeeper 的 /hbase/active-master 临时节点 CAS 地写入自身信息
  • 写入成功表示成为主实例,失败即为从实例,通过 watch 监听 /hbase/active-master 节点的变动
  • 主实例不可用时临时节点被删除,此时触发其他从实例重新尝试选主

image-22.png

HMaster 自身恢复流程

  1. 监听到 /hbase/active-master 临时节点被删除的事件,触发选主逻辑
  2. 选主成功后执行 HMaster 启动流程,从持久化存储读取未完成的 procedures 从之前状态继续执行
  3. 故障 HMaster 实例恢复后发现主节点已存在,继续监听 /hbase/active-master

调度 RegionServer 的故障恢复流程

  1. AssignmentManager 从 procedure 列表中找出 Region-in-Transition 状态的 region 继续调度过程
  2. RegionServerTracker 从 Zookeeper 梳理 online 状态 的 RegionServer 列表,结合 ServerCrashProcedure 列表,HDFS 中 WAL 目录里 alive/splitting 状态的 RegionServer 记录,获取掉线 RegionServer 的列表,分别创建 ServerCrashProcedure 执行恢复流程

3.7 故障恢复机制 - RegionServer

  • 每个 RegionServer 实例启动时都会往 Zookeeper 的 /hbase/rs 路径下创建对应的临时节点
  • HMaster 通过监听 RegionServer 在 Zookeeper 的临时节点状态,监控数据读写服务的可用性,及时调度恢复不可用的 regions
  • RegionServer 的故障恢复需要讲内存中丢失的数据从 WAL 中恢复,HMaster 利用 Zookeeper 配合所有 RegionServer 实例,分布式地处理 WAL 数据,提升恢复速度

image-23.png

RegionServer 恢复流程

  1. 启动时去 Zookeeper 登记自身信息,告知主 HMaster 实例有新 RS 实例接入集群
  2. 接收和执行来自 HMaster 的 region 调度命令
  3. 打开 region 前先从 HDFS 读取该 region 的 recovered.edits 目录下的 WAL 记录,回放恢复数据
  4. 恢复完成,认领 Zookeeper 上发布的分布式任务,帮助其他数据恢复

3.8 Distributed Log Split 原理

背景:

  1. 写入 HBase 的数据首先顺序持久化到 Write-Ahead-Log,然后写入内存态的 MemStore 即完成,不立即写盘,RegionServer 故障会导致内存中的数据丢失,需要回放 WAL 来恢复
  2. 同 RegionServer 的所有 region 复用 WAL,因此不同 region 的数据交错穿插,RegionServer 故障后重新分配 region 前需要先按 region 维度拆分 WAL

image-24.png

实现原理:

  1. RegionServer 故障,Zookeeper 监测到心跳超时或连接断开,删除对应的临时节点并通知监听该节点的客户端
  2. active HMaster 监听到 RS 临时节点删除事件,从 HDFS 梳理出该 RS 负责的 WAL 文件列表
  3. HMaster 为每个 WAL 文件发布一个 log split task 到 ZK
  4. 其他在线的 RS 监听到新任务,分别认领
  5. 将 WAL entries 按 region 拆分,分别写入 HDFS 上该 region 的 recovered.edits 目录
  6. HMaster 监听到 log split 任务完成,调度 region 到其他 RS
  7. RS 打开 region 前在 HDFS 找到先回放 recovered.edits 目录下的 WAL 文件将数据恢复到 MemStore 里,再打开 region 恢复读写服务

image-25.png

优化空间

  1. HMaster 先将故障 RegionServer 上的所有 region 以 Recovering 状态调度分配到其他正常 RS 上
  2. 再进行类似 Distributed Log Split 的 WAL 日志按 region 维度切分
  3. 切分后不写入 HDFS,而是直接回放,通过 SDK 写流程将 WAL 记录写到对应的新 RS
  4. Recovering 状态的 region 接受写请求但不提供读服务,直到 WAL 回放数据恢复完成

4. 最佳实践分享

4.1 Rowkey 设计策略

  • 不需要顺序扫描批量连续 rowkey
    • 对原始 rowkey 做哈希,作为真实 rowkey 的前缀。建议取适当长度的子串,避免过多占用存储空间
  • 需要顺序扫描批量连续 rowkey
    • 首先用 groupID/appID/userID 前缀避免数据热点,然后加上定义顺序的信息,ID 前缀也建议哈希处理,避免非预期的热点
  • rowkey 长度尽量保持较短,因为会冗余存储到每个 KeyValue 中
    • 避免用时间戳直接作为 rowkey 前缀,会导致最新的数据始终集中在单个 RegionServer 上,造成热点瓶颈,且无法通过水平扩容缓解

4.2 Column Family 设计策略

  • Column Family 数量过多容易影响性能,建议尽量少,不超过 5 个
  • 需要同时读取的数据尽量放在相同列族,反之尽量放在不同列族,读取时尽量只读取必需的列族,避免读不必要的列族
  • 列族名称尽量短,因为会冗余存储到每个 KeyValue 中

4.3 参数调优经验

截屏2022-08-07 17.11.43.png