这是我参与「第四届青训营 」笔记创作活动的的第10天
内容回顾
HBase基于HDFS实现存储计算分离架构的分布式表格存储服务
01.使用场景
1.1 HBase是什么?
HBase是一个开源的NoSQL分布式数据库,是Apache软件基金会顶级项目之一。参考Google BigTable的设计,对稀疏表提供更高的存储空间使用率和读写效率。
采用存储计算分离架构
- 存储层基于HDFS存储数据,提供容错机制和高可靠性;
- 计算层提供灵活快速的水平扩展、负载均衡和故障恢复能力;
提供强一致语义,在CAP理论中属于CP系统。(一致性、分区容错性)
1.2 HBase和关系型数据库的区别
1.3 HBase数据模型
1.4 HBase逻辑结构
HBase是半结构化数据模型,以列族(column family)为单位存储数据,以行键(rowkey)索引数据
通过非关系型视图理解HBase数据模型:
√适合稀疏数据,缺省列不占用存储空间。
√通过(rowkey, column family, column qualifier, version )
√唯一指定一个具体的值。
√允许批量读取多行的部分列族/列数据。
1.5 HBase数据模型–物理结构
物理数据结构最小单元是KeyValue结构:
√每个版本的数据都携带全部行列信息。
√同一行,同一列族的数据物理上连续有序存储。
√同列族内的 KeyValue按rowkey字典序升序,column qualifier升序,version降序排列。
√不同列族的数据存储在相互独立的物理文件,列族间不保证数据全局有序。
√同列族下不同物理文件间不保证数据全局有序。
√仅单个物理文件内有序。
1.6 使用场景
- “近在线”的海量分布式KV/宽表存储,数据量级可达到PB级以上
- 写密集型、高吞吐应用,可接受一定程度的时延抖动
- 字典序主键索引、批量顺序扫描多行数据的场景
- Hadoop大数据生态友好兼容
- 半结构化数据模型,行列稀疏的数据分布,动态增减列名
- 敏捷平滑的水平扩展能力,快速响应数据体量、流量变化
1.7典型应用
- 电商订单数据:查询最新/待处理订单进度
- 搜索推荐引擎:存储原始数据、排序推荐结果
- 广告数据流∶触达、点击、转化等事件流
- 用户交互数据:IM、Email、点赞、搜索
- 时序数据引擎:日志、监控(OpenTSDB)
- 图存储引擎:JanusGraph
- 大数据生态:高度融入Hadoop生态
1.8 HBase数据模型的优缺点
02.HBase架构设计
主要组件包括:
- HMaster :元数据管理,集群调度、保活。
- RegionServer :提供数据读写服务,每个实例负责若个互不重叠的rowkey区间内的数据。
- ThriftServer :提供Thrift API读写的代理层。 依赖组件包括:
- Zookeeper :分布式-致性共识协作管理,例如HMaster选主、任务分发、元数据变更管理等。
- HDFS:分布式文件系统,HBase数据存储底座。
2.1 HMaster主要职责
1.管理RegionServer 实例生命周期,保证服务可用性 2.协调RegionServer数据故障恢复,保证数据正确性 3.集中管理集群元数据,执行负载均衡等维护集群稳定性 4.定期巡检元数据,调整数据分布,清理废弃数据等 5.处理用户主动发起的元数据操作如建表、删表等
2.2 HMaster主要组件
- ActiveMasterManager :管理HMaster的active/backup状态
- ServerManager:管理集群内RegionServer的状态
- AssignmentManager:管理数据分片( region )的状态
- SplitwalManager:负责故障数据恢复的WAL 拆分工作
- LoadBalancer:定期巡检、调整集群负载状态
- RegionNormalizer:定期巡检并拆分热点、整合碎片
- CatalogJanitor:定期巡检、清理元数据
- Cleaners :定期清理废弃的 HFile / WAL等文件
- MasterFileSystem :封装访问HDFS的客户端SDK
2.3 RegionServer主要职责
- 提供部分rowkey 区间数据的读写服务
- 如果负责meta表,向客户端SDK提供rowkey位置信息
- 认领HMaster发布的故障恢复任务,帮助加速数据恢复过程
- 处理HMaster下达的元数据操作,如region打开/关闭/分裂/合并操作等
2.4 RegionServer主要组件
- MemStore :基于SkipList数据结构实现的内存态存储,定期批量写入硬盘
- Write-Ahead-Log :顺序记录写请求到持久化存储,用于故障恢复内存中丢失的数据
- StoreFile :即 HFile,表示HBase在HDFS存储数据的文件格式,其内数据按rowkey字典序有序排列
- BlockCache : HBase以数据块为单位读取数据并缓存在内存中以加速重复数据的读取
2.5 ZooKeeper主要职责
- HMaster登记信息,对active/backup分工达成共识
- RegionServer登记信息,失联时HMaster保活处理
- 登记meta表位置信息,供 SDK查询读写位置信息
- 供HMaster和RegionServer协作处理分布式任务
2.6 ThriftServer主要职责
- 实现HBase定义的Thrift APl,作为代理层向用户提供RPC读写服务
- 用户可根据IDL自行生成客户端实现
- 独立于RegionServer水平扩展,用户可访问任意ThriftServer 实例(scan操作较特殊,需要同实例维护scan状态)
03.大数据支撑
3.1 HBase在大数据生态的定位
- 对TB、PB级海量数据支持强一致、近实时的读写性能,支持快速的ad-hoc分析查询任务;
- 支持字典序批量扫描大量数据,支持只读取部分列族的数据,灵活支持不同查询模式,避免读取不必要的数据;
- 存储大规模任务(例如MapReduce , Spark,Flink )的中间/最终计算结果;
- 平滑快速的水平扩展能力,能够敏捷应对大数据场景高速增长的数据体量和大规模的并发访问;
- 精细化的资源成本控制,计算层和存储层分别按需扩展,避免资源浪费。
水平扩展能力
3.2 Region碎片整合–流程设计
类似于region切分,不立刻处理实际数据文件,而是通过创建reference files引用到原文件,然后原子地更新元数据来完成碎片整合,后续靠compaction 整合数据文件,靠CatalogJanitor异步巡检元数据处理遗留数据。
04.最佳实践
4.1 Rowkey设计策略
场景分类
1.不需要顺序扫描批量连续rowkey
对原始rowkey 做哈希(如MD5),作为真实rowkey的前缀。建议取适当长度的子串,避免过多占用存储空间。
2需要顺序扫描批量连续rowkey
首先用grouplDlappID/userID前缀避免数据热点,然后加上定义顺序的信息(如时间戳等)ID前缀也建议哈希处理,避免非预期的热点。e.g.MD5(grouplD):grouplD:timestamp:...
3.rowkey长度尽量保持较短,因为会冗余存储到每个 KeyValue中。\
避免用时间戳直接作为rowkey前缀,会导致最新的数据始终集中在单个RegionServer上,造成热点瓶颈,且无法通过水平扩容缓解。
4.2 Column Family设计策略
1.Column family数量过多容易影响性能,建议尽量少,不超过5个。
2.需要同时读取的数据尽量放在相同列族,反之尽量放在不同列族,读取时尽量只读取必需的列族,避免读不必要的列族。
3.列族(以及 column qualifier )名称尽量短,因为会冗余存储到每个KeyValue 中。
4.3参数调优经验
4.4 ByteTable -字节跳动自研分布式表格存储系统
优势;
1.存储层基于字节跳动自研分布式存储底座,从设计上充分支持在线场景的性能、功能需求
2.采用C++编写构建,杜绝了Garbage Collection在 Stop-The-World阶段带来的性能抖动
3.架构设计上支持更细粒度、更灵活的数据分片组织方式,激活更多优化空间;
4.元数据设计提供更好的故障域控制,避免多租户相互影响;
5.更短的故障恢复时间,对在线场景的高可用性支持更好;