大数据开发——数据仓库Hive概述与工作机制(四)

385 阅读3分钟

「这是我参与2022首次更文挑战的第8天,活动详情查看:2022首次更文挑战」。

2. Hive 的基本概念

2.1. Hive 简介

什么是 Hive

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

其本质是将SQL转换为MapReduce的任务进行运算,底层由HDFS来提供数据的存储,说白了hive可以理解为一个将SQL转换为MapReduce的任务的工具,甚至更进一步可以说hive就是一个MapReduce的客户端。

为什么使用 Hive

  • 采用类SQL语法去操作数据,提供快速开发的能力。

  • 避免了去写MapReduce,减少开发人员的学习成本。

  • 功能扩展很方便。

2.2 Hive 架构

  • 用户接口: 包括CLI、JDBC/ODBC、WebGUI。其中,CLI(command line interface)为shell命令行;JDBC/ODBC是Hive的JAVA实现,与传统数据库JDBC类似;WebGUI是通过浏览器访问Hive。

  • 元数据存储: 通常是存储在关系数据库如mysql/derby中。Hive 将元数据存储在数据库中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。

  • 解释器、编译器、优化器、执行器: 完成HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS 中,并在随后有MapReduce 调用执行。

2.3 Hive 与 Hadoop 的关系

hive用于海量数据的离线数据分析

图片.png

总结:hive具有sql数据库的外表,但应用场景完全不同,hive只适合用来做批量数据统计分析

3. Hive 的基本操作

3.1 数据库表操作

3.1.1 创建表的语法:

create [external] table [if not exists] table_name (

col_name data_type [comment '字段描述信息']

col_name data_type [comment '字段描述信息'])

[comment '表的描述信息']

[partitioned by (col_name data_type,...)]

[clustered by (col_name,col_name,...)]

[sorted by (col_name [asc|desc],...) into num_buckets buckets]

[row format row_format]

[storted as ....]

[location '指定表的路径']

说明:

1. create table

创建一个指定名字的表。如果相同名字的表已经存在,则抛出异常;用户可以用 IF NOTEXISTS 选项来忽略这个异常。

2. external

可以让用户创建一个外部表,在建表的同时指定一个指向实际数据的路径(LOCATION),Hive 创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。在删除表的时候,内部表的元数据和数据会被一起删除,而外部表只删除元数据,不删除数据。

3. comment

表示注释,默认不能使用中文

4. partitioned by

表示使用表分区,一个表可以拥有一个或者多个分区,每一个分区单独存在一个目录下 .

5. clustered by

对于每一个表分文件, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是 针对某一列进行桶的组织。

6. sorted by

指定排序字段和排序规则

7. row format

指定表文件字段分隔符

8. storted as

指定表文件的存储格式, 常用格式:SEQUENCEFILE, TEXTFILE, RCFILE,如果文件数据是纯文本,可以使用 STORED AS TEXTFILE。如果数据需要压缩,使用 storted as SEQUENCEFILE。

9. location

指定表文件的存储路径