hadoop——hive学习

简介: 一、前言Hive 是一个基于 Hadoop 文件系统之上的数据仓库架构。它可以将结构化的数据文件映射为一张数据库表,并提供简单的 sql 查询功能。还可以将 sql 语句转换为 MapReduce 任务运行。

一、前言

Hive 是一个基于 Hadoop 文件系统之上的数据仓库架构。它可以将结构化的数据文件映射为一张数据库表,并提供简单的 sql 查询功能。还可以将 sql 语句转换为 MapReduce 任务运行。

二、什么是hive

Hive是建立在Hadoop上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数据提取转化加载(ETL ),这是一种可以存储、查询和分析存储在 Hadoop 中的大规模数据的机制。Hive 定义了简单的类SQL查询语言,称为 HQL,它允许熟悉SQL的用户查询数据。同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理内建的 mapper 和 reducer 无法完成的复杂的分析工作

Hive在hadoop生态圈中属于数据仓库的角色。他能够管理**hadoop中的数据,同时可以查询**hadoop中的数据。本质上讲,hive是一个SQL解析引擎。Hive可以把SQL查询转换为MapReduce中的job,然后在Hadoop上运行。

三、hive的使用场景

Hive诞生于 facebook 的日志分析需求,面对海量的结构化数据,Hive在Facebook主要用于日志的数据报表、统计分析、数据挖掘等功能。Hive主要是可用类似于SQL的语法,对HDFS海量数据库中的数据进行查询、统计、更新等操作。形象地说Hive更像一个数据仓库管理工具。

因为Hive基于Hadoop,所以可以自定义Hadoop的Map Reduce流程,从Hive中调用。Hive是对Hadoop的一个上层封装,他将HQL翻译成对Hadoop 中Map Reduce的调用。

四、hive的安装

略过。网上教程。

五、hive之shell学习

进入shell交互命令

查看hive的shell命令帮助


hive——shell命令操作:

一:查看meatstore数据库中的表

二:查询数据库

三:创建表及查询

四:多字段数据表的创建

****************************************************************

CREATE TABLE  records(year String,tempaature INT,quality INT)

ROW FORMAT DELEMITED FIELDS BY TERMINATED BY '\t';


****************************************************************

五:加载数据到hive表t1中

如果是hdfs文件路径的话:load data inpath 'HDFS路径' into table tableName

六:删除表

七:从其他表导入数据:

INERT OVERWRITE TABLE T1 SELECT * FROM T2;

八:复制表结构不复制数据

CREATE TABLE T3 LIKE T2;

九:HIVE视图

CREATE VIEW V_HIVE AS SELECT A,B FROM HIVE_3 WHERE C>30;

hive分区

分区语法:

create table if not exists employees(

name string,

salary string,

subordinates array<string>,

deductions map<String,float>,

address struct<street:string,city:string,state:string,zip:int>

)

partitioned by (dtstring,typestring)

row format delimited fields terminated by'\t'

collection items terminated by','

mapkeys terminated by':'

lines terminated by'\n'

stored as textfile

分区表操作:

alter table employees add if not exists partion(country ='xxx'[,state='yyyy'])

Alter table employees drop if exists partition(country='xxx'[,state='yyyy’)

hive分桶

对于每一个表(table)或者分区,Hive可以进一步组织成桶,也就是说捅是更为细粒度的数据范困划分。

Hive是针对某一列进行分捅。

Hive采用对列值哈希,然后除以捅的个数求余的方式决定该条记录存放在哪个桶当中。

好处

获得更高的查询处理效率。

使取样(sampling)更高效

分桶语法

create table bucketed_user(id string,name string)clustered by(id) sorted by(name)into 4 buckets row format delimited fields terminated by'\t' stored as textfile;

设置

set hive.enforce.bucketing =true;

插入数据

insert overwrite table bucketed_user select addr ,name from testtable;

**********************补充:hive分区*******************

mysql分区:详细介绍引用(http://blog.51yip.com/mysql/1013.html

一、hive分区:

1、在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。

2、分区表指的是在创建表时指定的partition的分区空间。

3、如果需要创建有分区的表,需要在create表的时候调用可选参数partitioned by,详见表创建的语法结构。

二、技术细节

1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。

2、表和列名不区分大小写。

3、分区是以字段的形式在表结构中存在,通过describe table命令可以查看到字段存在,但是该字段不存放实际的数据内容,仅仅是分区的表示。

4、建表的语法(建分区可参见PARTITIONED BY参数):

CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path]

5、分区建表分为2种,一种是单分区,也就是说在表文件夹目录下只有一级文件夹目录。另外一种是多分区,表文件夹下出现多文件夹嵌套模式。

a、单分区建表语句:create table day_table (id int, content string) partitioned by (dt string);单分区表,按天分区,在表结构中存在id,content,dt三列。

b、双分区建表语句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);双分区表,按天和小时分区,在表结构中新增加了dt和hour两列。

表文件夹目录示意图(多分区表):

6、添加分区表语法(表已创建,在此基础上添加分区):

ALTER TABLE table_name ADD partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ... partition_spec: : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...)

用户可以用ALTER TABLE ADD PARTITION来向一个表中增加分区。当分区名是字符串时加引号。例:

ALTER TABLE day_table ADD PARTITION (dt='2008-08-08', hour='08') location '/path/pv1.txt' PARTITION (dt='2008-08-08', hour='09') location '/path/pv2.txt';

7、删除分区语法:

ALTER TABLE table_name DROP partition_spec, partition_spec,...

用户可以用ALTER TABLE DROP PARTITION来删除分区。分区的元数据和数据将被一并删除。例:

ALTER TABLE day_hour_table DROP PARTITION (dt='2008-08-08', hour='09');

8、数据加载进分区表中语法:

LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]

例:

LOAD DATA INPATH '/user/pv.txt' INTO TABLE day_hour_table PARTITION(dt='2008-08- 08', hour='08'); LOAD DATA local INPATH '/user/hua/*' INTO TABLE day_hour partition(dt='2010-07- 07');

当数据被加载至表中时,不会对数据进行任何转换。Load操作只是将数据复制至Hive表对应的位置。数据加载时在表下自动创建一个目录,文件存放在该分区下。

9、基于分区的查询的语句:

SELECT day_table.* FROM day_table WHERE day_table.dt>= '2008-08-08';

10、查看分区语句:

hive> show partitions day_hour_table; OK dt=2008-08-08/hour=08 dt=2008-08-08/hour=09 dt=2008-08-09/hour=09

11、hive两种分区:静态分区与动态分区的差别

在加载数据的时候,动态分区不需要指定分区KEY的值,会根据KEY对应列的值自动分区写入,如果改列值对应分区的目录未创建,会自动创建并写入。

例如:

三、总结

1、在Hive中,表中的一个Partition对应于表下的一个目录,所有的Partition的数据都存储在最字集的目录中。

2、总的说来partition就是辅助查询,缩小查询范围,加快数据的检索速度和对数据按照一定的规格和条件进行管理。


六:hive之API操作:

1.确保hive服务打开

2.java代码连接hiveserver

private static String riverName="org.apache.hadoop.hive.jdbc.HiveDriver";

public static void main(String[] args)throws Exception {

      try{

           Class.forName(driverName);

           }catch(ClassNotFoundException e) {

                    e.printStackTrace();

                    System.exit(1);

            }

Connection con = DriverManager.getConnection("jdbc:hive://localhost:10002/default","wyp","");

Statement stmt = con.createStatement();

String tableName ="wyphao";

stmt.execute("drop table if exists "+ tableName);

stmt.execute("create table "+ tableName +" (key int, value string)");

System.out.println("Create table success!");

// show tables

String sql ="show tables '"+ tableName +"'";

System.out.println("Running: "+ sql);

ResultSet res = stmt.executeQuery(sql);

if(res.next()) {

     System.out.println(res.getString(1));

}

// describe table

sql ="describe "+ tableName;

System.out.println("Running: "+ sql);

res = stmt.executeQuery(sql);

while(res.next()) {

      System.out.println(res.getString(1) +"\t"+ res.getString(2));

}

sql ="select * from "+ tableName;

res = stmt.executeQuery(sql);

while(res.next()) {

     System.out.println(String.valueOf(res.getInt(1)) +"\t"

                                + res.getString(2));

}

sql ="select count(1) from "+ tableName;

System.out.println("Running: "+ sql);

res = stmt.executeQuery(sql);

while(res.next()) {

            System.out.println(res.getString(1));

}

}

}

目录
相关文章
|
8天前
|
SQL HIVE
Hive【Hive学习大纲】【数据仓库+简介+工作原理】【自学阶段整理的xmind思维导图分享】【点击可放大看高清】
【4月更文挑战第6天】Hive【Hive学习大纲】【数据仓库+简介+工作原理】【自学阶段整理的xmind思维导图分享】【点击可放大看高清】
13 0
|
9天前
|
分布式计算 Hadoop 大数据
Hadoop【hadoop学习大纲完全总结01+02+03+04+05】【自学阶段整理的xmind思维导图分享】【点击可放大看高清】
【4月更文挑战第5天】Hadoop【hadoop学习大纲完全总结01+02+03+04+05】【自学阶段整理的xmind思维导图分享】【点击可放大看高清】
32 5
|
12天前
|
SQL 分布式计算 Hadoop
利用Hive与Hadoop构建大数据仓库:从零到一
【4月更文挑战第7天】本文介绍了如何使用Apache Hive与Hadoop构建大数据仓库。Hadoop的HDFS和YARN提供分布式存储和资源管理,而Hive作为基于Hadoop的数据仓库系统,通过HiveQL简化大数据查询。构建过程包括设置Hadoop集群、安装配置Hive、数据导入与管理、查询分析以及ETL与调度。大数据仓库的应用场景包括海量数据存储、离线分析、数据服务化和数据湖构建,为企业决策和创新提供支持。
49 1
|
3月前
|
SQL 数据采集 分布式计算
Hadoop和Hive中的数据倾斜问题及其解决方案
Hadoop和Hive中的数据倾斜问题及其解决方案
43 0
|
3月前
|
SQL 分布式计算 安全
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
HIVE启动错误:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeExcept
135 0
|
3月前
|
SQL 存储 分布式计算
Hadoop中的Hive是什么?请解释其作用和用途。
Hadoop中的Hive是什么?请解释其作用和用途。
37 0
|
4月前
|
SQL 分布式计算 Hadoop
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅
[AIGC ~大数据] 深入理解Hadoop、HDFS、Hive和Spark:Java大师的大数据研究之旅
|
4月前
|
存储 SQL 分布式计算
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
Hadoop(HDFS+MapReduce+Hive+数仓基础概念)学习笔记(自用)
258 0
|
11天前
|
存储 分布式计算 Hadoop
大数据处理架构Hadoop
【4月更文挑战第10天】Hadoop是开源的分布式计算框架,核心包括MapReduce和HDFS,用于海量数据的存储和计算。具备高可靠性、高扩展性、高效率和低成本优势,但存在低延迟访问、小文件存储和多用户写入等问题。运行模式有单机、伪分布式和分布式。NameNode管理文件系统,DataNode存储数据并处理请求。Hadoop为大数据处理提供高效可靠的解决方案。
32 2
|
11天前
|
分布式计算 Hadoop 大数据
大数据技术与Python:结合Spark和Hadoop进行分布式计算
【4月更文挑战第12天】本文介绍了大数据技术及其4V特性,阐述了Hadoop和Spark在大数据处理中的作用。Hadoop提供分布式文件系统和MapReduce,Spark则为内存计算提供快速处理能力。通过Python结合Spark和Hadoop,可在分布式环境中进行数据处理和分析。文章详细讲解了如何配置Python环境、安装Spark和Hadoop,以及使用Python编写和提交代码到集群进行计算。掌握这些技能有助于应对大数据挑战。

相关实验场景

更多