Hadoop2.6.x安装hive1.2.1

简介: hive安装配置
1、配置hive-site.xml

<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8</value>
<description>JDBC connection string for a JDBC metastore</description>
</property>

<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>

<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username for metastore database</description>
</property>

<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description></description>
</property>

<property>
<name>hive.metastore.warehouse.dir</name>
<value>/app/data/hive/warehouse</value>
<description></description>
</property>

#如果不配置下面的部分会产生错误1.
<property>
<name>hive.exec.local.scratchdir</name>
<value>/app/data/hive/iotmp</value>
<description>Local scratch space for Hive jobs</description>
</property>
<property>
<name>hive.downloaded.resources.dir</name>
<value>/app/data/hive/iotmp</value>
<description>Temporary local directory for added resources in the remote file system.</description>
</property>
<property>
<name>hive.querylog.location</name>
<value>/app/data/hive/iotmp/log</value>
<description>Location of Hive run time structured log file</description>
</property>
<property>
<name>hive.server2.logging.operation.log.location</name>
<value>/app/data/hive/iotmp/operation_logs</value>
<description>Top level directory where operation logs are stored if logging functionality is enabled</description>
</property>


2、配置hive-env.sh
export HIVE_HOME=/app/bigdata/hive/apache-hive-1.2.1-bin
export HIVE_CONF_DIR=/app/bigdata/hive/apache-hive-1.2.1-bin/conf

3、配置 hive-config.sh
export JAVA_HOME=/app/bigdata/java/jdk1.7.0_79
export HADOOP_HOME=/app/bigdata/hadoop/hadoop-2.6.4
export SPARK_HOME=/app/bigdata/spark/spark-1.6.2-bin-hadoop2.6

4、配置log
vim hive-log4j.properties
hive.log.dir=/app/bigdata/hive/hive/log/

5、mysql给hive表授权
grant select,insert,update,delete,create,drop on vtdc.employee to joe@10.163.225.87 identified by ‘123′;
给来自10.163.225.87的用户joe分配可对数据库vtdc的employee表进行select,insert,update,delete,create,drop等操作的权限,并设定口令为123。
grant all on hive.* to root@'master' identified by 'root';
flush privileges;

6、启动hadoop服务:http://192.168.1.10:50070/
sh sbin/start-dfs.sh
sbin/start-yarn.sh

7、启动Hive

8、Hive数据库CRUD操作集合
    Create DataBase:create database testdb;
    Show DataBase: show databases;
    show tables: show tables; user table;
    Create Table:create table sudent(int id);
    
9、Hive数据导入导出
    1、第一种加载数据到student中
        注意:使用load加载数据到数据库中是不使用mapreduce的,而桶类型的表用insert要用到mapreduce
        Import Data: load data local inpath '/app/bigdata/hive/apache-hive-1.2.1-bin/student' into table student;
        使用select * 不加条件时,不执行MapReduce,执行比较快;最后一行显示的是null,原因是文件中有一行空格;
    2、第二种加载数据到student中的方法
        在/usr/local/hive/目录下创建student_1文件,并写入一列数字;
        执行命令hadoop fs -put student /app/data/hive/warehouse/testdb.db/student
        或者 hdfs dfs -put  student /app/data/hive/warehouse/testdb.db/student

10、批量kill linux qemu 进程
ps aux|grep hadoop|grep -v grep|awk '{print $2}'|xargs kill -9
tksky
+关注
目录
打赏
0
0
0
0
1
分享
相关文章
基于云服务器的数仓搭建-hive/spark安装
本文介绍了在本地安装和配置MySQL、Hive及Spark的过程。主要内容包括: - **MySQL本地安装**:详细描述了内存占用情况及安装步骤,涉及安装脚本的编写与执行,以及连接MySQL的方法。 - **Hive安装**:涵盖了从上传压缩包到配置环境变量的全过程,并解释了如何将Hive元数据存储配置到MySQL中。 - **Hive与Spark集成**:说明了如何安装Spark并将其与Hive集成,确保Hive任务由Spark执行,同时解决了依赖冲突问题。 - **常见问题及解决方法**:列举了安装过程中可能遇到的问题及其解决方案,如内存配置不足、节点间通信问题等。
195 1
基于云服务器的数仓搭建-hive/spark安装
Hadoop-13-Hive 启动Hive 修改启动参数命令行启动测试 几句简单的HQL了解Hive
Hadoop-13-Hive 启动Hive 修改启动参数命令行启动测试 几句简单的HQL了解Hive
128 2
手把手的教你搭建hadoop、hive
手把手的教你搭建hadoop、hive
383 1
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
Hadoop-21 Sqoop 数据迁移工具 简介与环境配置 云服务器 ETL工具 MySQL与Hive数据互相迁移 导入导出
181 3
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
173 3
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
Hadoop-19 Flume Agent批量采集数据到HDFS集群 监听Hive的日志 操作则把记录写入到HDFS 方便后续分析
95 2
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
Hadoop-24 Sqoop迁移 MySQL到Hive 与 Hive到MySQL SQL生成数据 HDFS集群 Sqoop import jdbc ETL MapReduce
196 0
在Ubuntu 16.04上如何在独立模式下安装Hadoop
在Ubuntu 16.04上如何在独立模式下安装Hadoop
81 1
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
Hadoop-12-Hive 基本介绍 下载安装配置 MariaDB安装 3台云服务Hadoop集群 架构图 对比SQL HQL
113 2

相关实验场景

更多
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等