csv导入HBase

简介: csv文件导入HBase

csv导入HBase

0 前置

example.csv文件

echo '999999941017403,1471848231000,120.6817399807754,27.95172926917687,0,0' >example.csv

问题

    用hadoop jar /opt/apps/hbase-1.1.1/lib/hbase-server-1.1.1.jar importtsv -Dimporttsv.separator=, -Dimporttsv.columns="HBASE_ROW_KEY,cf1:f1,cf1:c2,cf2:c1" test /example.csv 命令从csv文件导数据到HBase中时,会将数字(long/double)当做字符串转化成字节数组存储到HBase,这样导致java程序读long/double会解析异常(Bytes.toDouble(cell.getValue()))。

    尝试了Phoenix,过程中也会出现一些问题,比如phoenix会自动写一个_0的列到HBase中,而且使用hadoop jar /opt/apps/phoenix-4.7.0-HBase-1.1-bin/phoenix-4.7.0-HBase-1.1-client.jar org.apache.phoenix.mapreduce.CsvBulkLoadTool时默认表名都是大写,目前还没找到解决方案

下面使用了Hive来导数据,经过测试是可行的。

1.创建Hive表

 CREATE TABLE example(key bigint, c1 bigint,c2 double,c3 double,c4 bigint,c5 bigint) STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key#b,cf1:c1#b,cf1:c2#b,cf1:c3#b,cf1:c4#b,cf1:c5#b")
TBLPROPERTIES ("hbase.table.name" = "example", "hbase.mapred.output.outputtable" = "example");

备注:
hbase.columns.mapping中的#b表示以binary形式写入HBase,对于非string类型的如int/long/double等类型字段需要使用#b

2.创建数据中转的Hive表

由于hive的load data指令不能针对上述创建的HBase映射Hive表(example),所以需要先load进一个临时表,然后从临时表insert进example表。

CREATE TABLE example_shadow(key bigint, c1 bigint,c2 double,c3 double,c4 bigint,c5 bigint) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' STORED as textfile

备注:

a) 字段和example保持一致
b) 分隔符根据csv文件来定

3.load data

    >load data local inpath '/pathtocsv' into table example_shadow;

4. insert to example

    >add jar /opt/apps/phoenix-4.7.0-HBase-1.1-bin/phoenix-4.7.0-HBase-1.1-server.jar;
    >insert overwrite table example select * from example_shadow;

5.验证数据

 >hbase shell
 > scan 'example'
 

_2016_08_27_5_01_16

通过java代码读HBase相关字段的数据,比如double类型的,使用Bytes.toDouble(cell.getValue()),打印看是否正常。

相关实践学习
云数据库HBase版使用教程
  相关的阿里云产品:云数据库 HBase 版 面向大数据领域的一站式NoSQL服务,100%兼容开源HBase并深度扩展,支持海量数据下的实时存储、高并发吞吐、轻SQL分析、全文检索、时序时空查询等能力,是风控、推荐、广告、物联网、车联网、Feeds流、数据大屏等场景首选数据库,是为淘宝、支付宝、菜鸟等众多阿里核心业务提供关键支撑的数据库。 了解产品详情: https://cn.aliyun.com/product/hbase   ------------------------------------------------------------------------- 阿里云数据库体验:数据库上云实战 开发者云会免费提供一台带自建MySQL的源数据库 ECS 实例和一台目标数据库 RDS实例。跟着指引,您可以一步步实现将ECS自建数据库迁移到目标数据库RDS。 点击下方链接,领取免费ECS&RDS资源,30分钟完成数据库上云实战!https://developer.aliyun.com/adc/scenario/51eefbd1894e42f6bb9acacadd3f9121?spm=a2c6h.13788135.J_3257954370.9.4ba85f24utseFl
目录
相关文章
|
8月前
|
资源调度 Java Linux
Hbase实践将所有info列簇下的name列导入到另一张表中
Hbase实践将所有info列簇下的name列导入到另一张表中
|
分布式计算 Hadoop 分布式数据库
通过Datax将CSV文件导入Hbase,导入之前的CSV文件大小和导入之后的Hadoop分布式文件大小对比引入的思考
由于项目需要做系统之间的离线数据同步,因为实时性要求不高,因此考虑采用了阿里的datax来进行同步。在同步之前,将数据导出未csv文件,因为需要估算将来的hbase运行的hadoop的分布式文件系统需要占用多少磁盘空间,因此想到了需要做几组测试。
2177 0
|
分布式计算 分布式数据库 Apache
|
分布式计算 分布式数据库 Hbase
hbase 学习(十二)非mapreduce生成Hfile,然后导入hbase当中
最近一个群友的boss让研究hbase,让hbase的入库速度达到5w+/s,这可愁死了,4台个人电脑组成的集群,多线程入库调了好久,速度也才1w左右,于是想到“非mapreduce生成Hfile,然后导入hbase当中”。
1797 0
|
Java Maven Android开发
Hbase源码编译导入eclipse
首先去Apache的官网下载hbase1.0.1的源码包 由于源码包是用maven管理,需要安装maven 1.安装MAVEN 下载安装包 解压文件,Maven需要JDK的支持,配置JAVA_HOME和Path环境变量, 命令行输入 mvn -version,如下图所示表示安装成功 2.配置本地仓库路径 打开...\apache-maven-3.3.3\conf目录下的settin
3367 0
|
SQL 分布式计算 Hadoop
Azure 云平台用 SQOOP 将 SQL server 2012 数据表导入 HIVE / HBASE
My name is Farooq and I am with HDinsight support team here at Microsoft. In this blog I will try to give some brief overview of Sqoop in HDinsight an...
1052 0
|
分布式计算 Java Hadoop
【原创】浅谈hbase表中数据导出导入(也就是备份)
最近因为生产环境hbase中某张表的数据要导出到测试环境(数据不多,大概200W条左右),如果用程序掉接口导入的话太慢,所以考虑直接用hbase的功能来导入导出。因为此次是实验,所以我在正式环境建了一张小表,只有两条数据,目的是将它导入到一张新表中(空表,但是表结构一样) hbas...
1267 0
|
4月前
|
Java Shell 分布式数据库
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
【大数据技术Hadoop+Spark】HBase数据模型、Shell操作、Java API示例程序讲解(附源码 超详细)
84 0
|
8月前
|
SQL 分布式计算 Hadoop
Hadoop集群hbase的安装
Hadoop集群hbase的安装
143 0