hive与hbase集成,hivehbase集成


详细步骤  、简介

Hive
是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
Hive
HBase的整合功能的实现是利用两者本身对外的API接口互相进行通信,相互通信主要是依靠hive_hbase-handler.jar工具类。

二、安装步骤:

1 .Hadoop
Hbase都已经成功安装了

Hadoop
集群配置:http://www.linuxboy.net/Linux/2012-02/53632.htm
Hbase
安装配置:http://www.linuxboy.net/Linux/2012-02/54225.htm

2 . 
拷贝hbase-0.90.3-cdh3u1.jarzookeeper-3.3.3-cdh3u1.jarhive/lib下。

注意:如何hive/lib下已经存在这两个文件的其他版本(例如zookeeper-3.3.2.jar),建议删除后使用hbase下的相关版本。

2. 
修改hive/confhive-site.xml文件,在底部添加如下内容:


<!-- 
<property>
<name>hive.exec.scratchdir</name>
<value>/tmp</value>
<description>Scratch space for Hive jobs</description>
</property>

<property>
<name>hive.querylog.location</name>
<value>/usr/local/hive/logs</value>
</property>

<property>
<name>hive.aux.jars.path</name>
<value>file:///usr/local/hive/lib/hive-hbase-handler-0.7.1-cdh3u1.jar,file:///usr/local/hive/lib/hbase-0.90.3-cdh3u1.jar,fi
le:///usr/local/hive/lib/zookeeper-3.3.1.jar</value>
</property>
注意:如果hive-site.xml不存在则自行创建,或者把hive-default.xml.template文件改名后使用。

3. 
拷贝hbase-0.90.3-cdh3u1.jar到所有hadoop节点(包括master)hadoop/lib下。

4. 
拷贝hbase/conf下的hbase-site.xml文件到所有hadoop节点(包括master)hadoop/conf下。

注意,如果3,4两步跳过的话,运行hive时很可能出现如下错误:


view plaincopy 
org.apache.hadoop.hbase.ZooKeeperConnectionException: HBase is able to connectto ZooKeeper but the connection closes immediately. 
This could be a sign that the server has too many connections (30 is thedefault). Consider inspecting your ZK server logs for that error and 
then make sure you are reusing HBaseConfiguration as often as you can. SeeHTable's javadoc for more information. at org.apache.hadoop. 
hbase.zookeeper.ZooKeeperWatcher. 

三、启动Hive

1.
单节点启动

#bin/hive -hiveconf hbase.dwn01=master:490001


集群启动:

#bin/hive -hiveconf hbase.zookeeper.quorum=dwn01,dwd01,dwd02,dwd03

如何hive-site.xml文件中没有配置hive.aux.jars.path,则可以按照如下方式启动。

bin/hive --auxpath /usr/local/hive/lib/hive-hbase-handler-0.8.0.jar,/usr/local/hive/lib/hbase-0.90.5.jar, /usr/local/hive/lib/zookeeper-3.3.2.jar-hiveconf hbase.zookeeper.quorum=dwn01,dwd01,dwd02,dwd03

四、测试:

1.
创建hbase识别的数据库:


CREATE TABLE hbase_table_1(key int, value string) 
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 
WITH SERDEPROPERTIES ("hbase.columns.mapping" =":key,cf1:val") 
TBLPROPERTIES ("hbase.table.name" = "xyz"); 
hbase.table.name 
定义在hbasetable名称

hbase.columns.mapping 
定义在hbase的列族 
2.
使用sql导入数据

1) 
新建hive的数据表:

CREATE TABLE hb_test (id INT, url STRING);
2)
批量插入数据:

hive> LOAD DATA LOCAL INPATH '/tmp/id.txt' OVERWRITE INTO TABLE hb_test

3)
使用sql导入hbase_table_1:

hive> INSERT OVERWRITE TABLE hbase_table_1 SELECT * FROM hb_test;

3. 
查看数据

hive> select * from hbase_table_1; 

这时可以登录Hbase去查看数据了
#bin/hbase shell
hbase(main):001:0> describe 'xyz' 
hbase(main):002:0> scan 'xyz' 
hbase(main):003:0> put 'xyz','100','cf1:val','www.51.com'

这时在Hive中可以看到刚才在Hbase中插入的数据了。

4 hive
访问已经存在的hbase

使用CREATEEXTERNAL TABLE:


CREATE EXTERNAL TABLE hbase_table_2(key int, value string) 
STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' 
WITH SERDEPROPERTIES ("hbase.columns.mapping"
 ="cf1:val") 

TBLPROPERTIES("hbase.table.name" = "some_existing_table"); 

 更多分享请扫一扫


相关内容