本篇文章主要介绍了"在Liunx上安装Hive",主要涉及到方面的内容,对于企业开发感兴趣的同学可以参考一下:
在Liunx上安装Hive以及如何与Hadoop集成和将Hive的元数据存储到MySQL里,今天散仙就来看下,如何在Eclipse里通过JDBC的方式操作Hiv...
在Liunx上安装Hive以及如何与Hadoop集成和将Hive的元数据存储到MySQL里,今天散仙就来看下,如何在Eclipse里通过JDBC的方式操作Hive.
我们都知道Hive是一个类SQL的框架,支持HSQL语法操作Hive,而Hive内部,会转成一个个MapReduce作业来完成具体的数据统计,虽然我们可以直接在Hive的shell里,向Hive发起命令,但这样做受限制比较多,如果我们能把它的操作结合在编程里,这样以来我们的Hive就会变得非常灵活了。
Hive是支持JDBC操作的,所以我们就可以像操作MySQL一样,在JAVA代码里,操作Hive,进行数据统计。
下面详细看下,操作步骤:
软件环境
序号 | 说明 | 系统 | 1 | centos6.5安装hadoop2.2.0 | linux | 2 | centos6.5安装Hive0.13 | linux | 3 | Eclipse4.2 | Windows7 |
序号 | 步骤 | 说明 | 1 | hadoop2.2.0安装,启动 | Hive依赖Hadoop环境 | 2 | hive安装 | 类SQL方式操作MapReduce | 3 | 启动hiveserver2 | 远程操作Hive的服务端程序 | 4 | 在win上新建一个java项目,并导入Hive所需jar包 | 远程操作必需步骤 | 5 | 在eclipse里编码,测试 | 测试连接hive是否成功 | 6 | 在hiveserver2端查看 | 检查是否对接成功和任务打印日志 | 7 | 在hadoop的8088端口上查看MR执行任务 | 查看MR执行调度 |
一些HIVE操作语句:
导入数据到一个表中:
LOAD DATA LOCAL INPATH '/home/search/abc1.txt' OVERWRITE INTO TABLE info;
show tables;//显示当前的所有的表
desc talbeName;查看当前表的字段结构
show databases;//查看所有的已有的数据库
建表语句
create table mytt (name string ,count int) row format delimited fields terminated by '#' stored as textfile ;
jar包,截图
Hive依赖Hadoop,因此客户端最好把hadoop的jar包夜引入项目中,下面是调用源码,运行前,确定你在服务端的hiversver2已经开启。
Java代码 

