Hive是由 FaceBook 开发,基于Hadoop的一个数据仓库工具,提供一种类sql(hql)的查询方式,可以免去写mapreduce程序。将结构化的数据文件映射为一张表,用于解决海量结构化日志的数据统计。
-------------------------------------------------------------------
RanJar |
Hive 进程名 |
hdfs dfsadmin -safemode leave/status |
关闭安全模式/查看状态 |
启动hive之前需要启动hdfs!
- CLI (Command Line Interview)命令行访问:
启动命令:hive
启动之前需要先启动Hdfs和Yarn!
注:
若启动显示metastore异常,原因是配置Flink时,hive-site.xml增加hive.metastore配置有影响
输入hive --service metastore & 即可!
- JDBC 远程访问:
- 启动服务端:bin/hiveserver2
- 启动客户端:
- bin/beeline
Beeline version 1.2.1 by Apache Hive
beeline>
- 连接hiveserver2:
- !connect jdbc:hive2://hadoop102:10000(回车)
Connecting to jdbc:hive2://hadoop102:10000
Enter username for jdbc:hive2://hadoop102:10000: hadoop(回车)
Enter password for jdbc:hive2://hadoop102:10000: (直接回车)
Connected to: Apache Hive (version 1.2.1)
Driver: Hive JDBC (version 1.2.1)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://hadoop102:10000> show databases;
- MySql 端访问:
启动服务:service mysql start
查看mysql的初始密码:cat /root/.mysql_secret 得到初始密码,比如OEXaQuS8IWkG19Xs
登录mysql:mysql -uroot -pOEXaQuS8IWkG19Xs
修改密码:SET PASSWORD=PASSWORD('000000');
登录即可
- WebUI (浏览器访问)
- flink端访问:
先启动nohup hive --service metastore >> ~/metastore.log 2>&1 &
后启动nohup hive --service hiveserver2 >> ~/hiveserver2.log 2>&1 &
|
|
|
|
注:
需要在hive-site.xml中添加下面的依赖
<property>
<name>hive.metastore.uris</name>
<value>thrift://192.168.127.102:9083</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value>
</property>
退出hive窗口: hive(default)>exit; hive(default)>quit; 在新版的hive中没区别了,在以前的版本是有的: exit:先隐性提交数据,再退出; quit:不提交数据,退出; |
在hive cli命令窗口中查看hdfs文件系统: hive(default)>dfs -ls /; |
在hive cli命令窗口中查看本地文件系统: hive(default)>! ls /opt/module/datas; |
查看在hive中输入的所有历史命令: (1)进入到当前用户的根目录/root或/home/hadoop (2)查看. hivehistory文件 [hadoop@bigdata02 ~]$ cat .hivehistory |