余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

检查集群是否正常

1、在app-11上,以hadoop用户登录。
命令:su – hadoop
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

2、进入/hadoop/目录下。
命令:cd /hadoop/
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

3、检查集群是否正常。
命令:jps
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

操作

1、在app-12上,以hadoop用户登录。
命令:su – hadoop
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

2、查看Hive支持哪些命令。
命令:hive --help
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

3、查看环境变量里的hadoop配置。
命令:echo $HADOOP_HOME
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

4、启动客户端。
命令:hive 注:功能比较弱。不支持删除、自动补传等功能。
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

5、按Ctrl+c,退出。
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

6、不启用hive查询databases。
命令:hive -e “show databases”
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

7、使用静默参数,将结果输入文件中。
命令:hive -S -e “show databases” > /tmp/hai.txt
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

8、查看输出文件结果。
命令:cat /tmp/hai.txt
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

9、进入hive。
命令:hive --service cli
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

10、查看databases。
命令:show databases;
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

11、查看hdfs目录。
命令:dfs -ls / ;
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

12、退出。
命令:quit;
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

模拟hive启动失败

1、先删除HADOOP_HOME。
命令:unset HADOOP_HOME
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

2、查看环境变量。
命令:echo $HADOOP_HOME 注:因为删除了,所有空了。
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

3、删除Hadoop环境变量。
命令:export PATH=/hadoop/Hive/apache-hive-3.1.1-bin/bin:/hadoop/JDK/jdk1.8.0_131/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/hadoop/.local/bin:/home/hadoop/bin
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作

4、启动hive客户端。
命令:hive --service cli 注:启动失败。
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作
详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰
余老师带你学习大数据-Spark快速大数据处理第五章第三节Hive基本操作