hadoop大数据平台手动搭建-hive
hive的安装。hive只是作为hadoop客户端,我安装在master节点上。
1. 安装元数据库。默认的数据库为Derby. 生产中我们通常用其他数据库。因Derby只支持同时一个用户访问Hive. 下面用mysql来存储元数据。
- yum install mysql
- yum install mysql-server
- yum install mysql-devel
查看mysql状态,启动停止
- service mysqld status|start|stop
创建数据库
create database hive;
认证hadoop用户(操作系统用户)可操作hive所有表。
grant all on hive.* to [email protected]'master' identified by '123456';
flush privileges;
2. 修改Hive配置文件
tar -zxvf /opt//opt/hive-1.1.0-cdh5.8.0.tar.gz
修改conf下hive-site.xml
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://master:3306/hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
</configuration>
/etc/profile中加入环境变量
export HIVE_HOME=/opt/hive-1.1.0-cdh5.8.0
export PATH=$PATH:$HIVE_HOME/bin
然后执行命令
source /etc/profile
3.启动mysql,hadoop
最好执行beeline(代替了hive命令,后续版本中)功能更强大。
hive查hive默认库中的表
beeline查元数据库中的表.连接之前必须启动./hiveserver2.sh
beeline查hive库中的表