09:Hbase 安装(集群模式 )
1: 集群规划:
hadoop01 hmaster zk hregionserver
hadoop02 hmaster_backup zk hregionserver
hadoop03 hmaster_backup zk hregionserver
2:解压 tar -zxvf hbase-1.2.1-bin.tar.gz
3: 配置环境变量
编辑vi /etc/profile
#Hbase
export HBASE_HOME=/usr/local/hbase-1.2.1
export PATH=$HBASE_HOME/bin:$PATH
重启 source /etc/profile
4:
vi $HBASE_HOME/conf/regionservers 添加以下信息
hadoop01
hadoop02
hadoop03
vi $HBASE_HOME/conf/backup-masters 注:这个文件是不存在的
hadoop02
hadoop03
vi $HBASE_HOME/conf/hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://lilili/hbase</value> 注:是自己hadoop的高可用地址
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name> 注:目录不需要手动创建
<value>/usr/local/hbasedata/zookeeper</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
vi $HBASE_HOME/conf/hbase-env.sh
export HBASE_MANAGES_ZK=false
export set JAVA_HOME=/usr/local/java/jdk8
注意:
hdfs高可用集群的用户:
要把hdfs-site.xml 和 core-site.xml这两个文件copy到hbase的conf目录下
分发:
cd /usr/local
scp -r hbase-1.2.1 [email protected]:$PWD
scp -r hbase-1.2.1 [email protected]:$PWD
注意:时间同步
启动集群:
1、启动zk
2、启动hdfs
3、启动hbase
$HBASE_HOME/bin/start-hbase.sh
单机启动:
./hbase-daemon.sh start master
./hbase-daemon.sh start regionserver