09:Hbase 安装(集群模式 )

1: 集群规划:

    hadoop01 hmaster zk hregionserver
    hadoop02 hmaster_backup zk hregionserver
    hadoop03 hmaster_backup zk hregionserver

2:解压 tar -zxvf hbase-1.2.1-bin.tar.gz

3:  配置环境变量

   编辑vi /etc/profile

#Hbase
export HBASE_HOME=/usr/local/hbase-1.2.1
export PATH=$HBASE_HOME/bin:$PATH

   重启 source /etc/profile

 4:

       vi $HBASE_HOME/conf/regionservers 添加以下信息

hadoop01
hadoop02
hadoop03

       vi $HBASE_HOME/conf/backup-masters 注:这个文件是不存在的

hadoop02
hadoop03

         vi $HBASE_HOME/conf/hbase-site.xml

<property>
    <name>hbase.rootdir</name>
    <value>hdfs://lilili/hbase</value>    注:是自己hadoop的高可用地址
  </property>
  <property>
    <name>hbase.zookeeper.property.dataDir</name>   注:目录不需要手动创建
    <value>/usr/local/hbasedata/zookeeper</value>
  </property>
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop01:2181,hadoop02:2181,hadoop03:2181</value>
  </property>
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
</configuration>

        vi $HBASE_HOME/conf/hbase-env.sh

export HBASE_MANAGES_ZK=false

export set JAVA_HOME=/usr/local/java/jdk8

注意:

    hdfs高可用集群的用户:
    要把hdfs-site.xml 和 core-site.xml这两个文件copy到hbase的conf目录下
    分发:

cd /usr/local
 
scp -r hbase-1.2.1 [email protected]:$PWD
scp -r hbase-1.2.1 [email protected]:$PWD


    注意:时间同步
    
    启动集群:
    1、启动zk
    2、启动hdfs
    3、启动hbase
    $HBASE_HOME/bin/start-hbase.sh
    
    
    单机启动:
    ./hbase-daemon.sh start master
    ./hbase-daemon.sh start regionserver

09:Hbase 安装(集群模式 )