CentOS7下Hbase1.2.4集群搭建
CentOS下Hbase完全分布式安装
1. 在做这之前,也是需要修改hosts文件、主机名、系统时间,配置ssh免密登陆,并且安装配置好JDK和hadoop环境
2.其他步骤参考Hbase单机版安装,以下总结的是与单机版不同的地方
3.输入 mkdir /usr/local/hbase/logs 在hbase目录下新建一个log文件夹,用于存放日志文件
4.进入/usr/local/hbase/hbase-1.2.4/conf目录下vi hbase-env.sh,修改hbase-env.sh配置文件,在文件最后加入以下内容
export JAVA_HOME=/usr/local/java/jdk1.8.0_102/
export HBASE_LOG_DIR=/usr/local/hbase/logs/
#如果使用HBase自带的Zookeeper值设成true 如果使用自己安装的Zookeeper需要将该值设为false
export HBASE_MANAGES_ZK=true
5.修改hbase-site.xml配置文件,在configuration标签中添加以下内容
<property> <!--指定master位置--> <name>hbase.master</name> <value>master:60000</value> </property> <property> <!-- hbase在hdfs里的目录--> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> <property> <!--指定是否是完全分布式--> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <!--指定zooke的集群,多台机器以逗号分隔 --> <name>hbase.zookeeper.quorum</name> <value>master,node1,node2</value> </property> <property> <!--副本个数 --> <name>dfs.replication</name> <value>1</value> </property> |
6.修改regionservers配置文件,将localhost修改为子节点主机名
7.再修改hadoop的hdfs-site.xml配置文件,加入以下内容(所有datanode节点也要修改),该参数限制了datanode所允许同时执行的发送和接受任务的数量,缺省为256,不修改的话无法进行高负载
<property> <name>dfs.datanode.max.xcievers</name> <value>4096</value> <description>datanode所允许同时执行的发送和接受任务的数量 </description> </property> |
8.输入 scp -r /usr/local/hbase/ [email protected]:/usr/local/ 将hbase文件夹有节点
9.启动和停止:
(1)启动顺序:先启动Hadoop-》hbase,如果使用自己安装的zookeeper启动顺序是:Hadoop-》zookeeper-》hbase
(2)停止顺序:hbase->zookeeper->hadoop
10.启动hadoop后,在master节点任意位置输入start-hbase.sh 启动hbase
11.master节点和node节点的进程分别如下:
12.任意位置输入hbase shell 开始shell操作
13.按照关闭顺序,输入stop-hbase.sh 然后再关闭hadoop