linux zookeeper 安装与启动(集群版)
zookeeper 单机版已经写过博客,请看zookeeper 安装与启动(单机版)
在单机版的基础上修改成集群版
1.进入/opt/zookeeper-3.4.13/conf/,修改zoo.cfg配置文件
cd /opt/zookeeper-3.4.13/conf/
vim zoo.cfg server.1,2,3分别对应节点1,2,3
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/zookeeper-3.4.13/data
dataLogDir=/opt/zookeeper-3.4.13/logs
server.1=zookeeper:2888:38888
server.2=zookeeper:2889:38889
server.3=zookeeper:2890:38890
clientPort=2181
2.然后复制 zoo.cfg zoo-slave1.cfg zoo-slave2.cfg zoo-slave3.cfg,并且修改配置文件
分别修改dataDir和dataLogDir路径,和clientPort的端口号
zoo-slave1.cfg :
zoo-slave2.cfg :
zoo-slave3.cfg :
这里需要配置文件,来区分是哪个实例,文件名字必须是myid
echo "1" > /opt/zookeeper-3.4.13/data/slave1/myid
echo "2" > /opt/zookeeper-3.4.13/data/slave2/myid
echo "3" > /opt/zookeeper-3.4.13/data/slave3/myid
配置文件完成后,启动
/opt/zookeeper-3.4.13/bin/zkServer.sh start zoo-slave1.cfg
/opt/zookeeper-3.4.13/bin/zkServer.sh start zoo-slave2.cfg
/opt/zookeeper-3.4.13/bin/zkServer.sh start zoo-slave3.cfg
3.查看启动状态
启动完后,我们可以根据命令来得知选举的是哪个leader
sh /opt/zookeeper-3.4.13/bin/zkServer.sh status zoo-slave1.cfg
sh /opt/zookeeper-3.4.13/bin/zkServer.sh status zoo-slave2.cfg
sh /opt/zookeeper-3.4.13/bin/zkServer.sh status zoo-slave3.cfg
slave2为leader
4.现在我们可以做个测试
假装leader宕机了,然后看下是否有选举出leader
现在停止slave2
/opt/zookeeper-3.4.13/bin/zkServer.sh stop zoo-slave2.cfg
然后查看剩余2个
现在发现slave3变成了leader了
-- zookeeper搭建成功
以上就是zookeeper搭建集群的过程