HA红帽6自带高可用集群
######高可用集群#####
server1和server4上配置红帽的HA套件vim /etc/yum.repos/rhel-source.repo
passwd ricci
/etc/init.d/ricci start
chkconfig ricci on
yum install luci -y ##只在管理端server1上安装
/etc/init.d/luci start
chkconfig luci on
网页上如下配置:
用本机用户,及系统密码进行登陆
创建新节点:
所有节点的以下服务均为以下状态:
检测物理机上有以下安装包
fence-virtd-multicast-0.3.2-2.el7.x86_64
libxshmfence-1.2-1.el7.x86_64
fence-virtd-libvirt-0.3.2-2.el7.x86_64
fence-virtd-0.3.2-2.el7.x86_64
####物理机进行配置fence
fence_virtd -c ##进行基础配置
mkdir /etc/cluster ##创建文件
dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1 ##生成随机
systemctl start fence_virtd.service
scp /etc/cluster/fence_xvm.key [email protected]:/etc/cluster/
scp /etc/cluster/fence_xvm.key [email protected]:/etc/cluster/
###在集群上配置同步ip和http服务
配置fence
结果如下:
资源配置:
配置ip和http:
在service Groups中添加该资源
###测试:
[[email protected] cluster]# fence_node server4
fence server4 success
[[email protected] ~]# echo c > /proc/sysrq-trigger ##内核崩溃,跳电重启
##共享文件系统准备工作
server2yum install scsi-target-utils -y
fdisk /dev/vdb ##创建lvm分区
[[email protected] ~]# vim /etc/tgt/targets.conf
Starting SCSI target daemon: [ OK ]
[[email protected] ~]# tgt-admin -s ##查看配置结果
server1和server4均做以下操作
[[email protected] ~]# yum install -y iscsi-*
[[email protected] ~]# iscsiadm -m discovery -t st -p 172.25.33.2 ##登陆文件系统
Starting iscsid: [ OK ]
172.25.33.2:3260,1 iqn.2017-07.com.example:server.target1
[[email protected] ~]# iscsiadm -m node -l ##节点连接
Logging in to [iface: default, target: iqn.2017-07.com.example:server.target1, portal: 172.25.33.2,3260] (multiple)
Login to [iface: default, target: iqn.2017-07.com.example:server.target1, portal: 172.25.33.2,3260] successful.
##共享ext4本地文件系统
server1或server4任意做以下操作,因为HA实现同步,如果不同步则不能成功:fdisk -cu /dev/sda ##创建lvm分区
[[email protected] ~]# pvcreate /dev/sda1
Physical volume "/dev/sda1" successfully created
[[email protected] ~]# vgcreate clustervg /dev/sda1
Clustered volume group "clustervg" successfully created
[[email protected] ~]# lvcreate -L +2G -n demo clustervg ##创建lv
Logical volume "demo" created
[[email protected] ~]# mkfs.ext4 /dev/clustervg/demo ##创建文件系统
[[email protected] ~]# mount /dev/clustervg/demo /var/www/html ##挂载文件系统
[[email protected] ~]# resize2fs /dev/clustervg/demo ##文件系统的扩展
在集群上进行添加操作:
在service Groups中添加该资源
测试结果:
###共享gfs2网络文件系统
先删除ext4文件系统,及高可用上的配置mkfs.gfs2 -j 3 -p lock_dlm -t westos_jiqun:mygfs2 /dev/clustervg/demo
vim /etc/fstab ##创建开机启动,server1和server4均做
mount -a
lvextend -L +4G /dev/clustervg/demo ##lv扩展
gfs2_grow /dev/clustervg/demo ##文件系统扩展
gfs2_tool sb /dev/clustervg/demo all ##显示文件系统的信息
开机自动挂载
vim /etc/fstab