22.glusterfs介绍及配置|使用glusterfs作为后端存储
DAS直接附加存储:old存储 NAS 网络区域存储: 1. nfs,ftp,samba 文件夹式的共享 2.分布式文件系统:glusterfs,ceph,mfs….. SAN存储区域网: fs-SAN IP-SAN: iscsi |
P.S.: RAID0 是条带化:分布式, RAID1是镜像化 |
glusterfs的结构:
如何部署:
环境: 使用node1和node2,各自再添加一块硬盘。
在node1和node2上配置挂载点/xx
格式化node1和node2的sdb1
node1 和node2配置fstab
node1和node2同时配置卷目录如下:
安装glusterfs软件包,并启动服务:
# systemctl start glusterd.service glusterfsd.service
配置两台node建立peer关系:
首先保证两台机器的无密码登录验证。例如:
建立node1和node2的peer关系:
创建peer在任何一台node上做都可以。
# gluster peer probe node2
# gluster peer status
创建卷volume:
# gluster peer probe node2
# gluster peer status
# gluster volume create cinder-disk node1:/xx/data node2:/xx/data-----volume卷名为cinder-disk
# gluster volume info
# gluster pool list
# systemctl is-active rpcbind
# systemctl start rpcbind
# gluster volume start cinder-disk
#glusterfs和nfs一样,是基于rpc,所以在glusterfs能正常工作之前,必须保证rpc是运行的
测试使用glusterfs能否挂载成功
先尝试用nfs的方式挂载:
# showmount -e 192.168.179.141
# showmount -e 192.168.179.142
# mount 192.168.179.141:/cinder-disk /xx/
创建文件测试:在osp3上创建100个文件,在cinder-disk volume中的node1和node2 被分布式的存储,如图:
由于这里是用glusterfs挂载,暂且不用这个nfs的方式挂载
需要新安装软件包mount.glusterfs:
###初次挂载可能失败,原因---增加hosts解析即可:
# mount.glusterfs 192.168.179.141:/cinder-disk /xx
###一旦删除文件,所有的node1和node2的卷目录下文件也被删除!!
下面配置glusterfs作为cinder后端存储:
修改cinder.conf文件
增加glusterfs.conf说明文件
重启服务: 重启服务之后,cinder-disk 自动挂载到OSP3上
测试glusterfs后端存储:
新建的volume存储在node2的/xx/data 下: