Linux 构建内置存储系统(实用技能)
一、fdisk操作
VMware Workstation 安装linux操作系统,添加新的硬盘,譬如sdb。
操作步骤:
1.添加一块50G的硬盘
2.fdisk /dev/sdb (p n p 1 w )
3.mkfx.ext4 /dev/sdb1 (格式化)
4.mount /dev/sdb1 /mnt (挂载)
5. df –h (查询,既可以进行使用)
理论支撑如下:
fdisk命令参数介绍
p 打印分区表
n 新建一个新分区
d 删除一个分区
q 退出不保存
w 把分区写进分区表,保存并退出
二、RAID配置
理论支撑
RAID0
RAID0数据分条(条带)盘,只需要2块以上的硬盘,成本低,可以提高整个磁盘的性能和吞吐量,但是没有容错功能,任何一个磁盘的损坏将损坏全部数据。
RAID1
RAID1磁盘镜像盘,数据有冗余,在存储时同时写入两块硬盘,实现了数据备份;但相对降低了写入性能,但是读取数据时可以并发,几乎类似于RAID0的读取效率。
RAID5
RAID5分布式奇偶校验的独立磁盘结构,需要三块或以上硬盘,可以提供热备盘实现故障的恢复;采用奇偶效验,可靠性强。如果有热备盘,系统还会自动在热备盘上重建故障磁盘上的数据。
RAID10
RAID1+0是先镜射再分区数据,再将所有硬盘分为两组,视为是RAID0的最低组合,然后将这两组各自视为RAID1运作。
(1)配置raid 0,并且配置完成后,删除raid 0
1.将上一步分区删除(d),然后重新分出4块硬盘,分别是10G
2.配置yum 源,安装mdadm组件
3. 使用mdadm -Cv /dev/md0 -l0 -n2 /dev/sdb2 /dev/sdb3 (使用分区盘2 3进行raid0的配置,配置的raid0的名称为md0)
4.使用cat /proc/mdstat 查询配置结果
5.删除配置的raid0,首先得先停止。mdadm --stop /dev/md0
6.删除配置raid0的sdb2、sdb3的分区盘。
mdadm --misc --zero-superblock /dev/sdb2
mdadm --misc --zero-superblock /dev/sdb3
(2)配置raid 1,并且配置完成后,删除raid 1
1. mdadm -Cv /dev/md1 –l1 -n2 /dev/sdb1 /dev/sdb2
2.yes
3.使用cat /proc/mdstat 会发现RAID1正在同步
4.
5.使用fdisk –l 查询
6.停止RAID1
mdadm --stop /dev/md1
7.删除配置raid1的分区盘
mdadm --misc --zero-superblock /dev/sdb1
mdadm --misc --zero-superblock /dev/sdb2
8.查询是否删除成功
(3)配置raid5,并且配置完成后,删除raid5
1. mdadm -Cv /dev/md5 -l5 -n3 /dev/sdb[1-3]
2.yes
3. cat /proc/mdstat (RAID5正在同步)
4. fdisk –l
5.使用mdadm -D /dev/md5 查询RAID5的配置详细信息
6.格式化RAID5
mkfs.ext4 /dev/md5
7.挂载使用
mount /dev/md5 /mnt/
8.查询
df –h
9.卸载
umount /mnt/
10.停止RAID5
mdadm --stop /dev/md5
11.删除相应的分区盘
mdadm --misc --zero-superblock /dev/sdb1
mdadm --misc --zero-superblock /dev/sdb2
mdadm --misc --zero-superblock /dev/sdb3
12.查询是否删除成功
cat /proc/mdstat
(4)配置raid10,并且配置完成后,删除raid10(注意RAID10需要至少4块分区盘)
1. mdadm -Cv /dev/md10 -l10 -n4 /dev/sdb[1,2,3,5]
2.yes
3. cat /proc/mdstat (分区盘正在同步)
4. fdisk –l
5. mdadm -D /dev/md10
6.格式化
mkfs.ext4 /dev/md10
7.挂载使用
mount /dev/md10 /mnt/
8.查询
df –h
9.卸载、停止、删除
umount /mnt/
mdadm --stop /dev/md10
cat /proc/mdstat
mdadm --misc --zero-superblock /dev/sdb[1,2,3,5]
(5)配置raid5,并且模拟常见的RAID5的故障,并进行处理
1.创建RAID5,并且附加一块热备份分区盘sdb5
mdadm -Cv /dev/md5 -l5 -n3 /dev/sdb[1,2,3] --spare-device=1 /dev/sdb5
2.yes
3. cat /proc/mdstat
4. fdisk –l
5. mdadm -D /dev/md5
6.模拟一块分区盘故障
mdadm -f /dev/md5 /dev/sdb1
7.查看md5的状态
cat /proc/mdstat
会发现RAID5正在重新组建RAID,因为sdb1已经属于坏盘了,并且配置RAID的时候添加了一块热备份盘。
8. mdadm -D /dev/md5
9.格式化
mkfs.ext4 /dev/md5
10.挂载使用
mount /dev/md5 /mnt/
11.查询
df –h
12.卸载、停止、删除
umount /mnt/
mdadm --stop /dev/md5
mdadm --misc --zero-superblock /dev/sdb[1,2,3,5]