阅读(1101) (6)

7.1.2 损坏磁盘阵列及修复

2019-04-22 22:46:25 更新

之所以在生产环境中部署RAID 10磁盘阵列,是为了提高硬盘存储设备的读写速度及数据的安全性,但由于我们的硬盘设备是在虚拟机中模拟出来的,因此对读写速度的改善可能并不直观,因此刘遄老师决定给各位读者讲解一下RAID磁盘阵列损坏后的处理方法,这样大家在步入运维岗位后遇到类似问题时,也可以轻松解决。

在确认有一块物理硬盘设备出现损坏而不能继续正常使用后,应该使用mdadm命令将其移除,然后查看RAID磁盘阵列的状态,可以发现状态已经改变。

咱们在生产环境中部署RAID10磁盘阵列组目的就是为了提高存储设备的IO读写速度及数据的安全性,但因为这次是在本机电脑上模拟出来的硬盘设备所以对于读写速度的改善可能并不直观,因此刘遄老师决定给同学们讲解下RAID磁盘阵列组损坏后的处理方法,这样以后步入了运维岗位后不会因为突发事件而手忙脚乱。首先确认有一块物理硬盘设备出现损坏不能再继续正常使用后,应该使用mdadm命令来予以移除之后查看下RAID磁盘阵列组的状态已经被改变:

    [root@linuxprobe ~]# mdadm /dev/md0 -f /dev/sdb
    mdadm: set /dev/sdb faulty in /dev/md0
    [root@linuxprobe ~]# mdadm -D /dev/md0
    /dev/md0:
    Version : 1.2
    Creation Time : Fri May 8 08:11:00 2017
    Raid Level : raid10
    Array Size : 41909248 (39.97 GiB 42.92 GB)
    Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
    Raid Devices : 4
    Total Devices : 4
    Persistence : Superblock is persistent
    Update Time : Fri May 8 08:27:18 2017
    State : clean, degraded
    Active Devices : 3
    Working Devices : 3
    Failed Devices : 1
    Spare Devices : 0
    Layout : near=2
    Chunk Size : 512K
    Name : linuxprobe.com:0 (local to host linuxprobe.com)
    UUID : f2993bbd:99c1eb63:bd61d4d4:3f06c3b0
    Events : 21
    Number Major Minor RaidDevice State
    0 0 0 0 removed
    1 8 32 1 active sync /dev/sdc
    2 8 48 2 active sync /dev/sdd
    3 8 64 3 active sync /dev/sde
    0 8 16 - faulty /dev/sdb

在RAID 10级别的磁盘阵列中,当RAID 1磁盘阵列中存在一个故障盘时并不影响RAID 10磁盘阵列的使用。当购买了新的硬盘设备后再使用mdadm命令来予以替换即可,在此期间我们可以在/RAID目录中正常地创建或删除文件。由于我们是在虚拟机中模拟硬盘,所以先重启系统,然后再把新的硬盘添加到RAID磁盘阵列中。

    [root@linuxprobe ~]# umount /RAID
    [root@linuxprobe ~]# mdadm /dev/md0 -a /dev/sdb
    [root@linuxprobe ~]# mdadm -D /dev/md0
    /dev/md0:
     Version : 1.2
     Creation Time : Mon Jan 30 00:08:56 2017
     Raid Level : raid10
     Array Size : 41909248 (39.97 GiB 42.92 GB)
     Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
     Raid Devices : 4
     Total Devices : 4
     Persistence : Superblock is persistent
     Update Time : Mon Jan 30 00:19:53 2017
     State : clean 
     Active Devices : 4
    Working Devices : 4
     Failed Devices : 0
     Spare Devices : 0
     Layout : near=2
     Chunk Size : 512K
     Name : localhost.localdomain:0 (local to host localhost.localdomain)
     UUID : d3491c05:cfc81ca0:32489f04:716a2cf0
     Events : 56
     Number Major Minor RaidDevice State
     4 8 16 0 active sync /dev/sdb
     1 8 32 1 active sync /dev/sdc
     2 8 48 2 active sync /dev/sdd
     3 8 64 3 active sync /dev/sde
    [root@linuxprobe ~]# mount -a