我有一个带有13x1TB驱动器的mdadm raid6阵列.在10分钟内,其中3个驱动器从阵列中掉出来…我们假设连接到控制器卡的电缆不良并更换,但现在我们需要将驱动器重新安装到工作阵列中.
因为md0被标记为失败,我们删除了mdadm数组并使用原始的13个驱动器创建了一个新的md0. 1在重建期间再次失败,因此我们现在有一个降级的md0.问题是lvm没有看到mdadm中存在的数组.我们可以做些什么来取回我们的数据?
$pvscan
PV /dev/sda5 VG nasBox lvm2 [29.57 GiB / 0 free] Total: 1 [29.57 GiB] / in use: 1 [29.57 GiB] / in no VG: 0 [0 ]
$cat / proc / mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid6 sdc1[1] sdg1[5] sdb1[0] sdf1[4] sde1[3] sdd1[2] sdi1[7] sdl1[10] dm1[11] sdh1[6] sdj1[8] sdn1[12] 10744336064 blocks super 1.2 level 6,64k chunk,algorithm 2 [13/12] [UUUUUUUUU_UUU] unused devices: <none>
我认为我们需要做的是让lvm检测mdadm数组以便我们可以挂载它,但如果我在LVM中创建一个新的卷组,它将擦除数组中的所有数据.
简而言之,我们如何从md0获取数据……
更新:我们的一个系统管理员能够恢复LVM配置备份,因此它现在显示在LVM中,但是我们仍然无法安装驱动器来查看数据.也许坏分区表?
$pvscan
PV /dev/sda5 VG nasBox lvm2 [29.57 GiB / 0 free] PV /dev/md0 VG zeus lvm2 [10.01 TiB / 4.28 TiB free] Total: 2 [10.04 TiB] / in use: 2 [10.04 TiB] / in no VG: 0 [0 ]
$mount / dev / md0
mount: /dev/mapper/zeus-data already mounted or /mnt/zeus busy
信息来自本文,看看它是否有任何帮助:
http://www.linuxjournal.com/article/8874
pvscan显示存在LVM物理卷,但LVM卷组不一定是活动的.看到vgdisplay的输出,应该是这样的
--- Volume group --- VG Name zeus System ID Format lvm2 [...]
如果未显示zeus卷组,则可能需要使用vgchange zeus -a y使其可用.然后,检查lvdisplay的输出.这应输出系统中的每个逻辑卷:
--- Logical volume --- LV Name /dev/zeus/volume_name VG Name zeus LV Status available [etc...]
您应该能够使用mount / dev / zeus / volume_name / mnt / target挂载所需的卷.