linux – mdadm raid5恢复双磁盘故障 – 扭曲(驱动顺序)

前端之家收集整理的这篇文章主要介绍了linux – mdadm raid5恢复双磁盘故障 – 扭曲(驱动顺序)前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
首先我要承认我犯了错误,并且我对这个RAID上的大多数但不是所有数据都有备份.我仍然有希望恢复其余的数据.我没有那么多钱将驱动器带到恢复专家公司.

错误#0,没有100%备份.我知道.

我有一个4x3TB的mdadm RAID5系统.驱动/ dev / sd [b-e],都有一个分区/ dev / sd [b-e] 1.我知道非常大的驱动器上的RAID5存在风险,但无论如何我都是这样做的.

最近发生的事件

两个驱动器发生故障后,RAID会降级.一个驱动器[/ dev / sdc]真的消失了,另一个[/ dev / sde]在电源循环后重新启动,但没有自动重新添加到RAID.所以我留下了4个设备RAID,只有2个活动驱动器[/ dev / sdb和/ dev / sdd].

错误#1,不使用驱动器的dd副本来恢复RAID.我没有驱动器或时间.
错误#2,没有备份剩余驱动器的超级块和mdadm -E.

恢复尝试

我用降级模式重新组装了RAID

mdadm --assemble --force /dev/md0,using /dev/sd[bde]1.

然后我可以访问我的数据.我用备用替换了/ dev / sdc;空;相同的驱动器

我从RAID中删除了旧的/ dev / sdc1

mdadm --fail /dev/md0 /dev/sdc1

错误#3,在更换驱动器之前没有这样做

然后我将新的/ dev / sdc分区并添加到RAID中.

mdadm --add /dev/md0 /dev/sdc1

然后它开始恢复RAID. ETA 300分钟.我通过/ proc / mdstat跟踪过程到2%,然后去做其他的事情.

检查结果

几个小时(但不到300分钟)之后,我检查了这个过程.由于/ dev / sde1上的读取错误,它已停止.

这是故障真正开始的地方

然后我从RAID中删除/ dev / sde1并重新添加它.我不记得我为什么这样做了;太晚了.

mdadm --manage /dev/md0 --remove /dev/sde1
mdadm --manage /dev/md0 --add /dev/sde1

但是,/ dev / sde1现在标记为备用.所以我决定使用–assume-clean使用我认为正确的顺序重新创建整个数组,并且缺少/ dev / sdc1.

mdadm --create /dev/md0 --assume-clean -l5 -n4 /dev/sdb1 missing /dev/sdd1 /dev/sde1

这有效,但尝试安装时无法识别文件系统. (应该是EXT4).

设备订单

然后我检查了最近的/ proc / mdstat备份,我找到了驱动器顺序.

md0 : active raid5 sdb1[0] sde1[4] sdd1[2] sdc1[1]
      8790402048 blocks super 1.2 level 5,512k chunk,algorithm 2 [4/4] [UUUU]

然后我记得这个RAID在大约一年前遭受了驱动器丢失,并通过用备用驱动器替换故障驱动器从中恢复.这可能会使设备顺序混乱……所以没有驱动器[3]而只有[0],[1],[2]和[4].

我试图使用Permute_array脚本找到驱动器顺序:https://raid.wiki.kernel.org/index.php/Permute_array.pl但是找不到正确的顺序.

问题

我现在有两个主要问题:

>我搞砸了驱动器上的所有超级块,但只给出了:

mdadm --create --assume-clean

命令(所以我不应该在/ dev / sd [bde]上覆盖数据本身.我是否正确理论上可以恢复RAID [假设片刻/ dev / sde1没问题]如果我找到了正确的设备订单?
> / dev / sde1在RAID中被赋予设备号[4]是否重要?当我用它创建它

mdadm --create /dev/md0 --assume-clean -l5 -n4 \
  /dev/sdb1 missing /dev/sdd1 /dev/sde1

它被分配了数字[3].我想知道这是否与奇偶校验块的计算有关.如果事实证明这很重要,我怎么能用/ dev / sdb1 [0]缺少[1] / dev / sdd1 [2] / dev / sde1 [4]来重新创建数组?如果我可以让它工作,我可以在降级模式下启动它并添加新驱动器/ dev / sdc1并让它再次重新同步.

如果你想向我指出这可能不是最好的行动方案,那你就可以了,但你会发现我意识到了这一点.如果有人有任何建议,那就太棒了.

解决方法

要回答你的问题,

>可以恢复吗?

>第一件事是第一件事 – 停下来,坐下来思考一下.是的,算法,块大小和磁盘顺序对于获取存在的任何文件系统至关重要,以便正确地重新组装.但是既然你已经覆盖了超级块,那么你现在就会经历反复试验.
>其次,有什么办法可以检索以前的磁盘布局吗?我总是做一个mdadm –detail> backupfile只是为了保证磁盘布局安全.检查dmesg,/ var / log以获取有关如何在raid中配置磁盘的任何证据.
>最后,如果你匹配上一个块大小和磁盘顺序,你可能已经损坏了ext4超级块 – 有方法可以快速扫描其他超级块(并且有一个名为TestDisk的漂亮程序可以扫描现有文件系统的超级块并尝试浏览他们手动:http://www.cgsecurity.org/wiki/Main_Page)

>由于sdc是新的,我会继续尝试通过missing子句手动组装,是的,sde必须按照正确的顺序才能以降级模式组装.找到正确的布局后 – 从阵列中复制所有数据并重新开始,记录布局(这样您就不会再次遇到此问题).

祝好运

猜你在找的Linux相关文章