linux – md-device上的缓冲区I / O错误 – 无法识别故障驱动器

前端之家收集整理的这篇文章主要介绍了linux – md-device上的缓冲区I / O错误 – 无法识别故障驱动器前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
将我的postgres主服务器同步到从服务器导致从服务器(journalctl)上的写入I / O错误
Aug 18 03:09:23 db01a kernel: EXT4-fs warning (device dm-3): 
**ext4_end_bio:330: I/O error -5 writing to inode 86772956 (offset 905969664 size 8388608 starting block 368694016)**                  
Aug 18 03:09:23 db01a kernel: buffer_io_error: 326 callbacks suppressed

….

读取受影响的文件当然也不起作用:

cat base/96628250/96737718  >> /dev/null
cat: 96737718: Input/output error

linux内核(ubuntu 16.04 4.4.0-87-generic)不应该自动从阵列中激活受影响的驱动器吗?

因为它是一个Raid6(顶层的LVM和ext4),我已经尝试用坏块覆盖每个SSD几次以引发错误(从raid中删除了一个又一个磁盘),遗憾的是没有成功.

smartctl说一个磁盘之前有错误(其他磁盘是干净的):

smartctl -a /dev/sda
 ID# ATTRIBUTE_NAME         FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_Failed RAW_VALUE

 5  Reallocated_Sector_Ct   0x0033   099   099   010    Pre-fail  Always       -       2

179 Used_Rsvd_Blk_Cnt_Tot   0x0013   099   099   010    Pre-fail  Always       -       2

183 Runtime_Bad_Block       0x0013   099   099   010    Pre-fail  Always       -       2

187 Uncorrectable_Error_Cnt 0x0032   099   099   000    Old_age   Always       -       3

195 ECC_Error_Rate          0x001a   199   199   000    Old_age   Always       -       3

但是用badblocks重写整个磁盘-wsv工作没有错误.

由于它对我来说是一个非常重要的服务器,我用不同的模型替换了整个服务器,但错误仍然存​​在.我是否认为它可能是磁盘问题?

有没有办法知道哪个磁盘受影响,可能是通过计算?

编辑:澄清:我没有得到的是从主设备到从设备的1.5 TB数据的初始同步如何导致两个不可恢复的I / O错误,但在每个涉及的SSD上手动运行破坏性读写测试完成任何错误.

EDIT2:lsblk的输出(对于sda-sdf来说是相同的); PVS; VGS; LVS;

lsblk:
sda1                        8:16   0 953.9G  0 disk                                                
├─sda1                     8:17   0   4.7G  0 part                                                
│ └─md0                    9:0    0   4.7G  0 raid1                                               
└─sda5                     8:21   0 949.2G  0 part                                                
  └─md1                    9:1    0   2.8T  0 raid6                                               
    ├─vgdb01a-lvroot     252:0    0  18.6G  0 lvm   /                                             
    ├─vgdb01a-lvvar      252:1    0    28G  0 lvm   /var                                          
    ├─vgdb01a-lvtmp      252:2    0   4.7G  0 lvm   /tmp                                          
    └─vgdb01a-lvpostgres 252:3    0   2.6T  0 lvm   /postgres 

pvs: 
PV         VG      Fmt  Attr PSize PFree  
/dev/md1   vgdb01a lvm2 a--  2.78t 133.64g

vgs:
VG      #PV #LV #SN Attr   VSize VFree  
vgdb01a   1   4   0 wz--n- 2.78t 133.64g

lvs:
lvs
LV         VG      Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
lvpostgres vgdb01a -wi-ao----  2.60t                                                    
lvroot     vgdb01a -wi-ao---- 18.62g                                                    
lvtmp      vgdb01a -wi-ao----  4.66g                                                    
lvvar      vgdb01a -wi-ao---- 27.94g

更新2017-8-22

echo check > /sys/block/md1/md/sync_action
[Mon Aug 21 16:10:22 2017] md: data-check of RAID array md1
[Mon Aug 21 16:10:22 2017] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
[Mon Aug 21 16:10:22 2017] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
[Mon Aug 21 16:10:22 2017] md: using 128k window,over a total of 995189760k.
[Mon Aug 21 18:58:18 2017] md: md1: data-check done.

echo repair > /sys/block/md1/md/sync_action    [Tue Aug 22 12:54:11 2017] md: requested-resync of RAID array md1
[Tue Aug 22 12:54:11 2017] md: minimum _guaranteed_  speed: 1000 KB/sec/disk.
[Tue Aug 22 12:54:11 2017] md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for requested-resync.
[Tue Aug 22 12:54:11 2017] md: using 128k window,over a total of 995189760k.
[2160302.241701] md: md1: requested-resync done.

e2fsck -y -f /dev/mapper/vgdb01a-lvpostgres
Pass 1: Checking inodes,blocks,and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/mapper/vgdb01a-lvpostgres: 693517/174489600 files (1.6% non-contiguous),608333768/697932800 blocks

更新2017-8-22 2
在pastebin上输出lsscsi和所有磁盘smartctl:https://pastebin.com/VUxKEKiF

解决方法

UPDATE-22分之8

如果要快速解决此问题,只需更换两个驱动器即可
具有最差的smartctl统计数据并重新评估.一旦你没有保留块,你的驱动器就是EOL.看到我们一次性购买这些产品,它们往往会在同一时间内失败.所以哪个是无关紧要的
坏块被固定.一旦你替换了最糟糕的两个罪犯(这意味着更换一个并重新同步和重复),你将增加阵列的整体健康状况,可能取代了抱怨的磁盘,并大大降低了双重失败的风险,你失去了一切.

在一天结束时,您的数据价值超过几百美元.

ENDUPDATE-22分之8

UPDATE-21分之8

托尼是的,你的原帖有改进的余地.鉴于这些事实,这是我到达的结论.直到现在还不清楚你已经遭受了数据损坏.

如果您包含带有smartctl输出的标头会很有帮助.这在scsi上更容易,sg_reassign会告诉你剩下多少空闲块重新分配,一旦归零,你就完成了.看到smartctl在几个类别中报告“prefail”,听起来你很快就会完成.

很快你就会遇到硬媒体错误,而MD将会推动这一问题.同时fsck会是一个好主意.当驱动器写入失败时,他们会从空闲块池中重新分配目标,当您用完时,它将成为不可恢复的介质错误.

同时在MD上启用“磁盘清理程序”并在每周cron上运行它,它将读取并重写每个扇区并在它成为真正的问题之前关闭它.请参阅内核中的Documentation / md.txt.

[磁盘清理器示例]
https://www.ogre.com/node/384

您仍然必须运行所有驱动器的smartmon(每天一次,非工作时间),解析输出,并创建警报以阻止这个问题.

伙计们,这就是硬件袭击为你做的事情.具有讽刺意味的是,我们拥有提供更好的MD体验的所有工具,但没有人将它们整合到一个集成的解决方案中.

你几乎处于无声数据损坏的尾端. fsck可能对你有所帮助,但最好的办法是参考你的备份(你保持备份正确吗?RAID不是备份)并准备让这个RAID开始下沉.

然后你会找到坏磁盘.

抱歉.

ENDUPDATE-21分之8

对于初学者,您是否阅读了有关您使用的选项的坏块的手册页?

-w     Use write-mode test. With this option,badblocks scans for bad  blocks  by  writing
          some  patterns (0xaa,0x55,0xff,0x00) on every block of the device,reading every
          block and comparing the contents.  This option may not  be  combined  with  the  -n
          option,as they are mutually exclusive.

所以你的数据不见了,-n是非破坏性版本.也许你真正做的是从数组中取出一个磁盘,在其上运行badblocks,然后重新插入它?请澄清.

您不知道哪个磁盘无法启动,这告诉我它不是MD raid数组.因此,无论存在什么不存在的lvm“raid”工具来帮助您从这个简单的故障中恢复,这就是您需要弄清楚的.

我想说大多数用户都使用MD raid解决方案.剩下的人分心了“这是什么东西?”或者“哦,这是LVM,这是我应该做的,对吧?”然后结束你现在的位置.我使用糟糕的管理工具来实施实施,这些工具实际上比通过构建RAID 6而尝试缓解的风险更大.

这不是你的错,你不知道.坦率地说,他们应该因为这个原因而禁用它.

关于修复坏块.您可以通过使计算机脱机并启动到实时USB驱动器并执行以下某个修复过程来执行此操作.

https://sites.google.com/site/itmyshare/storage/storage-disk/bad-blocks-how-to

http://linuxtroops.blogspot.com/2013/07/how-to-find-bad-block-on-linux-harddisk.html

至于这个部门在你的阵列中的位置.那么,你必须考虑奇偶校验轮换,这是一个PITA.我建议你只需验证每个驱动器,直到找到问题为止.

您可以通过在MD中启用“磁盘清理”来帮助防止这种情况,该磁盘读取并重写维护窗口中的每个扇区以准确发现这些问题并可能修复它们.

我希望这有帮助.

原文链接:https://www.f2er.com/linux/399649.html

猜你在找的Linux相关文章