linux – 麻烦解释iostat的tps度量

前端之家收集整理的这篇文章主要介绍了linux – 麻烦解释iostat的tps度量前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
序幕:
我使用 mysqldump命令转储了5.2 GB的数据库.我在功能不足的虚拟服务器上做了这个,只有512 MB的内存.花了大约一个小时.我现在正在我的桌面计算机上重新加载该数据库,该计算机具有双核cpu和2 GB内存.重装是在第9个小时,我不知道它是否接近完成.大约一年前我在同一台机器上重新加载了这个数据库,只花了两个小时.当时和现在的区别在于我在raid1模式下用两个SATA磁盘替换了我的单个ATA硬盘.我知道raid1会慢写(理论上),但绝对不会慢4.5倍!所以我爆发了iostat,我变得更加困惑.
$sudo iostat 
Linux 2.6.30-2-amd64 (lukahn)  12/12/2009  _x86_64_ (2 cpu)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.13    0.00    1.94   27.96    0.00   62.97

Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
sda             144.02       198.41     11139.44    9322418  523399320
sdb             143.78       165.59     11137.39    7780516  523303000
hda               0.01         0.05         0.00       2492          0
md0               0.66         6.44         0.71     302538      33496
md1               7.32        67.02         7.51    3148938     352960
md2               6.08       240.02        18.95   11277610     890584
md3            1389.80        46.85     11106.55    2201410  521853640
md4               0.41         3.03         0.21     142322       9824

sda和sdb是支持md设备的真正SATA驱动器,你可以在/ proc / mdstat中看到:

$cat /proc/mdstat 
Personalities : [raid0] [raid1] 
md4 : active raid0 sda6[0] sdb6[1]
      48821248 blocks 64k chunks

md3 : active raid1 sda5[0] sdb5[1]
      48829440 blocks [2/2] [UU]

md2 : active raid1 sda4[0] sdb4[1]
      1318358080 blocks [2/2] [UU]

md1 : active raid1 sda2[0] sdb2[1]
      48829440 blocks [2/2] [UU]

md0 : active raid1 sda1[0] sdb1[1]
      9767424 blocks [2/2] [UU]

我正在重新加载的.sql文件位于md2上的/ home分区上,而/ var分区位于md3上.我认为由于MysqL重新生成索引,写入md3的块比从md2读取的块高得多.然而,我遇到的一个重要问题是,对于md3,tps测量值如何比sda和sdb的tps测量值高得多?

iostat的-m选项显示为md3和sda / sdb写入磁盘的数据量相同(5.55 MB / s):

$sudo iostat -m
Linux 2.6.30-2-amd64 (lukahn)   12/12/2009  _x86_64_    (2 cpu)

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           7.39    0.00    2.00   28.16    0.00   62.44

Device:            tps    MB_read/s    MB_wrtn/s    MB_read    MB_wrtn
sda             145.16         0.10         5.55       4976     267768
sdb             144.90         0.09         5.55       4143     267716
hda               0.01         0.00         0.00          1          0
md0               0.66         0.00         0.00        154         16
md1               7.18         0.03         0.00       1580        172
md2               6.19         0.13         0.01       6153        443
md3            1418.41         0.02         5.53       1146     266994
md4               0.40         0.00         0.00         69          5

iostat手册页说:

tps

Indicate the number of transfers per
second that were issued to the device.
A transfer is an I/O request to the
device. Multiple logical requests can
be combined into a single I/O request
to the device. A transfer is of
indeterminate size.

我不指望它们完全一样,但肯定不是864%不同!由于我对md设备的配置错误,这是否是瓶颈的标志,还是我只是担心什么?

解决方法

这是一个单一的iostat调用,它不为“每秒”值提供有意义的数据,只有计数器很有用 – 它不能从单个值计算每秒的变化,它需要知道它们之间的两个值和时间.
要查看真实值,请尝试以下方法
iostat -d 1 2

第二个输出将是实际值.

从iostat手册页:

The first report generated by the iostat command provides statistics concerning the time since the system was booted. Each subsequent report covers the time since the prevIoUs report.

猜你在找的Linux相关文章