linux – DRBD在10GigE上的可怕同步性能

前端之家收集整理的这篇文章主要介绍了linux – DRBD在10GigE上的可怕同步性能前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我已经建立了一对相同的服务器,配备RAID阵列(8核,16GB RAM,12×2 TB RAID6),3个10GigE接口,以托管一些高可用性服务.

系统目前正在运行Debian 7.9 Wheezy oldstable(因为corosync / pacemaker在8.x稳定或测试时不可用).

>本地磁盘性能约为900 MB / s写入,1600 MB / s读取.
>机器之间的网络吞吐量超过700MB / s.
>通过iSCSI,每台机器可以以超过700 MB / s的速度写入另一台存储.

但是,无论我配置DRBD的方式如何,吞吐量都限制在100MB / s.它看起来像一些硬编码限制.我可以通过调整设置来可靠地降低性能,但它永远不会超过1Gbit(一次只能达到122MB / s几秒钟).我真的在这个上拉我的头发.

>普通香草仁3.18.24 amd64
> drbd 8.9.2~rc1-1~bpo70 1

配置分为两个文件:global-common.conf:

@H_404_15@global { usage-count no; } common { handlers { } startup { } disk { on-io-error detach; # no-disk-flushes ; } net { max-epoch-size 8192; max-buffers 8192; sndbuf-size 2097152; } syncer { rate 4194304k; al-extents 6433; } }

和cluster.res:

@H_404_15@resource rd0 { protocol C; on cl1 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.1:7788; Meta-disk internal; } on cl2 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.2:7788; Meta-disk internal; } }

来自cat / proc / drbdon slave的输出

@H_404_15@version: 8.4.5 (api:1/proto:86-101) srcversion: EDE19BAA3D4D4A0BEFD8CDE 0: cs:SyncTarget ro:Secondary/Secondary ds:Inconsistent/UpToDate C r----- ns:0 nr:4462592 dw:4462592 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:16489499884 [>....................] sync'ed: 0.1% (16103024/16107384)M finish: 49:20:03 speed: 92,828 (92,968) want: 102,400 K/sec

主服务器上vmstat 2的输出(两台机器几乎完全空闲):

@H_404_15@procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 0 0 0 14952768 108712 446108 0 0 213 254 16 9 0 0 100 0 0 0 0 14952484 108712 446136 0 0 0 4 10063 1361 0 0 99 0 0 0 0 14952608 108712 446136 0 0 0 4 10057 1356 0 0 99 0 0 0 0 14952608 108720 446128 0 0 0 10 10063 1352 0 1 99 0 0 0 0 14951616 108720 446136 0 0 0 6 10175 1417 0 1 99 0 0 0 0 14951748 108720 446136 0 0 0 4 10172 1426 0 1 99 0

两台服务器之间的iperf输出

@H_404_15@------------------------------------------------------------ Client connecting to cl2,TCP port 5001 TCP window size: 325 KByte (default) ------------------------------------------------------------ [ 3] local 192.168.42.1 port 47900 connected with 192.168.42.2 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 6.87 GBytes 5.90 Gbits/sec

显然初始同步应该有点慢,但不是这么慢……此外它并没有真正对任何限制同步速率的尝试作出反应,如drbdadm disk-options –resync-rate = 800M all.

解决方法

在较新版本的DRBD(8.3.9及更新版本)中,有一个需要调整的动态重新同步控制器.在较早版本的DRBD设置中,syncer {rate;}就足够了;现在它被用作动态重新同步速度的一个轻微建议的起始位置.

动态同步控制器使用DRBD配置的磁盘部分中的“c-settings”进行调整(有关每个设置的详细信息,请参阅$man drbd.conf).

在这些节点之间使用10Gbe,并且假设使用协议C后的低延迟,以下配置应该让事情变得更快:

@H_404_15@ resource rd0 { protocol C; disk { c-fill-target 10M; c-max-rate 700M; c-plan-ahead 7; c-min-rate 4M; } on cl1 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.1:7788; Meta-disk internal; } on cl2 { device /dev/drbd0; disk /dev/sda4; address 192.168.42.2:7788; Meta-disk internal; } }

如果您仍然不满意,请尝试将最大缓冲区调高至12k.如果您仍然不满意,可以尝试以2M为增量调高c-fill-target.

原文链接:https://www.f2er.com/linux/401896.html

猜你在找的Linux相关文章