我们想模拟在公共云(例如AWS EC2)中使用VM的位置影响.
为此,我们希望在数据包中注入延迟,以便我们可以模拟特定的网络拓扑.
假设有三个VM:A,B,C
| A | <- 5 μs delay -> B | <---- 25 μs delay ----> C
对于A和B之间的连接,我们怎样才能最容易地注入5μs延迟(或任意值),而A和C之间的延迟为25μs?任何解决方案都受到赞赏(每个VM上的Linux内核级别更改/创建覆盖网络/ …).
解决方法
可以通过Linux内核支持的流量整形算法来模拟创建延迟.从
netem
manual:
# tc qdisc add dev eth0 root handle 1: prio # tc qdisc add dev eth0 parent 1:3 handle 30: tbf rate 20kbit buffer 1600 limit 3000 # tc qdisc add dev eth0 parent 30:1 handle 31: netem delay 200ms 10ms distribution normal # tc filter add dev eth0 protocol ip parent 1:0 prio 3 u32 match ip dst <IP_of_server_B>/32 flowid 1:3
其中,当在服务器A上发布时,会产生200毫秒的延迟,其中服务器B的流量随机变化为±10毫秒.