我们有几个对延迟敏感的“管道”式程序,当在一个Linux内核上运行时,它们具有可测量的性能降级.特别是,我们看到2.6.9 CentOS 4.x(RHEL4)内核的性能更好,而CentOS 5.x(RHEL5)的2.6.18内核性能更差.
通过“管道”程序,我的意思是具有多个线程的程序.多线程处理共享数据.在每个线程之间,有一个队列.所以线程A获取数据,推入Qab,线程B从Qab拉出,做一些处理,然后推入Qbc,线程C从Qbc拉出等.初始数据来自网络(由第三方生成).
我们基本上测量从接收数据到最后一个线程执行任务的时间.在我们的应用程序中,当从CentOS 4移动到CentOS 5时,我们看到增加了20到50微秒.
我使用了一些分析我们的应用程序的方法,并确定CentOS 5上增加的延迟来自队列操作(特别是弹出).
但是,我可以通过使用taskset将程序绑定到可用内核的子集来提高CentOS 5的性能(与CentOS 4相同).
所以在我看来,在CentOS 4和5之间,有一些变化(可能是内核)导致线程的调度方式不同(这种差异对于我们的应用来说并不是最理想的).
虽然我可以使用taskset(或通过sched_setaffinity()代码)解决这个问题,但我的首选是不必这样做.我希望有一些内核可调参数(或者可能的可调参数集合),其默认值在不同版本之间进行了更改.
有人对此有经验吗?或许还有一些需要调查的领域?
更新:在此特定情况下,问题已通过服务器供应商(Dell)的BIOS更新解决.我把头发拉了一下这个.直到我回到基础,并检查我的供应商的BIOS更新.可疑的是,其中一个更新表示“在最高性能模式下提高性能”.一旦我升级了BIOS,CentOS 5就更快了 – 一般来说,但特别是在我的队列测试和实际生产运行中.