我正在尝试使用fcntl来实现文件锁定.我一直在使用flock,直到我发现它只能在同一台机器上的进程之间工作.
现在当我用F_SETLKW调用fcntl时,perl警报(用于添加超时)不像以前那样工作.这通常没问题,但是ctrl-c也没有用.
我相信正在发生的事情是,fcntl每隔30秒左右只检查一次信号.警报最终会回来. ctrl-c最终被抓住了.
有什么办法可以调整fcntl检查这些信号的频率吗?
解决方法
所以忘记我,如果这是偏离主题.我使用File::NFSLock解决缓存风暴/ dogpile / stampeding问题.有多个应用程序服务器在NFS卷上读取和写入缓存文件(不是很好的主意,但这就是我们开始的).
我继承/包装File :: NFSLock来修改它的行为.特别是我需要:
>持久锁,当File :: NFSLock对象超出范围时不会消失.使用常规的File :: NFSLock,当对象超出范围时,您的锁将消失.这不是我需要的.
>实际锁定文件还包含获取锁定的计算机的名称.进程ID显然不足以决定进程是否终止,因此我可以安全地窃取锁文件.所以我修改了代码来将lockfiles写成machine:pid而不仅仅是pid.
这已经有好几年了.
直到请求量增加了10倍.也就是说,上个月我开始遇到第一个问题,即两个后端同时写入一个非常繁忙的缓存文件,留下死锁.当我们每天达到大约9-10M的整体综合浏览量时,这发生在我身上,只是为了给你一个想法.
最终破碎的缓存文件看起来像:
<!-- START OF CACHE FILE BY BACKEND b1 --> ... cache file contents ... <!-- END OF CACHE FILE BY BACKEND b1 --> ... more cache file contents ... wtf ... <!-- END OF CACHE FILE BY BACKEND b2 -->
只有当两个后端同时写入同一个文件时才会发生这种情况……目前还不清楚这个问题是由File :: NFSLock导致我们的mod还是应用程序中的一些bug.
总而言之,如果你的应用程序不是非常繁忙和被贩运,那么去File :: NFSLock,我认为这是你最好的选择.您确定还想使用NFS吗?