python – pycurl / curl不遵循CURLOPT_TIMEOUT选项

前端之家收集整理的这篇文章主要介绍了python – pycurl / curl不遵循CURLOPT_TIMEOUT选项前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

我有一个多线程脚本,当它连接到服务器但服务器不发回任何东西时偶尔会冻结. Netstat显示连接的tcp套接字.即使我设置了TIMEOUT,也会发生这种情况.超时脚本中的超时工作正常.这是一些示例代码.

def xmlscraper(url):
  htmlpage = StringIO.StringIO()
  rheader = StringIO.StringIO()
  c = pycurl.Curl()
  c.setopt(pycurl.USERAGENT,"user agent string")
  c.setopt(pycurl.CONNECTTIMEOUT,60)
  c.setopt(pycurl.TIMEOUT,120)
  c.setopt(pycurl.FOLLOWLOCATION,1)
  c.setopt(pycurl.WRITEFUNCTION,htmlpage.write)
  c.setopt(pycurl.HEADERFUNCTION,rheader.write)
  c.setopt(pycurl.HTTPHEADER,['Expect:'])
  c.setopt(pycurl.NOSIGNAL,1)
  c.setopt(pycurl.URL,url)
  c.setopt(pycurl.HTTPGET,1)

pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
    t = threading.Thread(target=xmlscraper,args=(url,))
    t.start()

任何帮助将不胜感激!几个星期以来一直试图解决这个问题.

编辑:
urllist有大约10个网址.似乎有多少并不重要.

EDIT2:
我刚刚在下面测试了这段代码.我使用了一个睡眠100秒的PHP脚本.

import threading
import pycurl
def testf():
    c = pycurl.Curl()
    c.setopt(pycurl.CONNECTTIMEOUT,3)
    c.setopt(pycurl.TIMEOUT,6)
    c.setopt(pycurl.NOSIGNAL,1)
    c.setopt(pycurl.URL,'http://xxx.xxx.xxx.xxx/test.PHP')
    c.setopt(pycurl.HTTPGET,1)
    c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()

代码中的Pycurl似乎正常超时.所以我猜它与网址的数量有关? GIL?

EDIT3:

我认为它可能与libcurl本身有关,因为当我检查脚本时libcurl仍然连续几个小时连接到服务器.如果pycurl正确地超时,则套接字将被关闭.

最佳答案
修改了你的’edit2’代码生成多个线程,它在我的机器上工作正常(Ubuntu 10.10 with Python 2.6.6)

import threading
import pycurl

def testf():
    c = pycurl.Curl()
    c.setopt(pycurl.CONNECTTIMEOUT,3)
    c.setopt(pycurl.NOSIGNAL,'http://localhost/cgi-bin/foo.py')
    c.setopt(pycurl.HTTPGET,1)
    c.perform()

for i in range(100):
    t = threading.Thread(target=testf)
    t.start()

我可以生成100个线程,所有超时都是3秒(就像我指定的那样).

我不会指责GIL和线程争用:)

原文链接:https://www.f2er.com/python/439089.html

猜你在找的Python相关文章