我有一个多线程脚本,当它连接到服务器但服务器不发回任何东西时偶尔会冻结. Netstat显示连接的tcp套接字.即使我设置了TIMEOUT,也会发生这种情况.超时脚本中的超时工作正常.这是一些示例代码.
def xmlscraper(url):
htmlpage = StringIO.StringIO()
rheader = StringIO.StringIO()
c = pycurl.Curl()
c.setopt(pycurl.USERAGENT,"user agent string")
c.setopt(pycurl.CONNECTTIMEOUT,60)
c.setopt(pycurl.TIMEOUT,120)
c.setopt(pycurl.FOLLOWLOCATION,1)
c.setopt(pycurl.WRITEFUNCTION,htmlpage.write)
c.setopt(pycurl.HEADERFUNCTION,rheader.write)
c.setopt(pycurl.HTTPHEADER,['Expect:'])
c.setopt(pycurl.NOSIGNAL,1)
c.setopt(pycurl.URL,url)
c.setopt(pycurl.HTTPGET,1)
pycurl.global_init(pycurl.GLOBAL_ALL)
for url in urllist:
t = threading.Thread(target=xmlscraper,args=(url,))
t.start()
任何帮助将不胜感激!几个星期以来一直试图解决这个问题.
编辑:
urllist有大约10个网址.似乎有多少并不重要.
EDIT2:
我刚刚在下面测试了这段代码.我使用了一个睡眠100秒的PHP脚本.
import threading
import pycurl
def testf():
c = pycurl.Curl()
c.setopt(pycurl.CONNECTTIMEOUT,3)
c.setopt(pycurl.TIMEOUT,6)
c.setopt(pycurl.NOSIGNAL,1)
c.setopt(pycurl.URL,'http://xxx.xxx.xxx.xxx/test.PHP')
c.setopt(pycurl.HTTPGET,1)
c.perform()
t = threading.Thread(target=testf)
t.start()
t.join()
该代码中的Pycurl似乎正常超时.所以我猜它与网址的数量有关? GIL?
EDIT3:
我认为它可能与libcurl本身有关,因为当我检查脚本时libcurl仍然连续几个小时连接到服务器.如果pycurl正确地超时,则套接字将被关闭.
最佳答案
我修改了你的’edit2’代码来生成多个线程,它在我的机器上工作正常(Ubuntu 10.10 with Python 2.6.6)
原文链接:https://www.f2er.com/python/439089.htmlimport threading
import pycurl
def testf():
c = pycurl.Curl()
c.setopt(pycurl.CONNECTTIMEOUT,3)
c.setopt(pycurl.NOSIGNAL,'http://localhost/cgi-bin/foo.py')
c.setopt(pycurl.HTTPGET,1)
c.perform()
for i in range(100):
t = threading.Thread(target=testf)
t.start()
我可以生成100个线程,所有超时都是3秒(就像我指定的那样).
我不会指责GIL和线程争用:)