目前我正在使用Mechanize和get()方法来获取每个站点,并使用content()方法检查每个主页的内容.
我有一个非常快速的计算机10Mbit连接,但仍然需要9个小时来检查11K站点,这是不可接受的,问题是,get()函数的速度,显然,需要获取页面,是有什么方法可以让它更快,也许是禁用一些东西,因为我只需要检查主页面html.
我有一个非常快速的计算机10Mbit连接,但仍然需要9个小时来检查11K站点,这是不可接受的,问题是,get()函数的速度,显然,需要获取页面,是有什么方法可以让它更快,也许是禁用一些东西,因为我只需要检查主页面html.
谢谢,
解决方法
并行查询而不是串行查询.如果我需要这样做,我会分叉一个抓取页面的过程.像
Parallel::ForkManager,LWP::Parallel::UserAgent或
WWW:Curl这样的东西可能会有所帮助.我倾向于赞成
Mojo::UserAgent.