探讨file_get_contents与curl效率及稳定性的分析

前端之家收集整理的这篇文章主要介绍了探讨file_get_contents与curl效率及稳定性的分析前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。

做过好多抓取别家网站内容的产品,习惯了使用方便快捷的file_get_contents函数,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不会奏效:

代码如下:
$config['context'] = stream_context_create(array(‘http' => array(‘method' => “GET”,
'timeout' => 5//这个超时时间不稳定,经常不奏效
)
));

这时候,看一下服务器的连接池,会发现一堆类似的错误,让你头疼万分:
Failed to open stream…
不得已,安装了curl库,写了一个函数替换
代码如下:
curl_file_get_contents

CURLOPT_URL
CURLOPT_TIMEOUT
CURLOPT_USERAGENT _USERAGENT_
CURLOPT_REFERER_REFERER_
CURLOPT_RETURNTRANSFER





如此,除了真正的网络问题外,没再出现任何问题。
这是别人做过的关于curl和file_get_contents的测试:

file_get_contents抓取google.com需用秒数:

2.31319094
2.30374217
2.21512604
3.30553889
2.30124092

curl使用的时间:

0.68719101
0.64675593
0.64326
0.81983113
0.63956594
差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!

原文链接:https://www.f2er.com/php/26434.html

猜你在找的PHP相关文章