千家信息网

如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题

发表于:2025-11-16 作者:千家信息网编辑
千家信息网最后更新 2025年11月16日,这篇文章主要讲解了"如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一
千家信息网最后更新 2025年11月16日如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题

这篇文章主要讲解了"如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题",文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习"如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题"吧!

推荐方法 CURL获取

(.*)<\/title>/i",$data, $title);echo $title[1];?>

使用file_get_contents

')+7;$poste=strpos($content,'');$length=$poste-$postb;echo substr($content,$postb,$length);?>

看看file_get_contents性能

1)fopen/file_get_contents 每次请求远程URL中的数据都会重新做DNS查询,并不对DNS信息进行缓存。但是CURL会自动对DNS信息进行缓存。对同一域名下的网页或者图片的请求只需要一次DNS 查询。这大大减少了DNS查询的次数。所以CURL的性能比fopen/file_get_contents 好很多。
2)fopen/file_get_contents在请求HTTP时,使用的是http_fopen_wrapper,不会keeplive。而curl却可以。这样在多次请求多个链接时,curl效率会好一些。(设置header头应该可以)
3)fopen/file_get_contents函数会受到php.ini文件中allow_url_open选项配置的影响。如果该配置关闭了,则该函数也就失效了。而curl不受该配置的影响。
4)curl可以模拟多种请求,例如:POST数据,表单提交等,用户可以按照自己的需求来定制请求。而fopen/file_get_contents只能使用get方式获取数据。
5)fopen/file_get_contents 不能正确下载二进制文件
6)fopen/file_get_contents 不能正确处理ssl请求
7)curl 可以利用多线程
8)使用 file_get_contents 的时候如果 网络出现问题, 很容易堆积一些进程在这里
9)如果是要打一个持续连接,多次请求多个页面。那么file_get_contents就会出问题。取得的内容也可能会不对。所以做一些类似采集工作的时候,肯定就有问题了。对做采集抓取的用curl,如果还有同不相信下面我们再做个测试

curl与file_get_contents性能对比PHP源代码如下:

1829.php

code=='1'){  return false; } $city = $ipinfo->data->region.$ipinfo->data->city; return $city;}function getCity($ip){ $url="http://ip.taobao.com/service/getIpInfo.php?ip=".$ip; $ipinfo=json_decode(file_get_contents($url)); if($ipinfo->code=='1'){  return false; } $city = $ipinfo->data->region.$ipinfo->data->city; return $city;}// for file_get_contents$startTime=explode(' ',microtime());$startTime=$startTime[0] + $startTime[1];for($i=1;$i<=10;$i++){ echo getCity("121.207.247.202")."
";}$endTime = explode(' ',microtime());$endTime = $endTime[0] + $endTime[1];$totalTime = $endTime - $startTime;echo 'file_get_contents:'.number_format($totalTime, 10, '.', "")." seconds
";//for curl$startTime2=explode(' ',microtime());$startTime2=$startTime2[0] + $startTime2[1];for($i=1;$i<=10;$i++){ echo getCityCurl('121.207.247.202')."
";}$endTime2 = explode(' ',microtime());$endTime2=$endTime2[0] + $endTime2[1];$totalTime2 = $endTime2 - $startTime2;echo "curl:".number_format($totalTime2, 10, '.', "")." seconds";?>

测试访问

file_get_contents速度:4.2404510975 seconds
curl速度:2.8205530643 seconds
curl比file_get_contents速度快了30%左右,最重要的是服务器负载更低.

ps:php函数file_get_contents与curl效率及稳定性问题

习惯了使用方便快捷的file_get_contents函数抓取别家网站内容,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不好使:

$config['context'] = stream_context_create(array('http' => array('method' => "GET",'timeout' => 5)));
'timeout' => 5//这个超时时间不稳定,经常不好使。这时候,看一下服务器的连接池,会发现一堆类似下面的错误,让你头疼万分:

file_get_contents(http://***): failed to open stream…

不得已,安装了curl库,写了一个函数替换:

function curl_get_contents($url) {  $ch = curl_init();  curl_setopt($ch, CURLOPT_URL, $url);   //设置访问的url地址  //curl_setopt($ch,CURLOPT_HEADER,1);   //是否显示头部信息  curl_setopt($ch, CURLOPT_TIMEOUT, 5);   //设置超时  curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_); //用户访问代理 User-Agent  curl_setopt($ch, CURLOPT_REFERER,_REFERER_);  //设置 referer  curl_setopt($ch,CURLOPT_FOLLOWLOCATION,1);  //跟踪301  curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);  //返回结果  $r = curl_exec($ch);  curl_close($ch);  return $r; }

如此,除了真正的网络问题外,没再出现任何问题。

这是别人做过的关于curl和file_get_contents的测试:

file_get_contents抓取google.com需用秒数:

2.31319094
2.30374217
2.21512604
3.30553889
2.30124092

curl使用的时间:

0.68719101
0.64675593
0.64326
0.81983113
0.63956594

感谢各位的阅读,以上就是"如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题"的内容了,经过本文的学习后,相信大家对如何解决PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是,小编将为大家推送更多相关知识点的文章,欢迎关注!

0