3

快速收集无数个英文博客地址

已有 3,751 人阅读此文 - -

黑帽seo中,很大一部分时间都在搜集博客列表,嘿嘿,刚发现一个方法,只要你的电脑厉害,以后就能收集无数个列表。

http://blogsearch.google.com/changes.xml?last=any 

将这个地址输入你的浏览器,打开,往下拉,发现了没,这个是不停更新的,停不了的,只要你电脑开着,5分钟内就能收集几万个列表。  这个不断更新的列表原理是,更新文章后自动ping google的博客地址,当然后面any参数可以自己设置,120,360等等,120秒内更新的。你还可以建立一个文件,将这个页面变成静态输出就可以了

code如下 <?php
$url = ‘http://blogsearch.google.com/changes.xml?last=120’;
$m= file_get_contents ($url);
preg_match_all (‘/url=”(.*?)”/’,$m,$match );
print implode(“<br>”,$match[1]);
?>

 

还可以输出自动保存为 txt文件 代码如下

<?php
$keyword = “blog”;
$ch=curl_init();
curl_setopt($ch,CURLOPT_URL,”http://blogsearch.google.com/changes.xml?last=120″);
curl_setopt($ch,CURLOPT_RETURNTRANSFER,true);
$get=curl_exec($ch);
preg_match_all(‘/url\=\”\S+\”/i’,$get,$urls);
echo “Results for $keyword:<br>”;
foreach($urls[0] as $blog) {
$blog=preg_replace(‘/url\=\”/i’,””,$blog);$blog=str_replace(“\””,””,$blog);
if(!preg_match(“/$keyword/i”,$blog)) {unset($blog);} else {
echo $blog.”<br>”;
$file=fopen(“links.txt”,”a+”);
fwrite($file,”$blog\r\n”);
fclose($file);
}
}
?>

0
相关文章!
  1. 风吹走了我 - 2010.09.16

    方法非常妙,第一次看到,谢谢你了。不过我刚才试了一下,收集到很多中文blog

  2. james - 2011.01.13

    like me

  3. sportsbook - 2011.05.29

    不错的经验分享谢谢!