@H_404_0@拿一个简单的链接的例子:
@H_404_0@<a href="http://www.baidu.com" rel="baidu" >百度</a> @H_404_0@我们的任务是爬取a标签的href参数开头具有"http:"字符串性质的链接。
</pre><pre name="code" class="python">import re
from bs4 import BeautifulSoup
import urllib2
url='http://www.baidu.com' op=urllib2.urlopen(url) soup=BeautifulSoup(op) a=soup.findAll(name='a',attrs={"href":re.compile(r'^http:')}) try: for i in a: op1=urllib2.urlopen(i['href']) soup1=BeautifulSoup(op1) b=soup1.findAll(name='a',attrs={"href":re.compile(r'^http:')}) for j in b: op2=urllib2.urlopen(j['href']) soup2=BeautifulSoup(op2) c=soup2.findAll(name='a',attrs={"href":re.compile(r'^http:')}) for m in c: op3=urllib2.urlopen(m['href']) soup3=BeautifulSoup(op3) d=soup3.findAll(name='a',attrs={"href":re.compile(r'^http:')}) for h in d: ii=ii+1 print h['href'] print '\n' except: print "\n"这里是我做的一个例子,作用是用来爬取百度为根节点,按照深度优先的方式 实现深度为3的爬取链接的代码。爬取了8123个链接 @H_404_0@解析: @H_404_0@首先是导入正则表达式模块re,还有BeautifulSoup模块,urllib2。 @H_404_0@使用urllib2模块的urlopen函数打开链接 然后使用BeautifulSoup模块将网页信息op格式化为BeautifulSoup格式的数据,利用soup对象的findAll函数查找符合正则表达式的a便签,至于深度优先这里就不再讲述。 @H_404_0@
@H_404_0@这里的重点是在findAll函数中使用了正则表达式:
soup1.findAll(name='a',attrs={"href":re.compile(r'^http:')})@H_404_0@这里name来制定标签的名字,attrs来设置标签的一些参数设置,这里只拿出了href属性,并且使用re.compile(r'^http:')来对href字符串进行匹配,只有匹配成功的才能被检索。 @H_404_0@
@H_404_0@这里的正则表达式中使用了r 不懂的可以查看博客,或者是查看正则表达式的其他应用也可以查看博客。
r'^http:'@H_404_0@这里的BeautifulSoup的findAll函数没有自己讲述,有兴趣的可以查看博客。
@H_404_0@这里没有对乱码进行处理,有兴趣的可以去查看博客。