前端之家收集整理的这篇文章主要介绍了
python 简单爬虫实现方法,
前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
感兴趣python 简单爬虫
实现方法的小伙伴,下面一起跟随编程之家 jb51.cc的小编来看看吧。所谓的爬虫就是通过本地远程访问url,然后将url的读成源
代码形式,然后对源
代码进行解析,
获取自己需要的数据,相当于简单数据挖掘。本文实现的是将一个网页的
图片爬出保存到本地的过程,例子很简单,用的是python 3.5.2版本,以前的版本可能导入的包的名字不一样,
调用的库
函数方式有些差别。
代码如下:
# 编程之家 (jb51.cc)
#coding =utf-8
import urllib.request
import re
def getHtml(url):
page = urllib.request.urlopen(url) ##打开页面
html = page.read() ##获取目标页面的源码
return html
def getImg(html):
reg = 'src="(.+?\.png)"' ##正则表达式筛选目标图片格式,有些是'data-original="(.+?\.jpg)"'
img = re.compile(reg)
html = html.decode('utf-8') ##编码方式为utf-8
imglist = re.findall(img,html) ##解析页面源码获取图片列表
#print(imglist)
x = 0
#length = len(imglist)
for i in range(6): ##取前6张图片保存
imgurl = imglist[i]
#imgurl = re.sub('"(.*?)"',r'\1',imgurl) #取单引号里的双引号内容
#print(imgurl)
urllib.request.urlretrieve(imgurl,'%s.jpg' % x) ##将图片从远程下载到本地并保存
x += 1
global Max_Num
Max_Num = 1
##有时候无法打开目标网页,需要尝试多次,这里设置为1次
for i in range(Max_Num):
try:
html = getHtml("view-source:http://www.baidu.com/jingyan/2438398.html")
getImg(html)
break
except:
if i < Max_Num - 1:
continue
else:
print ('URLError: <urlopen error timed out> All times is Failed ')
# End 512.笔记 jb51.cc
原文链接:https://www.f2er.com/python/526845.html