写爬虫都需要些什么呢,
A要爬取的网址难度的大小 (选择谷歌对要爬取的网址源代码进行分析)
B借用Python中的模块urllib与requests 对网址进行请求与访问
以requests为例:(requests模块的导入见:https://blog.51cto.com/13747953/2321389)
a 下载图片
成都创新互联是一家集网站建设,南宁企业网站建设,南宁品牌网站建设,网站定制,南宁网站建设报价,网络营销,网络优化,南宁网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。
import requests
ret=requests.get('http://×××w.xiaohuar.com/d/file/20180724/40d83a6709eca21137dcdd80ee28c31b.jpg')
print(ret,type(ret))
print(ret.status_code)
print(ret.content)
with open(r'E:\text1\爬虫\text_png\p1.png','wb') as f:
f.write(ret.content)
b 基本文字信息的获取
import requests
from urllib import request
# ret=requests.get('http://maoyan.com/board')
headers={
'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
}
ret=request.Request('http://maoyan.com/board',headers=headers)
resp=request.urlopen(ret)
print(resp,type(resp))
print(resp.read().decode('utf-8'))
这里不用requests 模块是因为在请求的过程中返回了403的错误
猜想可能的原因是:网址的反爬虫机制发现了来自pycharm的请求;
所以可以用urllib(Python自带的模块)提供的request模块
结果如下:
C如何从B-b中获取的文字数据中提取出自己想要的数据呢
a 分析数据的相同点
b 利用正则表达式与re模块
'<div class="item_t">(?:.*?)src="(?P<png>.*?)"(?:.*?)<span class="price">(?P<name>.*?)</span>(?:.*?)'
'<a href="http://www.xiaohuar.com/" class="img_album_btn">(?P<place>.*?)</a>', re.S)
'<div class="item_t"> # 匹配开始的标志
(?:.*?) # 匹配任意的字符,但用?取消了分组优先显示和贪婪匹配
src="(?P<png>.*?)" # 要获取的数据优先显示,并?P<名字>命名了
(?:.*?)
<span class="price">
(?P<name>.*?)
</span>
(?:.*?)
''<a href="http://www.xiaohuar.com/" class="img_album_btn">
(?P<place>.*?)
</a>'
,re.S # 声明 . 可以匹配任意的字符
)
俩个实例:
1爬取简单的文字信息:https://blog.51cto.com/13747953/2321800
2爬取图片: https://blog.51cto.com/13747953/2321803
(程序猿很无聊多多指教交流)
网站题目:写简单的爬虫都需要什么
网站URL:https://www.cdcxhl.com/article8/jjedop.html
成都网站建设公司_创新互联,为您提供外贸建站、做网站、网站内链、网站策划、搜索引擎优化、网站改版
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联