这篇文章将为大家详细讲解有关动态网页用python爬虫解析的方法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
创新互联是一家专业提供富阳企业网站建设,专注与网站设计制作、成都网站制作、html5、小程序制作等业务。10年已为富阳众多企业、政府机构等服务。创新互联专业网络公司优惠进行中。
json是一种数据存储格式,可以被多种语言解析,一般用于数据传输。
data = json.loads(html_str); all_items=data['topic_list']['topics'] write_content=[]; for item in all_items: slug = item['slug']; item_id = item['id'] link = f'https://forum.cocos.org/t/{slug}/{item_id}' title = item['title']; like_count = item['like_count']; like_count = item['like_count']; posts_count = item['posts_count']; views = item['views']; created_at = item['created_at']; write_content.append({'标题': title, '链接': link, '点赞':like_count, '回复':posts_count, '浏览':views, '发帖时间':created_at});
其中的链接地址可以通过打开几个论坛内容找到规律,是由 slug 和 id 这两个字段拼接的。
最后使用多线程 和 csv 存储结果。
pool = Pool(3); orign_num=[x for x in range(0,10)]; result = pool.map(scrapy,orign_num); with open('ccc_title_link.csv', 'w', newline='') as csvfile: fieldnames = ('标题', '链接', '点赞', '回复','浏览', '发帖时间') writer = csv.DictWriter(csvfile, fieldnames=fieldnames) writer.writeheader() for write_content in result: for _content in write_content: writer.writerow(_content);
关于动态网页用python爬虫解析的方法就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
分享标题:动态网页用python爬虫解析的方法
新闻来源:https://www.cdcxhl.com/article36/ggjisg.html
成都网站建设公司_创新互联,为您提供关键词优化、移动网站建设、动态网站、网站排名、网站制作、商城网站
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联