搜索引擎的工作过程非常复杂,其工作过程大体可以分为三个阶段:
(1)网页收集:搜索引擎蜘蛛通过链接进行爬行和抓取,将抓取到的页面存储到原始数据库中。
(2)预处理:搜索引擎蜘蛛抓取到的页面不能直接进行用户查询排名,需要进行预处理。
(3)检索服务:用户输入查询词后,排名程序调用索引数据库中的数据,将与用户搜索词相关的页面展示给用户。
搜索引擎是通过蜘蛛程序对互联网中的网页进行抓取和收集的,网页收集是搜索引擎工作的第一步。了解搜索引擎的网页抓取机制,便于蜘蛛抓取更多的页面,使网站有更好的排名。
(1)什么是蜘蛛
网络爬虫,又被称为网页蜘蛛、网络机器人,是指按照一定的规则,自动抓取互联网中网页的程序或者脚本。
(2)蜘蛛的工作方式
对于互联网中的网站来说,如果没有对其中的链接进行屏蔽设置,蜘蛛就可以通过链接在网站内或者网站间进行爬行和抓取。
由于互联网中的网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能抓取更多的页面。
最简单的爬行策略有两种:一种是深度优先,另一种是广度优先。
广度优先:是指蜘蛛会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。这是最常用的方式,因为这个方法可以让网络蜘蛛并行处理,提高其抓取速度。
深度优先:是指蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。
深度优先和广度优先通常是混合使用的。这样既可以照顾到尽量多的网站,也可以照顾到一部分网站的内页,同时也会考虑页面权重、网站规模、外链、更新等因素。而且搜索引擎为了提高爬行和抓取的速度。都是用多个蜘蛛并发分布爬行。
根据这一原理,在优化网站时,应该合理设置网站中的链接,便于蜘蛛更加顺利的爬行网站中的各个页面。
(3)认识种子站点
一些互联网中的网站被蜘蛛格外看重, 蜘蛛的爬行也往往以这些网站作为起始站点。通常情况下,这类站点具有一定的权威性和导航性,如新浪、hao123 等。这些具有权威性和导航性的网站称为种子站点。因此,在优化网站时,可以在种子站点中添加自己网站的链接,增加线 蛛抓取的入口。
(4)搜索引擎的收集机制
如蛛对于网站的取频率受网站更新周期的影响,若网站定期定量更新,那么,蜘蛛会规律进入网站中进行爬行和抓取。
蜘蛛每次爬行都会把页面数据存储起来,如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,多次抓取后蜘蛛会对页面更新频率有所了解。不常更新的页面,蜘蛛也就没有必要经常抓取。如果页面内容经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现的新链接,也自然会被统蛛更快地抓取。
因此,在优化网站时,应该定期定量地更新内容,增加网站被抓取的频率。
(5) 文件存储
视索引擎蜘蛛抓取的
网站制作页面存入原始数据库中。搜索引擎会对原始数据库中的页面进行相应的处。
本文标题:做SEO必须熟知的搜索引擎工作原理
当前URL:https://www.cdcxhl.com/news15/140915.html
成都网站建设公司_创新互联,为您提供建站公司、企业建站、域名注册、面包屑导航、网站维护、外贸建站
广告
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源:
创新互联