2022-06-19 分类: 网站建设
robots.txt的作用是什么?在网站内部优化中有很多细节优化要注意,这些都不能忽视的,今天同样介绍一种seo入门教程当中的基础知识:如何设置robots.txt!要想把网站做好,做一个比较正规有权威的网站,robots文件是必不可少。
简单的说robots文件是搜索引擎蜘蛛爬取网页时要遵守的协议文件,这个文件是以记事本 txt 的形式保存在网站的根目录下。
与此同时我们还有了解一个个概念:robot:即搜索引擎蜘蛛。它是一种搜索引擎抓取网页内容的程序工具。
robots.txt这个文件是用来告诉搜索机器人不要爬行我们的部分网页,比如:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。这些页面或文件被搜索引擎收录了,用户也看不了,对用户没帮助,既浪费了服务器资源,又增加了服务器的压力,因此我们可以用robots.txt告诉机器人集中注意力去收录我们的文章页面。增强用户体验,减少服务器压力。
1. 几乎所有的搜索引擎 Spider 都遵循 robots.txt 给出的爬行规则,协议规定搜索引擎 Spider 进入某个网站的入口即是该网站的 robots.txt,当然,前提是该网站存在此文件。对于没有配置robots.txt 的网站,Spider 将会被重定向至404 错误页面,相关研究表明,如果网站采用了自定义的 404 错误页面,那么 Spider 将会把其视作 robots.txt——虽然其并非一个纯粹的文本文件——这将给 Spider 索引网站带来很大的困扰,影响搜索引擎对网站页面的收录。
2. robots.txt 可以制止不必要的搜索引擎占用服务器的宝贵带宽,如 email retrievers,这类搜索引擎对大多数网站是没有意义的;再如 image strippers,对于大多数非图形类网站来说其也没有太大意义,但却耗用大量带宽。
3. robots.txt 可以制止搜索引擎对非公开页面的爬行与索引,如网站的后台程序、管理程序,事实上,对于某些在运行中产生临时页面的网站来说,如果未配置 robots.txt,搜索引擎甚至会索引那些临时文件。
4. 对于内容丰富、存在很多页面的网站来说,配置 robots.txt 的意义更为重大,因为很多时候其会遭遇到搜索引擎 Spider 给予网站的巨大压力:洪水般的 Spider 访问,如果不加控制,甚至会影响网站的正常访问。
5. 同样地,如果网站内存在重复内容,使用 robots.txt 限制部分页面不被搜索引擎索引和收录,可以避免网站受到搜索引擎关于 duplicate content 的惩罚,保证网站的排名不受影响。
新闻名称:robots.txt的作用是什么?
URL分享:https://www.cdcxhl.com/news/169291.html
成都网站建设公司_创新互联,为您提供品牌网站制作、网站导航、定制开发、关键词优化、做网站、微信小程序
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联
猜你还喜欢下面的内容