正确使用Robots写法进行SEO

2024-04-29    分类: 网站建设

在网上看到过一些文章,以前使用robots时都只是简单的禁止搜索引擎收录,其实如果你合理正确的使用robots,对网站SEO是有很大帮助的。
robots.txt基本介绍
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
当一个搜索蜘蛛(有的叫搜索机器人)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt文件,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
robots.txt写作语法
首先,我们来看一个robots.txt范例的具体内容如下:
#Robots.txtfilefromhttp://www.gxxx.cn
#Allrobotswillspiderthedomain
User-agent:*
Disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.gxxx.cn站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索蜘蛛的名称,后面如果是*,则泛指所有的搜索蜘蛛;Disallow:后面为不允许访问的文件目录。下面,我将列举一些robots.txt的具体用法:
robots.txt具体用法
1、允许所有的robot访问
User-agent:*
Disallow:
或者也可以建一个空文件“/robots.txt”file
2、禁止所有搜索引擎访问网站的任何部分
User-agent:*
Disallow:/
3、禁止所有搜索引擎访问网站的几个部分(下例中的aa、bb、cc目录)
User-agent:*
Disallow:/aa/
Disallow:/bb/
Disallow:/cc/
4、禁止某个搜索引擎的访问(下例中的BadBot)
User-agent:BadBot
Disallow:/
5、只允许某个搜索引擎的访问(下例中的Crawler)
User-agent:Crawler
Disallow:
User-agent:*
Disallow:/

分享名称:正确使用Robots写法进行SEO
当前链接:https://www.cdcxhl.com/news11/325811.html

成都网站建设公司_创新互联,为您提供全网营销推广网站导航企业建站品牌网站建设云服务器手机网站建设

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

微信小程序开发