Robots.txt 是什么?

2015-08-05    分类: 网站建设

Robots.txt 是你穿告诉搜索机器人哪些页面你会喜欢他们不能够访问您的网站的文本 (而不是 html) 文件。 Robots.txt 是不是强制性的搜索引擎,但是搜索引擎一般遵守他们都问什么不该做。 务必要澄清 robots.txt 不从防止搜索引擎抓取您的网站 (即它是不一的防火墙或密码保护的一种) 的一种方法,您放置一个 robots.txt 文件的事实是有点像把一条注释"请不要输入"一个解锁的门 — — 上如不能防止小偷进来,但好人,将不打开门,然后输入。 也就是为什么我们说是否真的有森 sitive 数据,是太依赖 robots.txt,以防止被索引,并显示在搜索结果的不完善。


robots.txt 的位置是非常重要的。 它必须是主目录中,因为否则用户代理 (搜索引擎) 不会能够找到它 — — 他们不中搜索名为 robots.txt 的文件的整个站点。 相反,他们首先主目录 (如 http://mydomain.com/robots.txt) 中查找和他们那里找不到它,如果他们只是假定此站点没有 robots.txt 文件,因此他们索引他们发现路上的一切。 因此,如果你不穿 robots.txt 中适当的位置,不要惊讶搜索引擎索引了您的整个站点。

概念与结构的 robots.txt 已发展了十多年前,如果您有兴趣进一步了解它,请访问 http://www.robotstxt.org/ 或因为这篇文章中,我们会处理只与一个 robots.txt 文件的最重要的环节,您可以转到 标准的机器人排除 直。 下一步我们会与结构继续 robots.txt 文件。

Robots.txt File 的结构
一个 robots.txt 的结构是相当简单 (和几乎不能灵活) – 它是用户代理和不允许的文件和目录的一个无穷列表。 基本上,语法如下所示:

用户代理:

不允许:

"用户代理" 是搜索引擎的抓取工具和 不允许: 列出的文件和要从索引中排除的目录。 在"用户代理:"和"不允许:"条目,您可以包含注释行 – 只是在行的开头放置,# 号:

# 所有用户代理不都允许以查看该 /temp 目录。

用户代理: *

不允许: /temp/

Robots.txt File 的陷阱
当你开始做复杂的文件 – 即您决定允许不同的用户代理访问不同的目录 – 可以开始问题,如果你没有支付费用的 robots.txt 文件陷阱,特别重视。 常见的错误包括打字错误和有冲突的指令。 拼写错误的用户-代理后用户代理和 Disallow,, 缺少冒号的目录包括拼写错误等。 打字错误可以很难找到,但在某些情况下验证工具的帮助。

更严重的问题是有逻辑错误。 例如:

用户代理: *

不允许: /temp/

用户代理: Googlebot

不允许: /images/

不允许: /temp/

不允许: /cgi-bin /

上面的示例中是一个允许访问除在 /temp 站点上的所有内容的所有代理的 robots.txt 从目录。 达在这里很好,但更高版本在那里是另一个记录,为 Googlebot 指定限制性更强的条款。 Googlebot 开始读取 robots.txt,它会看到所有文件夹除外/temp/并都允许的 (包括 Googlebot 本身) 的所有用户代理。 这是足够的了解,它不会读到文件和一切除了 /temp/-包括 /images/ 和 /cgi-bin,会索引 /,你认为你已经告诉它不要 Googlebot。 你看到一个 robots.txt 文件结构的简单但仍严重的错误可以方便地进行。

用于生成和验证 Robots.txt 文件工具
记住,你可以有一个 robots.txt 文件的简单语法,您可以始终阅读这一切都是可以的但它是更易于使用验证程序类似这样: http://tool.motoricerca.info/robots-checker.phtml。 这些工具报告有关常见的错误,如缺少斜杠或冒号,检测不到的如该会危及你的努力。 为例如果您键入:

user-agent: *

不允许: /temp/

这是错误的因为有"用户"和"代理"之间没有斜杠和语法不正确。

在这种情况下当您有一个复杂的 robots.txt 文件 – 即你给不同的用户代理的不同指令或您有一长串的目录和子目录中排除,编写文件手动可以一个真正的痛苦。 但不用担心,— — 有的工具,将为您生成该文件。 什么是更多有允许选择哪些文件,并点的可视化工具,是要排除的文件夹。 即使你不喜欢为 robots.txt 代买一个图形化的工具,但在在线工具为您提供帮助。 为例 服务器端机器人发电机 提供的用户代理的下拉列表,您可以列出文件的文本框,您不希望建立索引。 坦白的说,它不好帮了除非您想要设置特定的规则,为不同的搜索引擎,因为在任何情况下,您键入的目录列表,但不只是什么。

本文由网站建设公司创新互联发布,转载请注明文章出处!

网页名称:Robots.txt 是什么?
文章分享:https://www.cdcxhl.com/news/14736.html

成都网站建设公司_创新互联,为您提供网站维护用户体验响应式网站品牌网站制作ChatGPTApp设计

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

h5响应式网站建设