SEO人员,如何用恶意“蜘蛛”隐藏

2014-01-25    分类: 网站建设

在SEO过程中,你是否遇到过这样的问题:服务器访问的CPU利用率接近100%,页面加载速度特别慢,似乎受到了DDoS的攻击。

经过回顾,我发现原来的目标网站经常被大量无关的“爬虫”抓走,这对一个小网站来说可能是一场灾难。

因此,在进行网站优化时,我们需要有选择地引导特定的蜘蛛。

根据以往SEO经验分享技术将描述如下:

对于国内的小伙伴来说,我们都知道在SEO的过程中,我们面对的最常见的爬虫是搜索引擎的爬虫,比如百度蜘蛛,还有各种搜索引擎的蜘蛛,比如:

① 360Spider、Sogoupider、Bytespider

② Googlebot、Bingbot、Slurp、Teoma、iau archiver、twiceler、MSNBot

此时,我们需要做出有选择性、合理的指导,特别是一些尴尬的问题,比如:你希望谷歌减少对网站的爬网,但不能完全屏蔽它,你可能需要一些提示,比如:对于具体的爬网访问,反馈不同的文章列表:

③ 善意的“蜘蛛陷阱”,比如flash

④ 如何调整对方的SEO管理平台?您可以调整抓取注释并适当调整它们

虽然这样的策略很可能会对页面声誉造成损害,但我可以想出一个相对“有效”的方法,合理控制那些不想频繁爬行但需要不断爬行的蜘蛛的爬行。

从目前来看,一个SEO外部链分析管理工具需要每天花费大量的服务器资源来抓取和检测每个网站的页面链接。

对于一些资源密集型的网站来说,每天爬行数千次是可能的,这种爬行动物很常见。

如果你不想让自己的网站参与其中,最简单的策略是在robots协议中完全关闭此类爬虫程序。

但当我们面对一些恶意的内容收集爬虫时,就相对尴尬了。另一方经常采用“看不见”的状态,比如:模拟一个著名搜索引擎蜘蛛的名字。

要解决这个问题,只能手工判断对方庐山的真伪,比如:使用IP pan解析命令判断真伪。

① Linux平台:hostip

② Windows平台:nskupip

从而确定对方的解析地址是否为相应的搜索引擎域名。

目前,市面上有很多人做百度蜘蛛池,其主要目的是协助更多的页面做百度快速收录,但由于一些随意下载蜘蛛池的程序设计不规范。

由于没有对不同的蜘蛛进行合理的抓取和限制,服务器资源经常被服务提供商占用,很容易被关闭。

如果你试图使用这个策略来提高你的页面包含率,那么你可能需要更多的关注。(但我们不推荐)

总结:SEO工作是一项细致的工作,每一个策略都会影响到整个站点的运营状态,而以上内容只是一个分析,适用于中小站长,仅供参考!

新闻名称:SEO人员,如何用恶意“蜘蛛”隐藏
文章出自:https://www.cdcxhl.com/news/5717.html

成都网站建设公司_创新互联,为您提供手机网站建设自适应网站App开发网站营销搜索引擎优化标签优化

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

成都app开发公司