首页 >  SEO >  SEO知识 >  正文

巧用Robots避免蜘蛛黑洞

 作者:潘某人SEO
734

搜索引擎的蜘蛛黑洞指的是搜索引擎蜘蛛在抓取站点内容的时候出现了大量雷同内容的url,导致搜索引擎蜘蛛一直被困在无限的循环中,如黑洞一般。直接的结果就会导致消耗大量的抓取资源。

​对于站点来说,每天的抓取额度是有限的,尤其是对于抓取量偏低的站点,则应该更要重视蜘蛛黑洞的出现,要实现高质量内容的优先抓取。长期的蜘蛛黑洞对于站点的收录是非常不利的,轻则影响站点的收录,重则会导致搜索引擎引擎因为有价值内容抓取不到而调低抓取频次。

常见的蜘蛛黑洞

蜘蛛黑洞的主要特征,页面内容相似,或者蜘蛛抓取页面链接会继续进入相类似页面。通常出现在页面的搜索或者筛选页面。

搜索页面当搜索词相近的时候页面的内容是高度重复,而对于站点是无法控制用户不去搜索相似关键词。另外很多站点会有筛选的功能,比如列表页存在通过筛选条件去对页面内容进行筛选,这种情况是最糟糕的,页面内容是在相同的内容中取出不过相同结果的内容,并且url是相同的只是参数不一样。

# 举例有一个列表页面的链接是,内容是seo相关的
https://www.chateach.com/seo
# 当用户筛选,seo相关的算法
https://www.chateach.com/seo?type=seo算法
1
2
3
4

如上所示的,不管是搜索页面还是页面的筛选,对于相同的页面进行结果的筛选的时候本质上是同一个地址,只是后面的参数不同 ,而对于搜索引擎url带有不同的参数也是作为不同的url内容来抓去对待的。如果当这类页面足够多,搜索引擎便会抓取大量此类页面,抓取获得的内容基本都是相似的。

如何避免蜘蛛黑洞

解决蜘蛛黑洞问题很简单,只需要在robots.txt文件中配置,禁止抓取带有参数的页面就可以实现了,但在实际中部分的带有参数页面也是存在一定价值的,但是这个就需要人工去筛选处理下。

# 屏蔽所有搜索引擎对于动态页面的抓取
User-agent: *
Disallow: /*?*
1
2
3

robots更新
对于排除对于这部分动态参数页面的屏蔽,但我更推荐还是屏蔽所有动态参数页面,将有价值的页面人工筛选之后生成独立的页面,如果可以将有价值的搜索结果页面作为tag页面去实现,这个可以根据自己站点情况灵活处理。

配置好robots文件之后,一般需要等待1周左右的时间生效,对于百度搜索引擎,可以进入站长搜索资源平台刚更新robots加速​规则的生效。

申明:本站内容仅代表个人观点,仅供学习参考;未经授权任何个人或组织单位不得复制、转载、摘编以及其它形式的应用! 本站文章可能使用到互联网上的资料,若对您造成困扰,请联系 kk19@foxmail.com除理 本文地址:https://www.chateach.com/seo/seozhishi/975robots
相关文章
  • robots文件有什么用

    robots有什么作用

    robots文件作用对于SEO优化不可忽视给i,可以有效提高网站内容的质量减少重复收录,保护隐私数据不被抓取!

    1610
    • robots有什么作用
  • robots文件里该不该加上sitemap地址

    robots里放sitemap

    robots文件里该不该加上sitemap地址,有种说法就是搜索引擎抓取一个网站首先会抓取robots文件,这样把sitemap地址写在robots文件里,这样搜索引擎可以地址直接的对网站地图进行抓取,可以加快链接收录的速度,真相并不是这样

    2186
    • robots里放sitemap
  • 巧用robots避免蜘蛛黑洞

    robots,蜘蛛黑洞

    今天我们来了解下什么是蜘蛛黑洞,黑洞大家应该有一定的了解,属于一种高质量高引力天体,包括光任何的物体都无法逃逸。蜘蛛黑洞既是蜘蛛进入之后无法再出来,对正常的抓取工作产生负面影响。

    1315
    • robots
    • 蜘蛛黑洞
  • SEO优化必须掌握的robots文件协议

    robots,SEO优化

    robots文件使用来申明网站哪些内容允许搜索引擎抓取,哪些内容禁止搜索引抓取的;正确的设置robots可以提升搜索引擎对网站的抓取效率,同时避免不必要的内容被抓取展现。但在实际运用中很多站点没有正确的使用robots导致了一些问题,今天潘某人SEO就为大家揭秘下robots的注意点。

    804
    • robots
    • SEO优化
  • robots协议不生效怎么处理

    robots

    为什么明明已经设正确设置的robots的屏蔽规则,但是就是不生效导致不该收录的内容被收录了呢?

    609
    • robots
  • 如何屏蔽某些页面的抓取,但是让页面中链接正常抓取

    meta标签屏蔽页面抓取

    如何屏蔽某些页面的抓取,但是让页面中链接正常抓取,对于这种情况,使用meta标签来进行屏蔽页面的抓取,可以变得更加的有效。相比常用的robots文件屏蔽,或者nofollow标签屏蔽的实用性更加的广。

    3103
    • meta标签屏蔽页面抓取
  • 优化新站一般多久出排名

    新站多久有排名

    做seo的应该都知道,网站优化是一个漫长的过程,seo见效的时间相对来说比较慢,当然我们也想seo的速度能够大大的提升,但是太快的话,被k站的几率也是大大的增加,那么一个正常的网站一般出排名应该是多久呢?下面我们来看看新站出排名的时间。

    1215
    • 新站多久有排名
  • 死链的正确处理方式,自动化提交,超详细全面教程!

    死链提交,搜索引擎,蜘蛛

    死链提交是SEO优化中常见的一环,但是你处理死链的方式真的正确吗?分享一份详尽的死链处理方案教程。及如何实现全自动死链提交。

    347
    • 死链提交
    • 搜索引擎
    • 蜘蛛
  • 索引量并不能决定流量大小

    索引量

    很多人认为对于网站优化提升索引数量就可以快速的提升网站的流量,因此对于索引的增加情况十分的关注,整体的精力也是放在如何快速大量增加索引数据。

    1147
    • 索引量
  • 如何利用页面热图提升转化效果

    页面热图,转化效果

    页面热图作为一种直观且强大的分析工具,能够帮助我们深入了解用户在页面上的行为模式,从而优化页面布局和设计,最终实现转化率的显著提升。今天潘某人SEO就分享一下如何利用页面热图提升转化效果。

    247
    • 页面热图
    • 转化效果
  • 如何快速提升关键词排名?

    提升关键词排名

    如何快速提升关键词排名?可以从流量冲击、时效性热点内容 、高质量外链、网站整体权重、交换一些友情链接,多角度同时进行有效快速提升关键词排名。

    1212
    • 提升关键词排名
  • 如何用domian命令查询网站反链数量

    domain命令如何使用,外链反链数如何查询

    很多人会使用domain指令去查询网站的外链数量,更有机构公司把domain值当作外链数量的考核标准,真的是十分荒谬,domian真正的作用是!

    4536
    • domain命令如何使用
    • 外链反链数如何查询
  • 网站页面更新对seo的影响

    页面更新的影响

    页面更新是网站优化中一个提升网站评级的重要因素,一个拥有良好更新频率的站点可以获得更好的排名优待。但是很多站点对于更新有一定的误解。

    769
    • 页面更新的影响
  • 何为百度快照劫持,如何避免?

    百度快照劫持

    百度快照劫持是利用黑客技术拿到了你的ftp,或者应用网站漏洞,来篡改网站的网页内容,主要的通过在网页中插入js代码实现跳转,而当你检查网站代码的时候很难发现问题所在,如果没有一定的技术水平的情况下。

    1034
    • 百度快照劫持
  • 网站seo如何正确设置基础信息

    seo,基础信息

    什么是搜索展现基础信息、标题设置规范、摘要设置规范、站点名设置规范、配图设置规范、时间因子设置规范以及网站内容设置注意事项,详细讲解如何正确设置基础信息。用户在百度搜索引擎中根据自身的搜索需求输入关键词,从得到的搜索结果中,筛选出符合需求的内容,产生点击行为。

    874
    • seo
    • 基础信息
  • 建站用老域名效果更好吗

    老域名建站

    建站用老域名效果更好吗?首先要知道重点住在与域名的年限,而是域名的质量,历史优化记录。并且老于是可与不求,虽然说会有一定的效果,但是你想获得的成本比你优化的投入更加大。

    1150
    • 老域名建站
  • seo网站收录不稳定是什么原因

    收录不稳定原因

    对于网站优化来说网站收录收录的稳定性有着极高的关注,毕竟收录对于网站关键排名来说是一个直接的基础保证,没有足够的收录量就无法保证流量的稳定的增加。但是在优化网站的时候我们经查遇到的情况是好不容易收录的内容,没有过多长时间又全部掉了。对于这种网站收录不稳定的原因有哪些,这里列出一些主要的可能的原因。

    847
    • 收录不稳定原因
-- 这已经是底线了,看看别的把! --