现在,我们已经想知道了,爬行很重要,是不是花费更多的时间来管理抓取频次?您应该(或不应该)做很多事情来让搜索蜘蛛更多地消耗更多的网站页面,以下是最大化抓取频次功能的操作列方法:
1.确保重要页面可被抓取,并且如果在搜索中找到的内容不提供价值,则会被阻止。
.htaccess和robots.txt不应该阻止网站的重要页面,机器人应该能够访问CSS和Javascript文件,同时,您应该阻止不想在搜索中显示的内容,阻止网站的“正在建设中”的区域和动态生成的网址等。请记住,搜索引擎蜘蛛并不总是遵守robots.txt中包含的说明,你有没有在百度搜索结果中看过这样的片段?
Robots.txt并不保证网页不会显示在搜索结果中:百度仍然可以根据外部信息(如传入链接)决定它是相关的,如果您希望显式阻止某个页面被编入索引,则应该使用noindex漫游器元标记或X-Robots-Tag HTTP标题,在这种情况下,您不应该在robots.txt中禁止该页面,因为必须抓取该页面才能看到并遵守该标记。
2、避免长时间重定向链
如果网站上的连续301和302重定向数量不合理,则搜索蜘蛛将在某个时刻停止跟踪重定向,并且目标网页可能无法抓取,更重要的是,每个重定向的URL都会浪费您的抓取频次的“单元”,确保连续使用重定向不超过两次,并且只有在绝对必要时才使用重定向。
3.管理网址参数
有些内容管理系统会生成大量动态网址,实际上会导致同一页面,默认情况下,搜索引擎机器人会将这些URL视为单独的页面; 因此可能会浪费爬网频次,又可能会滋生内容重复问题。
4.查找并修复HTTP错误
百度抓取的任何网址(包括CSS和Java脚本)都会占用一个抓取频次单位,你不想在404或503页上浪费它,是吗?花一点时间来测试网站是否有任何损坏的链接或服务器错误,并尽快修复这些错误。
5.利用RSS
从我观察到的情况来看,RSS feed是百度蜘蛛访问量最高的页面之一,如果网站上的某个部分经常更新(博客,精选产品页面和新到达部分),请确保为其创建RSS源,请记住保持RSS源免受非规范,从索引或404页面被阻止。
6.保持网站地图整洁和最新
XML站点地图有助于提升爬行频次,他们会告诉搜索引擎关于网站内容的组织结构,并让搜索机器人更快地发现新内容,XML站点地图应定期更新并免于垃圾(4xx页面,非规范页面,重定向到其他页面的URL以及阻止索引的页面)。
7.管理网站结构和内部链接
虽然内部链接与抓取频次没有直接关系,但网站结构仍然是使搜索漫游器可发现内容的重要因素,逻辑树状网站的结构具有许多优点 – 例如用户体验以及访问者在网站上花费的时间 – 而改进的爬行绝对是其中之一。
一般来说,保持网站的重要区域距离任何页面不超过3次点击是最好的,在网站菜单或页脚中包含最重要的页面和类别,对于更大的网站,例如博客和电子商务网站,包含相关帖子/产品以及特色帖子/产品的版块可以将着陆页放在那里 – 对于用户和搜索引擎机器人都很有帮助。
正如你所看到的,搜索引擎优化并不全是关于’有价值的内容’和’高质量的链接’,当网站的前景看起来很精致时,可能是时候到地下室去做一些蜘蛛狩猎了 – 它肯定会在改善网站搜索性能方面创造奇迹。