首页 >  SEO >  SEO知识 >  正文

内容防抓取原创保护的方法

 作者:潘某人SEO
507

​站点的内容经常被恶意采集爬取,辛辛苦苦码的原创内容被人轻而易举的强取豪夺,被采集可以说是另站长们最痛疼的事情之一了,今天潘某人SEO就与大家分享若干方法,期望可以对大家有帮助。

抓取采集的特点

首先我们需要总结出采集抓取行为的特点才能更好的对症下药。恶意采集的危害极大,站点必须快去识别并封禁。采集行为的主要特别潘某人SEO认为主要的特征有:

  • 同ip短时间内大量访问网站资源
  • 同ip网段爬取爬取网站资源,各个ip爬取的量不大,容易被忽视
  • 能够访问人眼无法看到的链接入口
  • 页面停留时间短,无页面操作

鉴别异常ip

学会如何鉴别异常ip就可以组织大部分的采集抓取行为,但是这里有个重点,也是需要我们谨慎处理的,那就是区分开搜索引擎和恶意爬虫。
在技术上搜索引擎和采集爬取的恶意行为都是通过爬虫进行的,如果不做好鉴别容易对搜索引擎完成误伤导致对SEO优化产生影响。

建立ip白名单

需要建立ip白名单,在此名单的ip需要不受任何约束的可以访问站点的资源。而这类ip指的是站点需要优化的搜索引擎的爬取ip地址。
大家可以通过官方发布的爬虫ip网段进行添加,但是这种方法无法获取到搜索的ip,甚至有的搜索引擎是没有公布爬虫的ip网段。但这也是有解决方案的,可以在后端添加一个ua获取的功能,通过获取访问者客户端的request信息的user-agent,去匹配各大搜索引擎公布的搜索引擎的UA,将符合的ip添加相关记录到网站后台。
内容防抓取原创保护的方法
经过半个月的爬取,搜索引擎蜘蛛的所有的网段几乎都会访问过站点。但是需要考虑到很多恶意蜘蛛会仿冒搜索引擎蜘蛛的ua,因此这些ip需要人工去确认真实性,可以通过官方提供的ip反查方式去确认,确保加入白名单的ip网段是正确的。

截获异常请求方法

对于正常的用户通过浏览器网页访问只能发起get请求,搜索引擎蜘蛛也只会发起get请求。因此,只要是正常的网页有ip发起非get请求的,应该对其直接禁封。很多恶意蜘蛛或者是攻击者为了效率,会先发送head请求来确认页面的可访问性。
经过以上的处理,基本可以鉴别出真假蜘蛛ip,一旦建立了完整的白名单之后,就可以正式开始布局,当然搜索引擎的网段有一定程度会有变化,所以要定期维护好ip白名单。

蜜罐布置

上面讲到了爬虫和人的访问行为特点上有区别的,我们可以给页面上添加一点蜜罐也就是陷阱,去等爬虫掉入我们布置的陷阱残酷身份。
方法很简单,只要在高频关键页面比如页面的foot位置,或者选择一个可以被大多数页面都加载到的位置添加一个像素大小为0的div并且放置一个入口链接,并且位置不容易点击的。对于正常用户,不可能看到,也就不可能点击访问到,也就是说访问此页面的必然是爬虫,一旦识别并且不是白名单直接秒封ip,为了后期维护的方便最高添加上后台记录,方便筛查。

人工采集的屏蔽

这种的危害不是很大,不一定要去做屏蔽,如果要屏蔽也有很简单的做法,常见的方法有屏蔽页面的复制功能,但只能屏蔽掉小白。一但打开调试窗口,或者禁用js就无法起到效果。
不如大方点允许去复制,但是在页面添加复制触发一个统计事件,向后端发送客户端复制内容的字数,以及在当前ip下在多个个页面进行的复制了操作,适当的允许复制有利于提升用户体验。当复制行为触发预设值直接屏蔽ip。

今天分享就到这里了,后面有更好的方法在做分享。

申明:以上内容仅代表个人观点,仅供学习参考 本站图片来源于站点原创或CC0协议图库站点或已获得VRF授权的图库站点 版权申明:本文为博主原创,未经授权任何个人或组织单位不得复制、转载、摘编以及其它形式的应用! 本文地址:https://www.chateach.com/seo/seozhishi/986baohu
相关文章
  • 百度spider抓取频次原则及调整方法

    百度spider,抓取频次

    Baiduspider根据上述网站设置的协议对站点页面进行抓取,但是不可能做到对所有站点一视同仁,会综合考虑站点实际情况确定一个抓取配额,每天定量抓取站点内容,即我们常说的抓取频次。那么百度搜索引擎是根据什么指标来确定对一个网站的抓取频次的呢?

    258
    • 百度spider
    • 抓取频次
  • 造成百度spider抓取异常的原因

    百度spider,抓取

    有一些网页,内容优质,用户也可以正常访问,但是Baiduspider却无法正常访问并抓取,造成搜索结果覆盖率缺失,对百度搜索引擎对站点都是一种损失,百度把这种情况叫“抓取异常”。对于大量内容无法正常抓取的网站,百度搜索引擎会认为网站存在用户体验上的缺陷,并降低对网站的评价,在抓取、索引、排序上都会受到一定程度的负面影响,最终影响到网站从百度获取的流量。

    252
    • 百度spider
    • 抓取
  • ChatGPT将革新搜索引擎跨入新时代

    ChatGPT,搜索引擎发展

    ​ChatGPT的发布代表着人工智能技术开启了新篇章,不少人开始纷纷感受到了恐惧,在不久的将来被ChatGPT所淘汰,这个就让我们拭目以待吧。作为SEO从业者,最关注的还是ChatGPT会对搜索引擎的发展带来何种影响呢?

    671
    • ChatGPT
    • 搜索引擎发展
  • 仿站相似站会对SEO有影响吗

    仿站SEO

    仿站或者类似结构站点会对SEO有影响吗?如何去搭建网站才能更加利于站点的seo优化呢?仿站对于网站优化的利弊有哪些呢?

    483
    • 仿站SEO
  • TDK标签优化的技巧

    TDK标签,TDK优化

    什么是TDK,网站关键词、标签、描述还重要吗?TDK该怎么写呢?

    1161
    • TDK标签
    • TDK优化
  • 索引量和收录量的区别

    关系区别,收录量,索引量

    索引量和收录量的很容易混淆认清两者的关系对于网站优化十分的有帮助,分析索引量和收录量的数据可以及时的发现网站的问题。

    2147
    • 关系区别
    • 收录量
    • 索引量
  • 百度如何提交链接,快速收录

    seo链接提交,如何加快收录

    百度的4种链接提交方式的介绍,他们之间的区别,以及各自的特点,对于seo优化用哪一种提交方式可以花更少的时间,但是可以获得更快的收录速度,提高推送效率,增加网站的收录总数。

    7508
    • seo链接提交
    • 如何加快收录
  • 智能小程序对seo效果那么好,为什么做的人还是很少

    智能小程序,seo优化

    站点开通智能小程序可以有机会获得站点logo权限、快速收录等权限,对于seo优化有着非常好的帮助。即使如此智能小程序的普及并不高,大家知道这是为什么吗?

    516
    • 智能小程序
    • seo优化
  • SEO前景如何,能干一辈子吗?

    SEO前景

    是SEO走向落寞了吗?​现在越来越多的人开始选择放弃seo,而去选择短视频新媒体等推广引流方式,不知大家如何看待这一现象呢?今天潘某人SEO来分享下对于SEO发现前景的看法,希望对你有帮助!

    1118
    • SEO前景
  • 域名泛解析对SEO优化的影响

    SEO泛域名解析

    域名泛解析对SEO优化的影响?泛解析一般是指很多二级域名都可以去访问我们的主站,搜索引擎一旦爬取这些域名,肯定是会现大量重复内容,这是毫无疑问;重复内容过多对网站优化肯定是不好的,因为可以做一些设置。

    2381
    • SEO泛域名解析
  • SEO优化岗位如何考核

    SEO如何考核

    SEO优化岗位如何考核?SEO优化对于网站推广的重要度越来越高,一方面是因为SEM推广的竞争度越来越高,并且关键词的价格也在不断的增长。越来越多的公司都开始设立了SEO优化推广这个岗位。

    1919
    • SEO如何考核
  • 360不收录的原因

    360不收录如何解决

    相信很多的seo们遇到过这个问题,就是百度的收录很正常,排名也还可以,但是360可能连首页都不收录,或者是只收录一个首页,新站和老站都会出现这个问题,那么到底是什么原因造成的呢?如何解决360不收录的问题呢?

    1365
    • 360不收录如何解决
  • 百度spider对新链接重要程度判断

    百度spider

    影响Baiduspider正常抓取的原因,下面就要说说Baiduspider的一些判断原则了。在建库环节前,Baiduspider会对页面进行初步内容分析和链接分析,通过内容分析决定该网页是否需要建索引库,通过链接分析发现更多网页,再对更多网页进行抓取——分析——是否建库&发现新链接的流程。

    216
    • 百度spider
  • 死链的正确处理方式,自动化提交,超详细全面教程!

    死链提交,搜索引擎,蜘蛛

    死链提交是SEO优化中常见的一环,但是你处理死链的方式真的正确吗?分享一份详尽的死链处理方案教程。及如何实现全自动死链提交。

    122
    • 死链提交
    • 搜索引擎
    • 蜘蛛
  • SEO优化内容很重要

    SEO内容优化重要性

    SEO优化内容很重要,大部分注重的都是表面的优化,其实内容优化也是非常要重要的,经典名句“内容为王,外链为皇”,好的内容优化完全可以提高搜索排名!

    1037
    • SEO内容优化重要性
  • 百度绿萝算法打击哪些行为

    绿萝算法

    百度绿萝算法解读,绿萝算法是一种为了打击通过买卖链接干扰搜索引擎算法获得排名的行为而设计的,主要为了保证搜索排名的公平性,保护真正有价值内容获得更高的流量,保障了搜索引擎生态的健康发展。

    1388
    • 绿萝算法
  • 网站排名一直掉,从这几个方面排查

    网站排名一直掉

    无论你的公司规模多大,你在搜索引擎上的一些不恰当的SEO手法,都可能会受到处罚,从而影响你的搜索排名。例如,百度、360搜索甚至会在搜索结果中完全删除你网站的页面。因此,你要避免受到惩罚,避免失去搜索流量。以下是一些简单的SEO方法,可以避免你犯错误,这些错误有可能会让你的排名全无。

    2221
    • 网站排名一直掉
  • 索引量并不能决定流量大小

    索引量

    很多人认为对于网站优化提升索引数量就可以快速的提升网站的流量,因此对于索引的增加情况十分的关注,整体的精力也是放在如何快速大量增加索引数据。

    1045
    • 索引量
-- 这已经是底线了,看看别的把! --