热搜:NVER node 开发 php

我是怎么处理其他网站恶意爬虫的,希望大家喜欢(第二弹)_html/css_WEB-ITnose

2024-11-16 20:40:01
我是怎么处理其他网站恶意爬虫的,希望大家喜欢(第二弹)_html/css_WEB-ITnose

文章是哥(mephisto)写的,SourceLink

阅读目录

  • 介绍
  • 现象
  • 版权处理升级
  • 文章是哥(mephisto)写的,SourceLink

     

    介绍

      上次写了一篇我是怎么处理其他网站恶意爬虫博客园的,希望大家喜欢,然后大家回复积极,对于我也是一个鼓励,针对上次还有个网站过滤掉了我的版权说明,在这一次却没有过滤掉,是不是有点小高兴,来吧,小伙伴们,我们一起高兴下吧。

    现象

     就对我今天下午发布的一篇随笔进行分析(其实昨天下午就发了,但是测试疏忽,到时结果有问题,被好心的博友指出后,就删掉,晚上继续回去赶工了的,到晚上12点才睡觉)。

    Bing搜索情况:

     

      我们就对这个4个网站点击进去看下效果。

     

     

    --------------------------------------

       

    -------------------------------------

     

    -------------------------------------

    --------------------------------

      其中最后一个是上次逃脱我们的圈套了的,在广大博友的集体智慧下,我想出了个比较简单,方便的处理方式,这次,他就没有过滤掉了,表示欣慰。

    版权处理升级

      在原有的基础上:如没看第一弹,这里给个链接,轻戳。

      我们这里升级了。

      第一:为了避免因为div中有博客园中这几个字而整个div被干掉,俺又定义了个人的版权说明,并加入了博客链接(但是由于疏忽,博客链接忘记挂上去,所以只有个空字)。

      就是重新定义一个版权的div,然后把个人版权信息放进去,这样就算过滤整体的,我还有个人的,爬网的网站不会这么无聊针对每一个人吧,事实证明他们确实没有这样做,所以,简单的处理也是有效果的。

      第二:放大招了,图片加水印,目前图方便找了个没破解的水印工具,这样一目了然,大家一看就知道出处了。

    看下效果图吧:

      

      (先是用红色的水印,今天的图都是黄色水印)

      总结:我们处理问题,想到了就要去试试。大家的建议,也应该去试试,并且分享出来,这样大家都有帮助,对自己的提高也很大,我们还不老,要保持一颗进步的心。不早了,又23点了。该睡了。

     

    文章是哥(mephisto)写的,SourceLink