欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

nginx or apache前端禁收录,爬虫,抓取

程序员文章站 2024-01-17 23:46:16
...

一、Nginx 规则

直接在 server  中新增如下规则即可:

Ps:就是将上述代码中“新增规则【开始】”到“新增规则【结束】”内容添加到我们网站的 Nginx 配置-- server 模块 中的 root 指令之后即可。

二、 Apache规则

Apache 测试了半天总是500错误,暂时先放弃了,有时间再来调整!

我自己测试写的规则如下,感兴趣的朋友可以自行测试看看,也许是我环境的问题。

Ps:大概思路和Nginx一致,既匹配了蜘蛛UA,又匹配了禁止关键词的抓取,直接返回403(如何返回404,有知道的朋友请留言告知下,测试成功的朋友也敬请分享一下代码,我实在没时间折腾了。)

三、PHP代码版

使用很简单,将上述PHP代码添加到主题目录下放 functions.php 当中即可。

四、测试效果

测试效果很简单,直接利用百度站长平台的抓取诊断工具即可:

nginx or apache前端禁收录,爬虫,抓取
            
    
    博客分类: 前端负载、开发、db nginx apache 收录爬虫抓取 

 

点开看看可以发现真的是返回404:

nginx or apache前端禁收录,爬虫,抓取
            
    
    博客分类: 前端负载、开发、db nginx apache 收录爬虫抓取 

最后,结合张戈博客之前分享的《SEO技巧:Shell脚本自动提交网站404死链到搜索引擎》即可将这些无用的收录全部删除:

nginx or apache前端禁收录,爬虫,抓取
            
    
    博客分类: 前端负载、开发、db nginx apache 收录爬虫抓取 

有朋友说我这个是黑帽手法,用户可以访问,而搜索引擎却404,很适合淘宝客网站的商品外链。是什么手法我不清楚,我只知道实用就好!特别是张戈博 客那些外链,都是用/go?url=这个路径来跳转的,现在这样处理后,就算搜索引擎不遵循robots硬是要抓取,就只能抓到404了!

转自张戈的博客