最近发现手上有个站点访问速度非常慢,看了nginx 日志发现有好多宜搜等垃圾的抓取记录,这些垃圾爬虫既不遵守 robots 规则对服务器造成压力,还不能为网站带来流量的无用爬虫,于是从网络上整理收集了各种禁止垃圾蜘蛛爬站的方法,留做记录,以备不时之需。
Apache
1、通过修改 .htaccess 文件
修改网站目录下的.htaccess
,添加如下代码即可(2 种代码任选):
可用代码(1)
RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} (^$|FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|DotBot|Ezooms) [NC]
RewriteRule ^(.*)$ - [F]
可用代码(2)
SetEnvIfNoCase ^User-Agent$ .*(FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|DotBot|Ezooms) BADBOT
Order Allow,Deny
Allow from all
Deny from env=BADBOT
可用代码(3)
如果以上两种方式会导致500错误,可以使用下面的代码。
setEnvIfNoCase User-Agent "^$" bad_bot
setEnvIfNoCase User-Agent "^FeedDemon" bad_bot
setEnvIfNoCase User-Agent "^Indy Library" bad_bot
setEnvIfNoCase User-Agent "^Alex Toolbar" bad_bot
setEnvIfNoCase User-Agent "^AskTbFXTV" bad_bot
setEnvIfNoCase User-Agent "^AhrefsBot" bad_bot
setEnvIfNoCase User-Agent "^CrawlDaddy" bad_bot
setEnvIfNoCase User-Agent "^CoolpadWebkit" bad_bot
setEnvIfNoCase User-Agent "^Java" bad_bot
setEnvIfNoCase User-Agent "^Feedly" bad_bot
setEnvIfNoCase User-Agent "^UniversalFeedParser" bad_bot
setEnvIfNoCase User-Agent "^ApacheBench" bad_bot
setEnvIfNoCase User-Agent "^Microsoft URL Control" bad_bot
setEnvIfNoCase User-Agent "^Swiftbot" bad_bot
setEnvIfNoCase User-Agent "^ZmEu" bad_bot
setEnvIfNoCase User-Agent "^oBot" bad_bot
setEnvIfNoCase User-Agent "^jaunty" bad_bot
setEnvIfNoCase User-Agent "^Python-urllib" bad_bot
setEnvIfNoCase User-Agent "^lightDeckReports Bot" bad_bot
setEnvIfNoCase User-Agent "^YYSpider" bad_bot
setEnvIfNoCase User-Agent "^DigExt" bad_bot
setEnvIfNoCase User-Agent "^HttpClient" bad_bot
setEnvIfNoCase User-Agent "^MJ12bot" bad_bot
setEnvIfNoCase User-Agent "^heritrix" bad_bot
setEnvIfNoCase User-Agent "^EasouSpider" bad_bot
setEnvIfNoCase User-Agent "^DotBot" bad_bot
setEnvIfNoCase User-Agent "^Ezooms" bad_bot
Deny from env=bad_bot
2、通过修改 httpd.conf 配置文件
找到如下类似位置,根据以下代码 新增 / 修改,然后重启 Apache 即可:
DocumentRoot /home/wwwroot/xxx
<Directory "/home/wwwroot/xxx">
SetEnvIfNoCase User-Agent ".*(FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|DotBot|Ezooms)" BADBOT
Order allow,deny
Allow from all
deny from env=BADBOT
</Directory>
Nginx
进入到 nginx 安装目录下的 conf
目录,将如下代码保存为 agent_deny.conf
cd /usr/local/nginx/conf
vim agent_deny.conf
复制下面的代码并保存
#禁止Scrapy等工具的抓取
if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {
return 403;
}
#禁止指定UA及UA为空的访问
if ($http_user_agent ~* "FeedDemon|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|HttpClient|MJ12bot|heritrix|EasouSpider|DotBot|Ezooms|^$" ) {
return 403;
}
#禁止非GET|HEAD|POST方式的抓取
if ($request_method !~ ^(GET|HEAD|POST)$) {
return 403;
}
然后,在网站相关配置中的 location / {
之后插入如下代码:
[marsge@Mars_Server ~]$ cat /usr/local/nginx/conf/gowah.conf
location / {
try_files $uri $uri/ /index.php?$args;
#这个位置新增1行:
include agent_deny.conf;
rewrite ^/sitemap_360_sp.txt$ /sitemap_360_sp.php last;
rewrite ^/sitemap_baidu_sp.xml$ /sitemap_baidu_sp.php last;
rewrite ^/sitemap_m.xml$ /sitemap_m.php last;
使用:wq
保存后,执行如下命令,平滑重启 nginx 即可:
/usr/local/nginx/sbin/nginx -s reload
PHP
将如下方法放到贴到网站入口文件 index.php 中的第一个 <?php
之后即可:
//获取UA信息
$ua = $_SERVER['HTTP_USER_AGENT'];
//将恶意USER_AGENT存入数组
$now_ua = array('FeedDemon ','BOT/0.1 (BOT for JCE)','CrawlDaddy ','Java','Feedly','UniversalFeedParser','ApacheBench','Swiftbot','ZmEu','Indy Library','oBot','jaunty','YandexBot','AhrefsBot','MJ12bot','WinHttp','EasouSpider','HttpClient','Microsoft URL Control','YYSpider','jaunty','Python-urllib','DotBot','lightDeckReports Bot');
//禁止空USER_AGENT,dedecms等主流采集程序都是空USER_AGENT,部分sql注入工具也是空USER_AGENT
if(!$ua) {
header("Content-type: text/html; charset=utf-8");
die('请勿采集本站,因为采集的站长木有小JJ!');
}else{
foreach($now_ua as $value )
//判断是否是数组中存在的UA
if(eregi($value,$ua)) {
header("Content-type: text/html; charset=utf-8");
die('请勿采集本站,因为采集的站长木有小JJ!');
}
}
测试效果
如果是 vps,那非常简单,使用 curl -A
模拟抓取即可,例如模拟 Swiftbot 蜘蛛抓取:
curl -I -A 'Swiftbot' moewah.com
模拟 UA 为空的抓取:
curl -I -A '' moewah.com
模拟百度蜘蛛的抓取:
curl -I -A 'Baiduspider' moewah.com
如果 Swiftbot 和 UA 为空的返回代码为403,而百度蜘蛛成功返回代码200,说明配置成功生效。
垃圾UA收集
FeedDemon 内容采集
BOT/0.1 (BOT for JCE) sql注入
CrawlDaddy sql注入
Java 内容采集
Jullo 内容采集
Feedly 内容采集
UniversalFeedParser 内容采集
ApacheBench cc攻击器
Swiftbot 无用爬虫
YandexBot 无用爬虫
AhrefsBot 无用爬虫
YisouSpider 无用爬虫(已被UC神马搜索收购,此蜘蛛可以放开!)
MJ12bot 无用爬虫
ZmEu phpmyadmin 漏洞扫描
WinHttp 采集cc攻击
EasouSpider 无用爬虫
HttpClient tcp攻击
Microsoft URL Control 扫描
YYSpider 无用爬虫
jaunty wordpress爆破扫描器
oBot 无用爬虫
Python-urllib 内容采集
Indy Library 扫描
FlightDeckReports Bot 无用爬虫
Linguee Bot 无用爬虫
DotBot 无用爬虫(国外SEO爬虫)
参考网站
问说:http://www.uedsc.com/acquisition.html
浩海:http://www.it300.com/article-15358.html
夜空:http://blog.slogra.com/post-135.html
张戈:https://zhangge.net/4458.html
相关推荐
- ngx_waf:一款高大全的 Nginx 网站防火墙模块
- Typecho 启用 Service Workers 浏览器缓存加速首屏访问
- LNMP 编译安装 ngx_pagespeed 模块给网站提速!
- 隐藏图片如何禁止加载?display none与图片加载的关系
- 群晖NAS | PHP如何添加Acpu/Redis/Memcached等扩展?
- 关于搜索引擎爬虫抓取页面的两大规则(抓取策略图解)
文章作者:喵斯基部落
原文地址:https://www.moewah.com/archives/12.html
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。非商业转载及引用请注明出处(作者、原文链接),商业转载请联系作者获得授权。