Categories


Tags


apache、iis6、ii7独立ip主机屏蔽拦截蜘蛛抓取(适用vps云主机服务器)

如果是正常的搜索引擎蜘蛛访问,不建议对蜘蛛进行禁止,否则网站在百度等搜索引擎中的收录和排名将会丢失,造成客户流失等损失。可以优先考虑升级虚拟主机型号以获得更多的流量或升级为云服务器(不限流量)。更多详情请访问: http://www.west.cn/faq/list.asp?unid=626

1. 使用网站管理助手环境:http://www.west.cn/faq/list.asp?unid=650 参考此说明启用设置伪静态组件

2.  windows2003+iis手工建站环境:http://www.west.cn/faq/list.asp?unid=639 参考此说明加载伪静态组件

3.  然后在配置文件中按以下系统规则配置

Linux下 规则文件.htaccess(手工创建.htaccess文件到站点根目录)

<IfModule mod_rewrite.c>

RewriteEngine On

#Block spider

RewriteCond %{HTTP_USER_AGENT}   "SemrushBot|Webdup|AcoonBot|AhrefsBot|Ezooms|EdisterBot|EC2LinkFinder|jikespider|Purebot|MJ12bot|WangIDSpider|WBSearchBot|Wotbox|xbfMozilla|Yottaa|YandexBot|Jorgee|SWEBot|spbot|TurnitinBot-Agent|mail.RU|curl|perl|Python|Wget|Xenu|ZmEu"   [NC]

RewriteRule !(^robots\.txt$) - [F]

</IfModule>

windows2003下 规则文件httpd.conf

#Block spider

RewriteCond %{HTTP_USER_AGENT}   (SemrushBot|Webdup|AcoonBot|AhrefsBot|Ezooms|EdisterBot|EC2LinkFinder|jikespider|Purebot|MJ12bot|WangIDSpider|WBSearchBot|Wotbox|xbfMozilla|Yottaa|YandexBot|Jorgee|SWEBot|spbot|TurnitinBot-Agent|mail.RU|curl|perl|Python|Wget|Xenu|ZmEu)   [NC]

RewriteRule !(^/robots.txt$) - [F]

windows2008下 web.config

<?xml version="1.0" encoding="UTF-8"?>

<configuration>

<system.webServer>

<rewrite>

<rules>

<rule name="Block spider">

<match url="(^robots.txt$)"   ignoreCase="false" negate="true" />

<conditions>

<add   input="{HTTP_USER_AGENT}"   pattern="SemrushBot|Webdup|AcoonBot|AhrefsBot|Ezooms|EdisterBot|EC2LinkFinder|jikespider|Purebot|MJ12bot|WangIDSpider|WBSearchBot|Wotbox|xbfMozilla|Yottaa|YandexBot|Jorgee|SWEBot|spbot|TurnitinBot-Agent|curl|perl|Python|Wget|Xenu|ZmEu"   ignoreCase="true" />

</conditions>

<action   type="AbortRequest" />

</rule>

</rules>

</rewrite>

</system.webServer>

</configuration>

Nginx对应屏蔽规则

代码需添加到对应站点配置文件server段内

if ($http_user_agent ~ "Bytespider|Java|PhantomJS|SemrushBot|Scrapy|Webdup|AcoonBot|AhrefsBot|Ezooms|EdisterBot|EC2LinkFinder|jikespider|Purebot|MJ12bot|WangIDSpider|WBSearchBot|Wotbox|xbfMozilla|Yottaa|YandexBot|Jorgee|SWEBot|spbot|TurnitinBot-Agent|mail.RU|perl|Python|Wget|Xenu|ZmEu|^$"   )

{

return 444;

}

注:规则中默认屏蔽部分不明蜘蛛,要屏蔽其他蜘蛛按规则添加即可

附各大蜘蛛名字:

google蜘蛛:googlebot

百度蜘蛛:baiduspider

百度手机蜘蛛:baiduboxapp

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

bing蜘蛛:bingbot

altavista蜘蛛:scooter

lycos蜘蛛:lycos_spider_(t-rex)

alltheweb蜘蛛:fast-webcrawler

inktomi蜘蛛:slurp

有道蜘蛛:YodaoBot和OutfoxBot

热土蜘蛛:Adminrtspider

搜狗蜘蛛:sogou spider

SOSO蜘蛛:sosospider

360搜蜘蛛:360spider

来源:西部数码


Public @ 2018-06-02 16:22:26

为什么我的网站已经加了robots.txt,还能在搜狗搜索出来

虽然您在网站上加了robots.txt文件,但搜狗搜索引擎仍然可以在搜索结果中显示您的网站。这是因为robots.txt文件只是一个标准化的协议,它主要用于指导搜索引擎爬虫(蜘蛛)如何访问和索引网站的内容。 尽管大多数搜索引擎都会遵循robots.txt文件中的规则,但有些搜索引擎可能会选择忽略它或解释不同的方式。这可能是因为搜狗搜索引擎没有完全遵循robots.txt文件的指示,或者由于其他原

Public @ 2023-07-31 04:00:31

什么是蜘蛛池

蜘蛛池是指由多个区块链矿池共同组成的联合挖矿系统,旨在提高比特币等加密货币的挖矿效率和收益。蜘蛛池由一个或多个节点汇聚而成,矿工可以连接到节点以共同挖矿,每个节点都会分配一定数量的工作量证明(Proof of Work, PoW)任务给矿工,然后将挖出的加密货币按比例分配给参与挖矿的矿工。蜘蛛池的作用是让矿工们能够更加高效地挖矿,共享挖矿收益,同时降低挖矿的成本。

Public @ 2023-06-03 15:00:14

蜘蛛抓取过程中涉及的网络协议有哪些

搜索引擎通过站长们提供资源,来满足用户的搜索需求,而站长通过搜索引擎将网站的内容传播出去,获得有效的流量和用户。蜘蛛在抓取过程中双方都要遵守一定的规范,便于搜索引擎抓取,不要使用过多对搜索引擎不友好的元素。蜘蛛抓取过程中涉及的网络协议有以下四种:1、HTTP协议HTTP是超文本传输协议,在互联网上被广泛应用的一种网络协议,客户端和服务器端请求和应答的标准。用户通过浏览器或蜘蛛等对指定端口发起一个请

Public @ 2012-07-29 16:22:31

如何和搜索引擎爬虫对话

抓取策略:那些网页是我们需要去下载的,那些是无需下载的,那些网页是我们优先下载的,定义清楚之后,能节省很多无谓的爬取。更新策略:监控列表页来发现新的页面;定期check 页面是否过期等等。抽取策略:我们应该如何的从网页中抽取我们想要的内容,不仅仅包含最终的目标内容,还有下一步要抓取的url.抓取频率:我们需要合理的去下载一个网站,却又不失效率。让我对“如何和爬虫对话 ”这个课题有了一些思考,下面归

Public @ 2017-01-01 16:22:28

更多您感兴趣的搜索

0.493678s