我不想我的网站被Baiduspider访问,我该怎么做?
- 威海Spider 威海Baiduspider
- 1775
1. 在robots.txt文件内添加一行禁止Baiduspider访问的指令:User-agent: Baiduspider;Disallow: / 2. 添加http协议头,指示不要访问网站的任何网页:X-Robots-Tag: noindex,noarchive,nosnippet,nofollow 3. 将任何和Baiduspider相关的IP地址拉黑。
1. 在robots.txt文件内添加一行禁止Baiduspider访问的指令:User-agent: Baiduspider;Disallow: / 2. 添加http协议头,指示不要访问网站的任何网页:X-Robots-Tag: noindex,noarchive,nosnippet,nofollow 3. 将任何和Baiduspider相关的IP地址拉黑。
网站做的越大,蜘蛛越多。可是有时候会发现:网站被各种搜索引擎的蜘蛛抓的服务器都快崩溃了,严重的占用了服务器的资源。这个时候要怎么办呢?百度蜘蛛:Baiduspider谷歌蜘蛛:Googlebot360蜘蛛:360SpiderSOSO蜘蛛:Sosospider神马蜘蛛:YisouSpider微软必应: BingBot在国内,我们不要把这几个蜘蛛使用robots.txt屏蔽就可以了,至于其他的,都可以
在VPS云主机服务器上,可以通过以下方式屏蔽拦截蜘蛛抓取: 1. Apache服务器: 在Apache配置文件(httpd.conf或apache2.conf)中添加以下代码: ``` SetEnvIfNoCase User-Agent ".*((Googlebot)|(Baiduspider)|(Yahoo! Slurp)|(bingbot)|(YandexBot)).*" bad_bot
因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过 投诉平台 反馈请求处理。
您可以在网站的 robots.txt 文件中添加以下内容,以阻止 Baiduspider 访问您的网站: User-agent: Baiduspider Disallow: / 这会告诉 Baiduspider 不要访问您的整个网站。请注意,这也可能会阻止其他搜索引擎的访问。如果您只想阻止 Baiduspider 的访问,可以使用以下代码: User-agent: Baiduspider D