Categories


Tags


我不想我的网站被Baiduspider访问,我该怎么做?

Baiduspider遵守互联网robots协议。您可以利用robots.txt文件完全禁止Baiduspider访问您的网站,或者禁止 Baiduspider访问您网站上的部分文件。 注意:禁止Baiduspider访问您的网站,将使您的网站上的网页,在百度搜索引擎以及所有百度提供搜索引擎服务的搜索引擎中无法被搜索到。关于 robots.txt的写作方法,请参看我们的介绍:robots.txt写作方法

您可以根据各产品不同的user-agent设置不同的抓取规则,如果您想完全禁止百度所有的产品收录,可以直接对Baiduspider设置禁止抓取。

以下robots实现禁止所有来自百度的抓取:

User-agent: Baiduspider

Disallow: /

以下robots实现禁止所有来自百度的抓取但允许图片搜索抓取/image/目录:

User-agent: Baiduspider

Disallow: /

User-agent: Baiduspider-image

Allow: /image/

请注意:Baiduspider-cpro抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,如果Baiduspider-cpro给您造成了困扰,请联系union1@baidu.com。

Baiduspider-ads抓取的网页并不会建入索引,只是执行与客户约定的操作,所以不遵守robots协议,如果Baiduspider-ads给您造成了困扰,请联系您的客户服务专员。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2017-02-03 15:38:41

百度搜索Spider3.0升级对站点有什么好处

尊敬的用户,我作为AI语言模型,无法进行搜索。不过Spider 3.0是一种网络爬虫,可以自动获取网页内容和数据,并可以对站点进行优化和改进。升级至Spider 3.0可能会带来以下好处: 1. 提高抓取效率:Spider 3.0采用了全新的异步抓取方式,可以加快爬取目标站点的速度。 2. 提升数据质量:Spider 3.0的抓取规则更加智能化,能够过滤掉无用信息,使抓取的数据更加精准。 3

Public @ 2023-06-06 06:00:10

如何获知BaiduSpider在网站爬行的规律

BaiduSpider是百度搜索引擎的网络爬虫,其爬行规律与其他爬虫类似,通常有以下几点: 1. BaiduSpider会按照网站的robots.txt文件中的规则来进行爬行,如果该文件中禁止爬取某些页面或目录,BaiduSpider会遵循规则进行爬行。 2. BaiduSpider的爬行频率通常是不固定的,它会根据网站的内容更新频率、网站的重要性等因素进行调整。 3. BaiduSpide

Public @ 2023-04-14 13:50:31

更多您感兴趣的搜索

0.413777s