Categories


Tags


【干货】简单两步,教你识别百度蜘蛛

近期,小编经常收到开发者关于“哪些蜘蛛是百度搜索的”、“如何才能正确识别百度蜘蛛”的提问。

今日干货带你简单两步即可识别百度蜘蛛

一、查看UA信息

如果UA信息不对,可以直接判断该蜘蛛为非百度搜索的蜘蛛。

目前UA分为移动、PC、和小程序三个应用场景,分别如下:

【移动UA】

1、Mozilla/5.0(Linux;u;Android 4.2.2;zh-cn;) AppleWebKit/534.46 (KHTML,like Gecko)Version/5.1 Mobile Safari/10600.6.3 (compatible; Baiduspider/2.0;+http://www.baidu.com/search/spider.html)

2、Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;+http://www.baidu.com/search/spider.html)

【PC UA】

1、Mozilla/5.0(compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

2、Mozilla/5.0(compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)

【小程序UA】

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;Smartapp; +http://www.baidu.com/search/spider.html)

二、双向DNS解析认证

第一步:DNS反查IP

开发者可以对日志中访问服务器的IP地址进行反向DNS查找,判断某只spider是否来自百度搜索引擎,Baiduspider的hostname以*.baidu.com或*.baidu.jp 的格式命名,非*.baidu.com或*.baidu.jp即为冒充。

在Linux/Windows/OS三种平台下,验证方法分别如下:

1) 在Linux平台下,可以使用host IP命令反解IP来判断该抓取是否来自Baiduspider。

2) 在Windows平台或者IBM OS/2平台下,可以使用nslookup IP命令反解IP:打开命令处理器,输入nslookup xxx.xxx.xxx.xxx(IP地址)就能解析IP,判断该抓取是否来自Baiduspider。

3) 在macOS平台下,可以使用dig命令反解IP:打开命令处理器输入dig -x xxx.xxx.xxx.xxx(IP地址)就能解析IP,判断该抓取是否来自Baiduspider。

第二步:对域名运行正向DNS查找

对第一步中通过命令检索到的域名运行正向DNS查找,验证该域名与日志中访问服务器的原始IP地址是否一致,IP地址一致可确认spider来自百度搜索引擎,IP地址不一致即为冒充。

【示例】

> host 111.206.198.69

69.198.206.111. in-addr.arpa domain name pointer baiduspider-111-206-198-69.crawl.baidu.com.

>hostbaiduspider-111-206-198-69.crawl.baidu.com

baiduspider-111-206-198-69.crawl.baidu.com has address 111.206.198.69

以上就是识别百度蜘蛛的方法,有需要的同学速速收藏哦!

来源:百度搜索资源平台 百度搜索学堂


Public @ 2019-09-16 15:38:37

哪些网站垃圾蜘蛛可以屏蔽?屏蔽无流量搜索引擎抓取

网站做的越大,蜘蛛越多。可是有时候会发现:网站被各种搜索引擎的蜘蛛抓的服务器都快崩溃了,严重的占用了服务器的资源。这个时候要怎么办呢?百度蜘蛛:Baiduspider谷歌蜘蛛:Googlebot360蜘蛛:360SpiderSOSO蜘蛛:Sosospider神马蜘蛛:YisouSpider微软必应: BingBot在国内,我们不要把这几个蜘蛛使用robots.txt屏蔽就可以了,至于其他的,都可以

Public @ 2020-10-09 16:22:29

Google爬行缓存代理(crawl caching proxy)

Google爬行缓存代理是Google搜索引擎通过代理服务器对网站进行爬行并缓存网页内容的一种技术。该技术可提高网站的访问速度和稳定性,同时也有利于搜索引擎的优化。 当用户访问一个网站时,Google爬行缓存代理会首先检查其缓存中是否有该网站的内容,如果有,则将缓存中的内容返回给用户;如果没有,则该代理服务器会向该网站服务器发送请求,并将获取到的内容缓存起来,以备将来的访问。 Google爬行

Public @ 2023-06-08 01:50:10

Baiduspider抓取造成的带宽堵塞?

Baiduspider是百度搜索引擎的爬虫,它会通过抓取网站上的页面来获取网站的内容和信息,从而帮助用户更精确地搜索所需的信息。然而,如果Baiduspider的抓取过于频繁或者没有遵守Robots协议等规则,就有可能导致带宽堵塞的问题。 当Baiduspider爬取某个网站的速度过快或者抓取页面的数量过多时,会占用该网站的带宽资源,从而导致其他用户访问该网站的速度变慢,甚至无法访问。此外,如果

Public @ 2023-06-02 19:00:37

更多您感兴趣的搜索

0.509040s