Categories


Tags


轻松两步,正确识别百度蜘蛛(User-Agent)

经常听到开发者问,百度蜘蛛是什么?最近百度蜘蛛来的太频繁服务器抓爆了!最近百度蜘蛛都不来了怎么办?还有很多站点想得到百度蜘蛛的IP段,想把IP加入白名单,但IP地址范围动态变化不固定,我们无法对外公布。

那么如何才能识别正确的百度蜘蛛呢?今日干货带你轻松两步正确识别百度蜘蛛:

一、查看UA信息

如果UA信息不对,可以直接判断为非百度搜索的蜘蛛。目前UA分为移动、PC、和小程序三个应用场景,这三个渠道UA分别如下:

移动UA:

Mozilla/5.0 (Linux;u;Android 4.2.2;zh-cn;) AppleWebKit/534.46 (KHTML,like Gecko)Version/5.1 Mobile Safari/10600.6.3 (compatible; Baiduspider/2.0;+http://www.baidu.com/search/spider.html)

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;+http://www.baidu.com/search/spider.html)

PC UA:

Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)

Mozilla/5.0 (compatible; Baiduspider-render/2.0; +http://www.baidu.com/search/spider.html)

小程序UA:

Mozilla/5.0 (iPhone;CPU iPhone OS 9_1 like Mac OS X) AppleWebKit/601.1.46 (KHTML, like Gecko)Version/9.0 Mobile/13B143 Safari/601.1 (compatible; Baiduspider-render/2.0;Smartapp; +http://www.baidu.com/search/spider.html)

二、双向DNS解析认证

第一步:DNS反查IP

开发者通过对日志中访问服务器的IP地址运行反向DNS查找,判断某只spider是否来自百度搜索引擎,Baiduspider的hostname以*.baidu.com或*.baidu.jp 的格式命名,非*.baidu.com或*.baidu.jp即为冒充。

根据平台不同验证方法不同,如linux/windows/os三种平台下的验证方法分别如下:

1).在linux平台下,您可以使用host ip命令反解ip来判断是否来自Baiduspider的抓取。

2).在windows平台或者IBM OS/2平台下,您可以使用nslookup ip命令反解ip来 判断是否来自Baiduspider的抓取。打开命令处理器 输入nslookup xxx.xxx.xxx.xxx(IP地址)就能解析ip,来判断是否来自Baiduspider的抓取。

3).在macos平台下,您可以使用dig命令反解ip来判断是否来自Baiduspider的抓取。打开命令处理器输入dig -x xxx.xxx.xxx.xxx(IP地址)就能解析ip,来判断是否来自Baiduspider的抓取。

第二步:对域名运行正向DNS查找

对第一步中通过命令检索到的域名运行正向DNS查找,验证该域名与您日志中访问服务器的原始IP地址是否一致,IP地址一致可确认spider来自百度搜索引擎,IP地址不一致即为冒充。

示例1:

> host 111.206.198.69

69.198.206.111. in-addr.arpa domain name pointer baiduspider-111-206-198-69.crawl.baidu.com.

> host baiduspider-111-206-198-69.crawl.baidu.com

baiduspider-111-206-198-69.crawl.baidu.com has address 111.206.198.69

来源:百度搜索资源平台 百度搜索学堂


Public @ 2015-12-30 15:38:39

搜狗搜索蜘蛛爬虫抓取

搜狗是一家中国的互联网公司,旗下拥有搜狗搜索引擎。蜘蛛爬虫是搜索引擎中用来抓取网页内容的程序。搜狗搜索的蜘蛛爬虫被称为"Sogou web spider"。 蜘蛛爬虫抓取网页的过程中,会按照一定的规则遍历网页,获取网页的内容并存储在搜索引擎的数据库中,以便用户在搜索时能够得到相应的结果。 如果你想了解搜狗搜索的蜘蛛爬虫抓取的更多细节,可以查阅搜狗搜索的官方技术文档,或者参考相关的网络资源和教程

Public @ 2023-07-26 07:50:22

屏蔽百度爬虫的方法

1. 设置robots.txt文件 在根目录中建立一个robots.txt文件,设置禁止百度抓取即可达到屏蔽百度爬虫的效果,具体设置内容如下: User-agent: Baiduspider Disallow: / 2. 自定义Http请求 百度爬虫最显著的特征就是它的User_Agent中包含Baiduspider,一般在Http头中添加请求头:X-Baidu-Env:martin-

Public @ 2023-03-05 04:00:12

百度搜索引擎基础知识

百度搜索引擎是基于百度公司的搜索技术和算法开发的一款搜索服务,用于全球互联网信息的检索和查找。 以下是百度搜索引擎的基础知识: 1. 索引:百度搜索引擎将互联网上的网页和文档建立索引,通过索引来快速检索和查找相关信息。 2. 网页排名:百度搜索引擎根据自己的算法和用户搜索的关键字来对搜索结果进行排序,排名靠前的网页更容易被用户查看和访问。 3. 关键字:在百度搜索引擎中,用户通过输入关键字

Public @ 2023-06-27 14:51:01

更多您感兴趣的搜索

0.475434s