Categories


Tags


360搜索蜘蛛IP段及蜘蛛ip被拦截的问题解决方法

360Spider的ip,我们已经公开在这里辣~:

http://www.so.com/help/spider_ip.html

360Spider的UA(UA是蜘蛛访问的时候,在服务器中留下的访问签名信息,凡是下面这个UA,就代表是360Spider来过了):

Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36; 360Spider

360robots协议支持FAQ:

http://www.haosou.com/help/help_3_2.html

关于蜘蛛被拦截:

蜘蛛被拦截一般是网站服务器或防火墙在做设置时,不小心将搜索引擎的蜘蛛做了拦截,导致蜘蛛无法访问,获取不到网站信息。这种问题会导致网站不收录或收录出现异常的问题

蜘蛛被拦截的常见现象有:

1、360Spider 无访问记录

2、360Spider 有访问页面的记录,但是访问的http状态为非200的状态,主要状态码有:404、403、0、503、504、521等

3、部分优质内容不收录或者收录出现异常(如优质内容的收录数量剧烈下降等,注意:关于内容收录的维度,也请参考我们之前发布的各类算法和白皮书,不清楚的小伙伴可以看这里)

如下面这个站点,就是典型的蜘蛛被拦截,我们没有办法收录到,其表现为http抓取状态为0

如何解决?

1、将我们的蜘蛛ip、UA加入到可访问的白名单

2、加白之后,尽快通过网站收录提交入口,提交网站的收录,并通过站长平台,提交网站的sitemap,观察一段时间(一般建议观察15-30天)看是否开始有收录

3、向您的空间服务商进行反馈,告知其加白我们的蜘蛛ip以及ua

以上就是我们解决蜘蛛被拦截的一个基本思路,各位小伙伴清楚了波~

如果仍然有疑问或者需要我们协助,可以向我们发邮件进行反馈,我们的反馈邮箱是:service-so@360.cn

感谢大家对360搜索的支持

来源:360站长平台


Public @ 2015-12-02 15:38:48

网络爬虫(Spider)

网络爬虫(Spider)是一种自动化程序,用于通过互联网收集和抓取网页信息。它模拟人类在浏览器中的操作,自动访问网站并抓取其中的信息。爬虫的主要作用是帮助用户快速地获取海量数据,例如网页内容、图片、音频、视频等,并将它们存储在一个本地数据库中,以供后续处理和分析。在人工获取数据耗时费力的情况下,网络爬虫的应用可以大大提高数据抓取效率,以及提高数据处理的准确与可靠性。

Public @ 2023-06-02 04:00:09

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

BaiDuSpider(百度蜘蛛)是百度搜索引擎的爬虫程序,它会访问网页并获取其中的信息,从而建立网站的索引和排名。由于百度蜘蛛需要频繁访问网站,因此它会占用网站的流量和带宽资源。 为了控制百度蜘蛛的访问,网站管理员可以使用robots.txt文件进行设置。robots.txt是一个文本文件,位于网站根目录下,用于告诉搜索引擎爬虫哪些页面可以访问,哪些页面不允许访问。具体来说,可以在robots

Public @ 2023-06-10 09:00:15

更多您感兴趣的搜索

0.512682s