Categories


Tags


【官方说法】百度蜘蛛抓取流量暴增的原因

Spider对网站抓取数量突增往往给站点带来很大烦恼,纷纷找平台想要Baiduspider IP白名单,但实际上BaiduSpider IP会随时变化,所以并不敢公布出来,担心站长设置不及时影响抓取效果。百度是怎么计算分配抓取流量的呢?站点抓取流量暴增的原因有哪些呢?

总体来说,Baiduspider会根据站点规模、历史上网站每天新产出的链接数量、已抓取网页的综合质量打分等等,来综合计算抓取流量,同时兼顾站长在抓取频次工具里设置的、网站可承受的最大抓取值。

从目前追查过的抓取流量突增的case中,原因可以分为以下几种:

1,  Baiduspider发现站内JS代码较多,调用大量资源针对JS代码进行解析抓取

2,  百度其他部门(如商业、图片等)的spider在抓取,但流量没有控制好,sorry

3,  已抓取的链接,打分不够好,垃圾过多,导致spider重新抓取

4,  站点被攻击,有人仿冒百度爬虫(推荐阅读:如何正确识别百度蜘蛛)

如果站长排除了自身问题、仿冒问题,确认BaiduSpider抓取流量过大的话,可以通过反馈中心来反馈,切记一定要提供详细的抓取日志截图。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2011-07-18 15:38:37

如何让 sogou spider 不抓我的网站

您可以在网站的 robots.txt 文件中添加以下内容,来阻止 Sogou 蜘蛛抓取您的网站: User-agent: Sogou Disallow: / 这会告诉 Sogou 蜘蛛不要访问您的整个网站。如果您只想阻止蜘蛛访问特定页面或目录,可以将 Disallow: / 替换为您想要屏蔽的 URL。例如: User-agent: Sogou Disallow: /admin/ Disal

Public @ 2023-06-25 03:00:11

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

注:以下BaiDuSpider等于百度蜘蛛、Googlebot等于google蜘蛛、Sogou Spider等于搜狗蜘蛛一、问题因某些原因,搜索引擎蜘蛛抓取网站占用很大流量,如图:网站访问日志也可看见很多蜘蛛爬行记录。如果是正常的搜索引擎蜘蛛访问,不建议对蜘蛛进行禁止,否则网站在百度等搜索引擎中的收录和排名将会丢失,造成客户流失等损失。可以优先考虑升级虚拟主机型号以获得更多的流量或升级为云服务器(

Public @ 2009-04-20 15:56:40

Baiduspider对一个网站服务器造成的访问压力如何?

为了达到对目标资源较好的检索效果,Baiduspider需要对您的网站保持一定量的抓取。我们尽量不给网站带来不合理的负担,并会根据服务器承受能力,网站质量,网站更新等综合因素来进行调整。如果您觉得baiduspider的访问行为有任何不合理的情况,您可以反馈至反馈中心

Public @ 2020-03-29 15:56:49

更多您感兴趣的搜索

0.454997s