Categories


Tags


利用百度蜘蛛referer找到报错页面入口

大家应该都知道百度已经全站https并取消referer关键词显示了,那么“百度蜘蛛referer”又是什么?有什么妙用吗?艺龙SEO负责人刘明发现通过百度蜘蛛referer可以快速定位部分站内url的报错(4xx或者5xx)原因。随后社区版主飞鹰正义也对文章做了补充修正,现推荐给各位同学们。

什么是百度蜘蛛的referer

百度蜘蛛的referer,是指当百度蜘蛛抓取某一个URL的时候,在HTTP头中带的Referer字段。请注意,这个定义和百度最近声明去除Referer中关键词数据没有任何关系。这次讲的是spider发起的HTTP请求,百度而去除的是用户发起的。如果百度蜘蛛抓取百度首页的logo,会发起这样的请求:

上面Referer字段很明确的表示了他是从www.baidu.com这个页面上发现并抓取了www.baidu.com/img/bd_logo1.png。而大家在服务器访问日志中也应该能看到相应的记录。目前发现只有当百度抓取一个网页的同时,又抓取了网页中的:img、js和css才会带上referer字段。这部分额外的抓取量,应该不会占用百度分配的抓取配额,属于“买1送1”。

对于站长的意义

如果你发现有一批URL(仅限于img,js,css)报错(4xx或者5xx),但是一直找不到入口在哪,也就是说你不明白百度蜘蛛是从哪里发现这些错误URL的。这个字段可以帮助你迅速定位。

举个例子

比如我们的SEO日志分析系统中可以看到,符合下面这种URL Pattern的路径每天有6万到10万的抓取而且全部报404。

从发现问题至今过了1个月,查遍整个网站我也没找到入口。今天偶然仔细查了一下日志,想起了百度蜘蛛的referer,马上就能定位问题了。这些404的URL来自于一套没人维护也没人关注的页面(往往是这样)。收录流量都不错。由于最近公司图片系统更新,图片的URL全部更改了,但这套页面并没有跟着更新。

如果站点没有记录referer怎么办

iis请在这里勾选“cs(Referer)”:

apache请参考:

apache log配置“Combined Log Format”章节

apache log配置的官方链接

Nginx请参考:

nginx log配置

nginx log配置的官方链接

结束语

· 很多SEO问题并不是立即致命的,所以没有及时解决。流量就像蚂蚁啃大象一样一点一点啃掉了。

· 系统性的知识积累还是会在关键时刻发挥作用的。

· 感谢飞鹰对本文的修正。

至此文章虽然结束但是讨论可以继续,大家可以到[学堂同学汇] 《利用百度蜘蛛referer找到报错页面入口》讨论帖,与作者刘明进行探讨。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2012-04-14 15:38:46

A5营销团队告诉我的SEO诊断那些事

自从做博客以来,一直和A5的朋友有着联系,之前A5论坛给我做的两次专访,让更多站长知道了卢松松博客,从此也和A5结下了缘分。访谈后的从草根转向知名,也有了第一次投放广告经历,应该说是一次质的飞跃。A5营销团队告诉我的SEO诊断那些事 独立博客 SEO优化 经验心得 第1张(配图说明:只要有爱,就能逆袭,就像我对博客的态度!)现在回过头看,已经是2010年的事了……在梦江给我做完第一次访谈后,就有位

Public @ 2013-03-31 15:32:16

如何避免和处理死链接?

1、网站改版最容易产生死链的改版之前的页面如果有价值尽量不要删除和修改Url,若需要更换域名或Url分配规则,那一定要将之前的url进行301跳转到对应的Url;若老的数据必须删除,那删除的所有页面Url要进行整理和提交死链。2、对发现的死链接如何处理将收集好的所有死链接粘贴到网站根目录的一个文档中,再把文档地址提交到百度资源平台-搜索服务-资源提交-死链提交--添加新数据--填写死链文件地址;若

Public @ 2017-11-05 15:36:52

如何获知BaiduSpider在网站爬行的规律

BaiduSpider是百度搜索引擎的网络爬虫,其爬行规律与其他爬虫类似,通常有以下几点: 1. BaiduSpider会按照网站的robots.txt文件中的规则来进行爬行,如果该文件中禁止爬取某些页面或目录,BaiduSpider会遵循规则进行爬行。 2. BaiduSpider的爬行频率通常是不固定的,它会根据网站的内容更新频率、网站的重要性等因素进行调整。 3. BaiduSpide

Public @ 2023-04-14 13:50:31

BaiDuSpider百度蜘蛛占用流量,robots.txt设置

BaiDuSpider(百度蜘蛛)是百度搜索引擎的爬虫程序,它会访问网页并获取其中的信息,从而建立网站的索引和排名。由于百度蜘蛛需要频繁访问网站,因此它会占用网站的流量和带宽资源。 为了控制百度蜘蛛的访问,网站管理员可以使用robots.txt文件进行设置。robots.txt是一个文本文件,位于网站根目录下,用于告诉搜索引擎爬虫哪些页面可以访问,哪些页面不允许访问。具体来说,可以在robots

Public @ 2023-06-10 09:00:15

更多您感兴趣的搜索

0.471236s