Categories


Tags


【院长帮帮忙】页面无用时间信息导致网页不被爬虫抓取(第一期)

在【院长帮帮忙】栏目露过面的站点是编织汇(www.bianzhihui.com),该站点通过反馈中心反馈页面内容迟迟不被抓取,经百度工程师追查,原来是因为页面上的无用时间信息——没有想到是不是?同学们快来看看这个案例吧。也想让院长帮助追查吗?快来看看这里!

站点求助:现象

编织汇网站内容发布后几个礼拜都未曾收录。案例如下:

http://www.bianzhihui.com/t/6717(教程详细页面举例)

http://www.bianzhihui.com/u/12306 (用户页面举例)

http://www.bianzhihui.com/h/154 (编织花样页面举例)

我们已将这些url放入sitemap,并使用了百度统计的集成的JS推荐,但是未曾有改善。

站点求助:自查

根据反馈中心的回复,使用抓取异常工具诊断:未发现异常

院长出手,内部追查

工程师结论: spider抓取很及时,但因为该网站没有设置内容产出时间,网站底部却有个老旧时间日期,导致spider误以为网页内容老旧(具体策略较复杂,在此不做赘述)。建议增加页面内容产生时间,去掉没有必要的时间信息

*以上为旧页面截图,“2014年9月9日”对时间识别造成干扰。

站点总结:

1,网页上切忌勿乱加时间,如我们网站的(始于2014年9月9日)这种时间是一个大忌

2,网页内容尽可能加上产出时间,也就是发布时间

3,百度site的结果时间和权重并无太多关系

4,跟百度沟通的时候,一定要条例清晰,证据确凿。自身的问题一定要先排查准确。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2015-07-21 15:22:04

为什么我的网站已经加了robots.txt,还能在搜狗搜索出来

因为搜索引擎索引数据库的更新需要时间。虽然sogou spider已经停止访问您网站上的网页,但搜狗搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。如果您的拒绝被收录需求非常急迫,也可以通过删除快照反馈请求处理。

Public @ 2018-01-11 15:38:56

头条搜索Bytespider IP反解析

反查IP站长可以通过DNS反查IP的方式判断某只spider是否来自头条搜索引擎。根据平台不同验证方法不同,如linux/windows/os三种平台下的验证方法分别如下在linux平台下,您可以使用host ip命令反解ip来判断是否来自Bytespider的抓取。Bytespider的hostname以*.bytedance.com的格式命名,非 *.bytedance.com即为冒充host

Public @ 2013-03-31 15:38:59

【院长帮帮忙】站点打不开,可能是referer设置问题!(第六期)

站点反馈,在移动搜索下站点被百度屏蔽了经查站点在PC端打开无影响,仅移动端无法打开,且落地页体验、内容均良好,站点并不是被百度屏蔽,而是站点M端的Referer值太长,导致网站打不开(Referer长度不能超过256,超过以后抓取结果为404)站点referer值referer值长度要求各位站长们记住了哦,如遇以上这种情况,被百度屏蔽的锅,我们可不背哦!来源:百度搜索资源平台 百度搜索学堂

Public @ 2022-06-28 15:22:06

【院长帮帮忙】网站被黑,到底是谁的责任?(第九期)

很多网站会突然找院长反馈,说网站突然出现了很多奇怪的页面,虽然域名是自己网站的,但是内容都不是网站发布的,而且一般都是赌博等内容;或者还有站长反馈,百度抓了自己网站的好多内容,而且这些内容都是博彩内容,但是网站并没有这些啊,百度出什么问题了?要求百度尽快处理问题!关于以上的这些问题,曲曲小姐姐再次给大家强调一下。如果网站突然出现大量的赌博等内容,这是网站被黑了啊,这肯定是网站自己的问题引起的,也只

Public @ 2014-01-07 15:22:07

更多您感兴趣的搜索

0.532178s