Categories


Tags


【院长帮帮忙】页面无用时间信息导致网页不被爬虫抓取(第一期)

在【院长帮帮忙】栏目露过面的站点是编织汇(www.bianzhihui.com),该站点通过反馈中心反馈页面内容迟迟不被抓取,经百度工程师追查,原来是因为页面上的无用时间信息——没有想到是不是?同学们快来看看这个案例吧。也想让院长帮助追查吗?快来看看这里!

站点求助:现象

编织汇网站内容发布后几个礼拜都未曾收录。案例如下:

http://www.bianzhihui.com/t/6717(教程详细页面举例)

http://www.bianzhihui.com/u/12306 (用户页面举例)

http://www.bianzhihui.com/h/154 (编织花样页面举例)

我们已将这些url放入sitemap,并使用了百度统计的集成的JS推荐,但是未曾有改善。

站点求助:自查

根据反馈中心的回复,使用抓取异常工具诊断:未发现异常

院长出手,内部追查

工程师结论: spider抓取很及时,但因为该网站没有设置内容产出时间,网站底部却有个老旧时间日期,导致spider误以为网页内容老旧(具体策略较复杂,在此不做赘述)。建议增加页面内容产生时间,去掉没有必要的时间信息

*以上为旧页面截图,“2014年9月9日”对时间识别造成干扰。

站点总结:

1,网页上切忌勿乱加时间,如我们网站的(始于2014年9月9日)这种时间是一个大忌

2,网页内容尽可能加上产出时间,也就是发布时间

3,百度site的结果时间和权重并无太多关系

4,跟百度沟通的时候,一定要条例清晰,证据确凿。自身的问题一定要先排查准确。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2015-07-21 15:22:04

导致搜索引擎蜘蛛不能顺利爬行的因素

一、服务器连接异常服务器连接异常会有两种情况,一种是站点不稳定,搜索引擎尝试连接您的网站的服务器时出现暂时无法连接的情况;另一种是搜索引擎一直无法连接上您网站的服务器。造成服务器连接异常的原因通常是您的网站服务器过大,超负荷运转。也有能是您的网站运行不正常,请检查网站的web服务器(如Apache、IIS)是否安装且正常运行,并使用浏览器检查主要页面能否正常访问。您的网站和主机还可能阻止了蜘蛛的访

Public @ 2013-04-30 16:22:37

【院长帮帮忙】流量断崖式下跌,如何自查恢复?(第七期)

院长近期收到一个VIP站点反馈,站点下的所有收录都没有了,站点流量断崖式下跌,先来看看这扎心的图:PC端流量变化:移动流量变化:院长解答:出现这种情况,首先要站长观察流量下滑期间站点是否有异常,并自查以下步骤:1. 网站自查发现自己出现过服务器异常,服务器错误导致页面失效,需尽快恢复站点服务器;这里推荐使用站长平台“抓取异常工具”&“抓取诊断工具”,可整体统计站点近期抓取问题,模拟蜘蛛抓取

Public @ 2014-02-02 15:22:05

【院长帮帮忙】URL构成越简单越平常越好(第三期)

SEO不是事后工作,在站点在建设之初就要考虑到如何对搜索引擎友好。在院长看来,与其出手阔绰、花大价钱买个域名,不如找个经验丰富的SEO人员在站点结构等基础工作上多下工夫——这期院长帮帮忙,说的正是一个大家容易忽略的细节问题:url构成。先说结论吧:url构成(或者叫url规则)越简单越平常,百度处理起来越顺畅,越容易正确生效。院长收到的case是这样的,站长反应:跳转适配的PC页和移动页,内容可以

Public @ 2020-11-27 15:22:07

更多您感兴趣的搜索

0.627331s