Categories


Tags


【院长帮帮忙】第四期:URL构成越简单越平常越好

SEO不是事后工作,在站点在建设之初就要考虑到如何对搜索引擎友好。在院长看来,与其出手阔绰、花大价钱买个域名,不如找个经验丰富的SEO人员在站点结构等基础工作上多下工夫——这期院长帮帮忙,说的正是一个大家容易忽略的细节问题:url构成。先说结论吧:url构成(或者叫url规则)越简单越平常,百度处理起来越顺畅,越容易正确生效。

院长收到的case是这样的,站长反应:跳转适配的PC页和移动页,内容可以做到一一对应,通过移动适配工具提交了规则适配,但一直无法正确生效。

示例链接:http://www.123456.cn/zjj/teacher/p1ll111001

示例正则式:

http://www.123456.cn/(\w+)/teacher/p1ll(\d+)——

http://m.123456.cn/teacher/${1}/s${2}

院长在检查了页面对应的确无误的情况下,请工程师查看,结论如下:移动适配部门在计算PC站点的pattern(规则)时,分割符没有考虑ll,导致计算出的数据有问题。简单说,此站点每个URL中都出现的、极少有网站使用的ll干扰了适配计算,导致适配无法正确生效。

工程师解释说,“在考虑分隔符时,出于成本的考虑,只顾及到了常见的url分隔符,像ll这种非常罕见的,暂时没有考虑,后续升级时再统一安排。

可能很多同学觉得,单从这个case讲是百度的一个badcase——我个人也承认这一点。但大家应该都知道,世上没有十全十美的策略,任何一个接近完美的策略都是不断迭代的结果。在我们日常的生活和工作中,也往往都会利用“最小成本获得最大收益”的思维来解决问题,百度的工程师也不例外。所以请给我们的策略一些时间,同时建议大家在搭建网站结构、制作URL时,尽量避开非主流设计,追求简单美即可。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2016-05-05 15:22:03

robots使用误区

1. 不需要在每个页面都添加robots.txt文件:robots.txt文件只是一份给搜索引擎看的指令,如果不希望搜索引擎从该页面抓取数据,那么每一页都是可以不用添加robots.txt文件的。 2. 不能用于移动设备:robots.txt文件可用于搜索引擎爬虫,但也可以在部分机型的移动设备上进行yu处理,可以用于控制移动设备的蜘蛛爬行进行内容抓取。 3. 不应该将robots保存到公用

Public @ 2023-03-03 14:00:19

服务器限制外网访问造成主动推送失败

《院长帮帮忙》栏目开始运营以后受到了广大站长欢迎,院长每天都会收到各种问题求助。为了更多站长获得收益,我们从中选取了最具有代表性的问题展现给大家。项目背景:和讯网参加星火计划2.0内测,按照站长平台主动提交技术说明代码,共提交两次,均返回报错。下面我们分享下整个case的排查过程:一、提交执行过程首先,按照链接主动提交的技术标准进行提交,具体内容参照《主动链接提交》。1、第一次提交代码curl -

Public @ 2010-01-13 15:22:08

页面无用时间信息导致网页不被抓取

在第一期【院长帮帮忙】栏目露面的站点是编织汇(www.bianzhihui.com),该站点通过反馈中心反馈页面内容迟迟不被抓取,经百度工程师追查,原来是因为页面上的无用时间信息——没有想到是不是?同学们快来看看这个案例吧。也想让院长帮助追查吗?快来看看这里!站点求助:现象编织汇网站内容发布后几个礼拜都未曾收录。案例如下:http://www.bianzhihui.com/t/6717(教程详细页

Public @ 2014-01-01 15:22:05

更多您感兴趣的搜索

0.654179s