Categories


Tags


【院长帮帮忙】第四期:URL构成越简单越平常越好

SEO不是事后工作,在站点在建设之初就要考虑到如何对搜索引擎友好。在院长看来,与其出手阔绰、花大价钱买个域名,不如找个经验丰富的SEO人员在站点结构等基础工作上多下工夫——这期院长帮帮忙,说的正是一个大家容易忽略的细节问题:url构成。先说结论吧:url构成(或者叫url规则)越简单越平常,百度处理起来越顺畅,越容易正确生效。

院长收到的case是这样的,站长反应:跳转适配的PC页和移动页,内容可以做到一一对应,通过移动适配工具提交了规则适配,但一直无法正确生效。

示例链接:http://www.123456.cn/zjj/teacher/p1ll111001

示例正则式:

http://www.123456.cn/(\w+)/teacher/p1ll(\d+)——

http://m.123456.cn/teacher/${1}/s${2}

院长在检查了页面对应的确无误的情况下,请工程师查看,结论如下:移动适配部门在计算PC站点的pattern(规则)时,分割符没有考虑ll,导致计算出的数据有问题。简单说,此站点每个URL中都出现的、极少有网站使用的ll干扰了适配计算,导致适配无法正确生效。

工程师解释说,“在考虑分隔符时,出于成本的考虑,只顾及到了常见的url分隔符,像ll这种非常罕见的,暂时没有考虑,后续升级时再统一安排。

可能很多同学觉得,单从这个case讲是百度的一个badcase——我个人也承认这一点。但大家应该都知道,世上没有十全十美的策略,任何一个接近完美的策略都是不断迭代的结果。在我们日常的生活和工作中,也往往都会利用“最小成本获得最大收益”的思维来解决问题,百度的工程师也不例外。所以请给我们的策略一些时间,同时建议大家在搭建网站结构、制作URL时,尽量避开非主流设计,追求简单美即可。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2016-05-05 15:22:03

robots.txt文件的格式

User-agent: [robot名稱] Disallow: [禁止存取的目錄或檔案] Allow: [允許存取的目錄或檔案] Sitemap: [網站地圖檔案位置] 注意事項: - User-agent:要設定的是區分搜索引擎的機器人,可設定多個。若不加此欄位,則視為通用設定。 - Disallow:機器人不可存取的目錄或檔案,在此設定時,要注意目錄名稱或檔案名稱是完整的,不

Public @ 2023-06-17 03:50:39

头条搜索Robots匹配说明

匹配方式分两部分:1.path部分,2.参数部分匹配支持?*$?两种通配符?*? 表示任何有效字符的 0 个或多个个案。?$? 表示网址结束。path部分与google匹配方式保持一致,也就是只有/或是*开头的规则才有机会匹配上?/?匹配根目录以及任何下级网址?/fish??/fish?开头的匹配项* ?/fish?* ?/fish.html?* ?/fish/salmon.html?* ?/fi

Public @ 2011-09-27 16:09:01

【院长帮帮忙】流量断崖式下跌,如何自查恢复?(第七期)

院长近期收到一个VIP站点反馈,站点下的所有收录都没有了,站点流量断崖式下跌,先来看看这扎心的图:PC端流量变化:移动流量变化:院长解答:出现这种情况,首先要站长观察流量下滑期间站点是否有异常,并自查以下步骤:1. 网站自查发现自己出现过服务器异常,服务器错误导致页面失效,需尽快恢复站点服务器;这里推荐使用站长平台“抓取异常工具”&“抓取诊断工具”,可整体统计站点近期抓取问题,模拟蜘蛛抓取

Public @ 2014-02-02 15:22:05

【院长帮帮忙】网站被黑,到底是谁的责任?(第九期)

很多网站会突然找院长反馈,说网站突然出现了很多奇怪的页面,虽然域名是自己网站的,但是内容都不是网站发布的,而且一般都是赌博等内容;或者还有站长反馈,百度抓了自己网站的好多内容,而且这些内容都是博彩内容,但是网站并没有这些啊,百度出什么问题了?要求百度尽快处理问题!关于以上的这些问题,曲曲小姐姐再次给大家强调一下。如果网站突然出现大量的赌博等内容,这是网站被黑了啊,这肯定是网站自己的问题引起的,也只

Public @ 2014-01-07 15:22:07

更多您感兴趣的搜索

0.596034s