Categories


Tags


URL的优化

网站结构优化是SEO的主要工作之一,对大中型网站来说更是重点和难点。URL的优化是结构优化的基础内容。URL处理不好,经常造成页面收录问题,就更谈不上排名和流量了。其实URL的优化是相对简单的部分,因为是SEO自己完全可以掌控的,只需要注意一些细节。

下面总结几条关于URL优化的经验和技术要求。

1)域名的选择

如果是在五六年年前,我会告诉大家域名中最好放上关键词。不过现在建议大家域名中能放关键词最好,但不要为了放关键词把域名弄的很长,更不要为了放关键词注册带有连词符的域名。

再退一步,为让域名看得清楚,可以放一个连词符,但是不要为了堆积关键词而加连词符。

如果带有关键词的域名不好找,宁可选择一个容易品牌化的短的生僻词,或者新造的词。实际上,真正成为网上大品牌、大站的,极少是包含关键词的域名。有成为大品牌的野心的话,反倒不要用带关键词的域名。

2)描述性

整个URL包括域名,目录名和文件名,在可能的情况下,用具有描述性的单词,尤其是目录名和文件名。让用户看到URL,就可以大致了解这个网页是什么内容。

对中文网站来说,目录名使用简单的英文单词,大多数用户是可以理解的。文件名如果通过文章或产品名称生成,通常会比较长,转换为拼音恐怕易读性有问题,大部分情况下建议使用编号。

3)URL里面的关键词

在可能的情况下,目录名文件名可以放上一些关键词。Matt Cutts在他的一个帖子里面曾经暗示过,URL中的关键词多少对搜索引擎算法有用。

中文网站URL中包含关键词是否对排名没有定论,百度也没表示过意见。我估计即使有点作用,也是微乎其微,不必为了在URL里出现关键词而用中文URL,或用中文词的全拼。

4)URL不可太长

虽然可以考虑在URL中放关键词,但最好不要为了放关键词,而把目录名文件名弄的很长。

在可能的情况下,目录层次最好少一点。不要毫无意义地增加目录层次,比如有的网站把所有页面放进/html/目录下,看不出有任何好处。

虽然搜索引擎判断页面重要性是看网站的逻辑结构,而不是物理结构,目录层次少不一定意味着离首页近,但层次越少,用户看着越简洁。

5)用连词符

URL中目录名文件名单词之间最好用连词符-,不建议用下划线_,也不要用其他允许但很奇怪的字符,如逗号、引号之类。连词符会被Google当作空格处理。百度对待下划线和连词符似乎是一样,所以中文网站这两个都可以,但从清晰度和用户体验上看,我个人还是觉得连词符更好。

6)英文单词和拼音

对英文网站来说,当然URL中的描述性关键词比较好写。对中文网站可以考虑使用拼音。但是对比较长的词,用拼音就不容易读懂,这种情况下还是建议使用英文单词。

另外有的人把目录名、文件名里面放上中文字,这样的URL出现在浏览器地址栏和搜索结果页面的时候,有时候因为编码问题会显示为乱码。虽然搜索引擎可以辨识,但看起来很难看,不建议。

7)URL静态化

URL静态化几乎是必须的。别较真,不要争辩说有很多带有一两个问号的URL都收录的很好。能做的更好也很简单,就不要去跟做的不好的看齐。

8)子域名和目录

子域名在中文网站中很流行,因为百度排名有比较明显的首页优势,SEO们喜欢把尽量多的关键词放在首页上,内页能获得排名的机会很小。而子域名通常被当作独立网站的首页。

做英文网站通常还是建议使用目录,除非有特别需要的时候,最好不要使用子域名。使用目录可以集中权重,管理方便,Google对内页和首页是一视同仁的,内页排名超过大站首页的比比皆是。

2020年底左右开始,百度的首页优势也减少了,内页获得排名的比例有明显提升。

9)大小写

URL中最好统一全部使用小写字母,像Unix/Linux服务器大小写字母是不同处理的,也就是说Index.html和index.html是被当作两个不同的文件。如果一个目录下面的首页是Index.html,访问目录的时候就会出错。在其他情况下大小写混用也经常会造成混乱。

来源:seo每天一贴 Zac 昝辉


Public @ 2016-02-03 16:11:10

使用nofollw的意义,nofollw标签的两种具体用法

使用nofollw的意义nofollow 是一个HTML标签的属性值。它的出现为网站管理员提供了一种方式,即告诉搜索引擎"不要追踪此网页上的链接"或"不要追踪此特定链接。这个标签的意义是告诉搜索引擎这个链接不是经过作者自己编辑的,所以这个链接不是一个信任票。简单的说就是,如果A网页上有一个链接指向B网页,但A网页给这个链接加上了 rel="nofollow&

Public @ 2021-01-20 16:08:49

robots使用误区

误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt

Public @ 2017-10-31 16:09:18

Windows IIS下论坛静态化分析

这两天研究Discuz 4.1,并成功地将原来一个Discuz 2.5的论坛升级到了最新版本,个人感觉这个论坛实在不错。我的Discuz 4.1是在Apache+Php+Mysql下运行的,并开启了Url Rewrite,之后我发现整个论坛的大部分页面都可以使用html的静态地址方式来访问,感觉真不错,Apache实在太强大了,难怪现在用Apache的站点那么多。IIS下能否也实现这种静态化功能呢

Public @ 2014-12-25 16:11:10

更多您感兴趣的搜索

4.552808s