Categories


Tags


如何设置网站地址URL规范化?网址规范化会造成哪些问题

网站如果出现多个不规范的网址,分散了页面权重,影响搜索引擎爬行和排名。

如何设置网站地址URL规范化?

1、使用301转向,很多用户习惯搜索带www,把不带www的301转向到带www的页面即可。

2、URL网址规范化,链接网址都采用首选域名的绝对地址。

3、canonical标签相当于一个页内的301转向,区别在于用户并不被转向,还是停留在原网址上面,而搜索引擎会把他当做是301转向处理,把页面权重集中到标签中指明的规范化网址上。

4、提交给搜索引擎XML网址地图中全部使用规范化网址。

5、设置robots.txt文件,阻止网站不希望被搜索引擎检索的网址目录,用URL格式。

网址规范化会造成哪些问题

1、CMS系统在不同地方链接到不同的URL,内部链接与外部链接比较混乱,容易造成分散了网页权重,影响排名。

2、网站优化外链起到很重要的作用,如果找的外链跟网站主题没有相关性,指向的URL出现偏差,也会导致权重的分散。

3、在做链接链回首页所使用的URL并不是唯一的,一下链接到有带www的URL中,一会链接到有带index.html后缀文件,搜索引擎识别受到阻碍,无法确定站点首页。

4、网站收录严重受阻,蜘蛛不能完全抓取页面信息。

5、复制内容过多,被搜索引擎认为是作弊站点。

SEO网站站内优化要比站外优化更重要些,做好SEO站内优化中的URL网址规范化是基本也很重要的核心技术。

来源:搜外网


Public @ 2011-08-17 16:11:21

什么是GZIP,开启GZIP有什么好处

GZIP是网站压缩加速的一种技术,对于开启后可以加快我们网站的打开速度,原理是经过服务器压缩,客户端浏览器快速解压的原理,可以大大减少了网站的流量。什么是GZIP答:GZIP最早由Jean-loup Gailly和Mark Adler创建,用于UNIX系统的文件压缩。我们在Linux中经常会用到后缀为.gz的文件,它们就是GZIP格式的。现今已经成为Internet 上使用非常普遍的一种数据压缩格

Public @ 2012-04-28 16:09:42

robots.txt使用教程

robots.txt 是一个文本文件,用于指示搜索引擎爬虫哪些页面可以被抓取,哪些页面不应该被抓取。在建立一个网站时,可以通过 robots.txt 控制搜索引擎爬虫对网站的访问,以达到更好的SEO效果。以下是robots.txt的使用教程。 步骤1:新建 robots.txt 文件 在网站的根目录下,新建一个名为 robots.txt 的文本文件。 步骤2:编辑 robots.txt 文件

Public @ 2023-04-18 01:00:34

如何设置网站地址URL规范化?网址规范化会造成哪些问题

网站如果出现多个不规范的网址,分散了页面权重,影响搜索引擎爬行和排名。如何设置网站地址URL规范化?1、使用301转向,很多用户习惯搜索带www,把不带www的301转向到带www的页面即可。2、URL网址规范化,链接网址都采用首选域名的绝对地址。3、canonical标签相当于一个页内的301转向,区别在于用户并不被转向,还是停留在原网址上面,而搜索引擎会把他当做是301转向处理,把页面权重集中

Public @ 2011-08-17 16:11:21

更多您感兴趣的搜索

0.616245s