Categories


Tags


什么是URL标准化(规范网页),URL标准化设置

开始之前我需要给大家强调一个思路,每个关键词应该对应一个URL而不是多个。(但一个URL可以对应多个关键词。)

一个网站的首页,往往通过几个不同的URL可以访问到,举个例子:

https://www.seowhy.com/

https://seowhy.com

https://www.seowhy.com/index.html

https://www.seowhy.com/index.php

搜外首页的关键词是:SEO,这个关键词应该对应的是哪一个URL呢?

答案是:不管对应哪一个URL,核心是,这个关键词要一直对应这一个URL。

SEOWHY选择的是https://www.seowhy.com 这个URL。

1、  SEOWHY的首页我们只给https://www.seowhy.com这个URL,不会给另外三个。https://www.seowhy.com这个就是首页。

2、  当你在站内或站外做锚文本时,要用https://www.seowhy.com这个URL,而不是给另外三个,否则会导致不能集中权重到https://www.seowhy.com上。

3、  网站首页采用的绝对地址https://www.seowhy.com。

这就是URL标准化的概念,也叫确定规范网页。

规范网页是一组内容完全相同或高度相似的网页的首选版本。标准化URL是指这个规范网页的指定URL。

以上例子中,https://www.seowhy.com/就是搜外首页的标准化URL。

来源:搜外网


Public @ 2009-11-06 16:11:59

虚拟主机怎么设置404页面?

要设置虚拟主机的404页面,可以按照以下步骤进行操作: 1. 打开虚拟主机管理面板,在菜单栏中找到“错误页面”或者“定制错误页面”等设置选项。 2. 找到404错误页面设置选项,通常可以选择使用默认的404错误页面或者自定义404错误页面。 3. 如果选择使用默认的404错误页面,则无需做任何设置即可使用。 4. 如果选择自定义404错误页面,则需要新建一个404.html或者404.ph

Public @ 2023-03-31 22:50:29

robots文件中屏蔽的为什么还可以收录?

robots.txt 是一个标准,它通过提供一些规则,告诉搜索引擎爬虫哪些网页可以被爬取,哪些网页不应该被爬取。但是,一些搜索引擎爬虫可能会忽略这些规则,直接抓取它们想要的网页。 此外, robots.txt 文件的存在只是一个建议而不是命令。在一些情况下,搜索引擎爬虫可能会收录被 robots.txt 文件所屏蔽的网页,这有可能是因为发布这个网页的人想要让它被收录,也有可能是因为机器人误解了

Public @ 2023-04-24 07:50:07

URL是什么?URL里包含关键词对收录有帮助吗?

URL是什么URL是统一资源定位符,对可以从互联网上得到的资源的位置和访问方法的一种简洁的表示,是互联网上标准资源的地址。互联网上的每个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它URL结构由两部分组成,第一部分是协议,就是大家在网址前边看到的一串字母,最常见的就是HTTP和HTTps,一般在下图所示的位置。第二部分就是大家最常见的服务器名称或者IP地址,通俗点来说

Public @ 2013-12-29 16:11:13

更多您感兴趣的搜索

1.211012s