Categories


Tags


robots.txt文件有什么必要?

什么是robots.txt文件?

搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。

如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。

robots.txt文件有什么必要?

从SEO的角度,robots.txt文件是一定要设置的,原因:

1、网站上经常存在这种情况:不同的链接指向相似的网页内容。这不符合SEO上讲的“网页内容互异性原则”。采用robots.txt文件可以屏蔽掉次要的链接。

2、网站改版或URL重写优化时原来不符合搜索引擎友好的链接需要全部屏蔽掉。采用robots.txt文件删除旧的链接符合搜索引擎友好。

3、一些没有关键词的页面,屏蔽掉更好。

4、一般情况下,站内的搜索结果页面屏蔽掉更好。

来源:搜外网


Public @ 2018-10-22 16:09:22

nofollow标签的使用方法和作用

读者”睡不着”在Google的数据中心们这篇帖子里留了评论,ZAC解释一下,我在你的帖子回复里面看到说在你的博客里回复帖子签名的链接可以算外部链接的,刚刚仔细看了一下,你的代码a xhref=’http://www.itqy.net’ rel=’external nofollow’这样子,根本就不能算外部链接的了,这样子做是不是不太厚道啊!希望ZAC出来解释一下!要解释这个问题不是一句两句能说清的

Public @ 2015-11-16 16:08:46

什么是移动Sitemap协议,如何提交移动Sitemap协议

移动Sitemap协议是一种用于向搜索引擎提交移动网站页面信息的协议。它类似于普通的Sitemap协议,但是专门针对移动网站页面优化而设计。 可以通过以下步骤来提交移动Sitemap协议: 1、创建移动Sitemap文件:根据搜索引擎要求,创建包含移动网站页面信息的Sitemap文件。 2、将Sitemap文件上传到网站服务器中。 3、将Sitemap文件的URL提交给搜索引擎:访问搜索引

Public @ 2023-06-02 08:50:11

robot.txt在SEO中的作用

在进行网站优化的时候,经常会使用robots文件把一些内容不想让蜘蛛抓取,以前写过一篇网站优化robots.txt文件的运用 现在写这篇文章在补充一点点知识!什么是robots.txt文件搜索引擎通过一种爬虫spider程序(又称搜索蜘蛛、robot、搜索机器人等),自动搜集互联网上的网页并获取相关信息。鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件r

Public @ 2020-01-26 16:09:04

更多您感兴趣的搜索