Categories


Tags


搜索引擎的Robots协议

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。

robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。

对于Google来说,使用robots也未必能阻止Google将网址编入索引,如果有其他网站链接到该网页的话,Google依然有可能会对其进行索引。按照Google的说法,要想彻底阻止网页的内容在Google网页索引中(即使有其他网站链接到该网页)出现,需要使用noindex元标记或x-robots-tag。例如将下面的一行加入到网页的header部分。

<meta name="googlebot" content="noindex">

如果Google看到某一页上有noindex的元标记,就会将此页从Google的搜索结果中完全丢弃,而不管是否还有其他页链接到此页。

搜索引擎的Robots规则

对于百度来说,情况和Google类似,如果有其他网站链接目标网页,也有可能会被百度收录,从百度的说明页面上看,百度并不支持像Google那样通过noindex完全将网页从索引上删除,只支持使用noarchive元标记来禁止百度显示网页快照。具体的语句如下。

<meta name="Baiduspider" content="noarchive">

上面这个标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

例如,淘宝网目前就通过robots.txt来屏蔽百度爬虫,但百度依旧收录了淘宝网的内容,百度搜索“淘宝网”,第一个结果也是淘宝网首页地址,只是该页面没有网页快照,因此看来,网站只能禁止百度的快照,而无法禁止百度为网页建索引。

来源:月光博客


Public @ 2018-04-08 16:09:21

从基础到精通:认识网站301重定向的那些事

网站301重定向是指将旧的URL地址重定向到新的URL地址上,主要是为了避免搜索引擎和用户访问失效的页面,同时还可以保留原有的页面权重和排名。 以下是了解网站301重定向的一些基础知识: 1. 什么是301重定向? 301重定向是一种HTTP状态码,它平稳地将原始URL指向一个新的URL地址,使搜索引擎和用户自动跳转到新的页面。 2. 为什么需要301重定向? 301重定向可以帮助用户访

Public @ 2023-05-30 05:50:20

网站结构优化:所谓F型结构是指什么

F型结构是一种常见的网站界面设计,通过网页访问热点分析,发现用户在第一次访问网页时会按照“F”型的阅读习惯,即先从左上角开始扫视,然后向右扫过,最后再向下扫过,这样就形成了一个“F”型的阅读路径,网站的设计就要根据这个阅读路径进行布局和排版,以便更好地吸引用户和展示内容。常见的实现方式包括将重要的信息和内容放在左上角和顶部区域,使用有吸引力的图片和标题,适量使用粗体和高亮字体突出关键内容等。

Public @ 2023-06-04 16:00:09

头条搜索Robots匹配说明

头条搜索Robots匹配说明是指在头条搜索过程中,搜索引擎会先根据用户的搜索关键词和搜索历史等信息,匹配出相关内容并展示给用户。而在这个过程中,搜索引擎会使用一种名为Robots的自动化程序来对网站进行定期的抓取和索引,以保持搜索结果的实时性和准确性。Robots程序会自动遵循搜索引擎协议和规则,对网站进行扫描和抓取,同时遵循相关网站的robots.txt文件中的规则来限制抓取行为。因此,网站发布

Public @ 2023-06-11 03:50:12

更多您感兴趣的搜索

0.484746s