Categories


Tags


搜索引擎的Robots协议

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。

robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。

对于Google来说,使用robots也未必能阻止Google将网址编入索引,如果有其他网站链接到该网页的话,Google依然有可能会对其进行索引。按照Google的说法,要想彻底阻止网页的内容在Google网页索引中(即使有其他网站链接到该网页)出现,需要使用noindex元标记或x-robots-tag。例如将下面的一行加入到网页的header部分。

<meta name="googlebot" content="noindex">

如果Google看到某一页上有noindex的元标记,就会将此页从Google的搜索结果中完全丢弃,而不管是否还有其他页链接到此页。

搜索引擎的Robots规则

对于百度来说,情况和Google类似,如果有其他网站链接目标网页,也有可能会被百度收录,从百度的说明页面上看,百度并不支持像Google那样通过noindex完全将网页从索引上删除,只支持使用noarchive元标记来禁止百度显示网页快照。具体的语句如下。

<meta name="Baiduspider" content="noarchive">

上面这个标记只是禁止百度显示该网页的快照,百度会继续为网页建索引,并在搜索结果中显示网页摘要。

例如,淘宝网目前就通过robots.txt来屏蔽百度爬虫,但百度依旧收录了淘宝网的内容,百度搜索“淘宝网”,第一个结果也是淘宝网首页地址,只是该页面没有网页快照,因此看来,网站只能禁止百度的快照,而无法禁止百度为网页建索引。

来源:月光博客


Public @ 2018-04-08 16:09:21

搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

搜索引擎可以通过爬取网页来检测协议死链,但是这个过程是需要时间和资源的。站长提交可以加快搜索引擎检测协议死链的速度,同时也可以为搜索引擎提供更加准确的信息,因为站长提交的信息可能会包括更多的细节和背景信息,这对搜索引擎来说非常有帮助。此外,站长提交还可以让搜索引擎更加及时地了解到网站的变化,从而更加准确地更新索引。

Public @ 2023-04-29 22:00:07

大型网站如何做301重定向的策略

最近笔者在SEO总监群看到有朋友的网站遇到这样一个问题:网站更换新域名并做了301重定向,但是一段时间后老域名的排名转移到了新域名,而新域名的排名逐渐下降(越来越严重),时隔半年排名也没有恢复。我所经历的301这样让我想起了曾经做过的301,当时笔者担任华图的SEO负责人,为了品牌升级需要把老域名切换成新双拼域名。为此,我做了大量的准备工作。没想到结构依然非常悲剧,301重定向之后chinaz的预

Public @ 2022-09-11 16:09:11

360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。在命令中可以使用*、$等通配符。示例:

Public @ 2019-02-15 16:09:33

robots.txt文件的格式

User-agent: [robot名稱] Disallow: [禁止存取的目錄或檔案] Allow: [允許存取的目錄或檔案] Sitemap: [網站地圖檔案位置] 注意事項: - User-agent:要設定的是區分搜索引擎的機器人,可設定多個。若不加此欄位,則視為通用設定。 - Disallow:機器人不可存取的目錄或檔案,在此設定時,要注意目錄名稱或檔案名稱是完整的,不

Public @ 2023-06-17 03:50:39

更多您感兴趣的搜索

0.465712s