Categories


Tags


robots.txt文件的格式

"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:

"<field>:<optionalspace><value><optionalspace>"。

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:

User-agent:

该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。

Disallow:

该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如"Disallow:/help"对/help.html 和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。

Allow:

该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。

使用"*"和"$":

robots支持使用通配符"*"和"$"来模糊匹配url:

"$" 匹配行结束符。

"*" 匹配0或多个任意字符。


Public @ 2019-06-19 16:09:32

404页面该怎么做?

404页面是当用户请求的页面不存在时显示的页面。以下是创建一个好的404页面的要点: 1. 提示用户页面不存在:在页面上明确告诉用户,请求的页面不存在,这是最重要的 2. 提供导航链接:尽可能提供有用的导航链接以帮助用户找到他们可能想要查看的类似内容的链接 3. 提供搜索栏:在页面上提供搜索栏可让用户搜索相关内容或页面 4. 不要让它看起来太“错误”:确保页面看起来友好,避免使用太多的技术

Public @ 2023-06-09 15:50:15

Sitemap协议类型及包含范围

Sitemap协议是一种用于向搜索引擎提供网站结构信息的标准协议。其包含的内容包括网站中所有页面的URL、页面最后更新时间、页面更新频率等信息。 目前,Sitemap协议一共有以下两种类型: 1. XML Sitemap:用于描述网站的全部网页,包括网页的URL、标识、访问频率、权重等信息。XML Sitemap可以包含多个XML文件,但每个XML文件的大小不能超过50MB。 2. HTML

Public @ 2023-04-18 11:50:23

robots.txt文件有什么必要?

robots.txt文件是一个文本文件,用于向搜索引擎和其他机器人网站爬虫指定哪些页面或内容可以被爬取,哪些页面或内容不能被爬取。它的主要作用是为了控制搜索引擎和其他机器人网站爬虫访问和抓取网站内容,保护网站的隐私和安全。如果一个网站不想被某些搜索引擎或爬虫访问、爬取和索引,就可以通过robots.txt文件来禁止它们。另外,robots.txt文件还可以防止一些机器人抓取出现线上攻击或滥用等安全

Public @ 2023-06-12 20:00:21

头条搜索Robots匹配说明

匹配方式分两部分:1.path部分,2.参数部分匹配支持?*$?两种通配符?*? 表示任何有效字符的 0 个或多个个案。?$? 表示网址结束。path部分与google匹配方式保持一致,也就是只有/或是*开头的规则才有机会匹配上?/?匹配根目录以及任何下级网址?/fish??/fish?开头的匹配项* ?/fish?* ?/fish.html?* ?/fish/salmon.html?* ?/fi

Public @ 2011-09-27 16:09:01

更多您感兴趣的搜索

0.434712s