Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

博客网站导航的制作

博客网站导航的制作需要遵循以下步骤: 1. 确定导航栏的位置和样式 确定导航栏的位置和样式,一般情况下,导航栏应该位于网站页面的顶部或侧边,同时要和网站整体的设计风格一致。 2. 确定导航栏的内容 确定导航栏的内容,一般来说,导航栏应该包含网站的主要版块和功能,例如首页、分类、标签、归档、关于我们等。 3. 设计导航栏的图标和颜色 设计导航栏的图标和颜色,可以采用简洁明了的图标和醒目的

Public @ 2023-04-28 03:50:12

搜索引擎自己应该是可以检测协议死链(404、403等)的,为什么还需要站长提交?

因为,搜索引擎对各类网页的抓取过程可能存在不可抗力的因素,比如网络延迟、缓存策略、主机垮掉等,可能会导致抓取异常,无法正常检测死链。这时就需要站长通过提交,及时通知搜索引擎,让其及时发现并修复死链。

Public @ 2023-03-03 04:48:09

​robots是什么?robots mate和​robots有什么区别

robots是什么robots是网站跟蜘蛛间的协议,当访问站点时,它首先检查机器人是否存在于站点的根目录中。如果找到,蜘蛛就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。一定要注意txt文件必须放在站点的根目录中,文件名必须为小写。robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定

Public @ 2012-12-17 16:09:27

更多您感兴趣的搜索

0.507920s