Categories


Tags


常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *

Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *

Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *

Disallow: /a/

Disallow: /b/

Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *

Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。

对于大部分网站,常用的就是以上4种情况。

来源:搜外网


Public @ 2010-05-21 16:09:23

Apache IIS/.net 制作404页面

Apache 404 页面: 1. 创建一个名为“404.html”的文件,该文件将成为您的404错误页面。 2. 将此文件上传到您网站的根目录(或子目录,如果您希望针对特定子目录生成404页面)中。 3. 打开您网站的.htaccess文件并添加以下代码: ``` ErrorDocument 404 /404.html ``` 4. 现在,每当用户在您的网站上访问不存在的页面时,将自动重定

Public @ 2023-06-05 12:50:13

如何将无效的URL重定向到其他页面?

很多时候,我们考虑把无效的URL比如:用户拼错的URL、不存在的URL重定向到别的网页。例如:网站的首页、404页面等。如何将无效的URL重定向到其他页面?在httpd.conf或.htaccess文件中使用ErrorDocument来捕获404 (找不到文件)错误:ErrorDocument 404 /index.htmlDirectoryIndex index.html /path/to/no

Public @ 2011-02-03 16:09:57

robots.txt文件的格式

robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:"<field>:<optional space><value><optionalspace>"在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常

Public @ 2012-09-17 16:08:56

更多您感兴趣的搜索

0.452730s