Categories


Tags


360搜索对Robots协议的扩展

360搜索根据站长们的反馈,会陆续推出扩展的Robots协议命令。这些命令将能帮助站长们提高和360搜索爬虫沟通的效率,减少站长们维护Robots协议文件的技术成本。

360搜索首个扩展命令是:indexpage,站长们可以使用此命令告知360搜索哪些网页经常更新。360搜索会根据站长的指示以及自己的算法,智能调整爬虫抓取频率,实现对您网站新内容的更高频率抓取。

在命令中可以使用*、$等通配符。

示例:

使用通配符的

Indexpage: http://bbs.360safe.com/forum-*-1.html$

Indexpage: http://ent.sina.com.cn/*/roll.html

不用通配符的:

Indexpage: http://roll.tech.sina.com.cn/internet_all/index.shtml

Indexpage: http://roll.tech.sina.com.cn/it/index.shtml

Indexpage: http://roll.tech.sina.com.cn/tele/index.shtml

Indexpage: http://roll.tech.sina.com.cn/discovery/index.shtml

Indexpage: http://roll.tech.sina.com.cn/elec/index.shtml


Public @ 2019-02-15 16:09:33

头条搜索Robots匹配说明

头条搜索Robots匹配说明是指在头条搜索过程中,搜索引擎会先根据用户的搜索关键词和搜索历史等信息,匹配出相关内容并展示给用户。而在这个过程中,搜索引擎会使用一种名为Robots的自动化程序来对网站进行定期的抓取和索引,以保持搜索结果的实时性和准确性。Robots程序会自动遵循搜索引擎协议和规则,对网站进行扫描和抓取,同时遵循相关网站的robots.txt文件中的规则来限制抓取行为。因此,网站发布

Public @ 2023-06-11 03:50:12

​robots是什么?robots mate和​robots有什么区别

robots是什么robots是网站跟蜘蛛间的协议,当访问站点时,它首先检查机器人是否存在于站点的根目录中。如果找到,蜘蛛就会按照该文件中的内容来确定访问的范围,如果该文件不存在,那么搜索机器人就沿着链接抓取。一定要注意txt文件必须放在站点的根目录中,文件名必须为小写。robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定

Public @ 2012-12-17 16:09:27

常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:1、禁止所有搜索引擎抓取网站的任何部分User-agent: *Disallow: /这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)User-agent: *Allow: /这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以

Public @ 2010-05-21 16:09:23

关于robots.txt的二三事

【Robots简介】robots.txt是一个协议,是搜索引擎访问网站时第一个要查看的文件,它存在的目的是告诉搜索引擎哪些页面能被抓取,哪些页面不能被抓取。当spider访问一个站点时,会首先检查该站点根目录下是否存在robots.txt,如果存在,spider会按照文件中的内容来确定访问的范围;如果该文件不存在,所有的spider将能够访问网站上所有没有被口令保护的页面。【具体介绍】1、User

Public @ 2017-02-13 16:09:19

更多您感兴趣的搜索

0.743221s