Categories


Tags


百度站长平台robots工具升级公告

亲爱的网站管理员,

很高兴的告诉大家,百度站长平台robots工具全新升级,升级后能够实时查看网站在百度中已生效的的robots文件,并支持对robots进行语法及逻辑校验,有助于站长更清晰的管理网站的robots文件,避免错误的封禁搜索引擎。

功能亮点:

1、实时查看网站在百度中已生效的robots文件内容并可通知百度更新:

升级后的robots能够查看网站已生效的robots文件,同时会展现网站最新的robots文件。若当前生效的并非最新的robots内容,可在工具中点击“更新”提醒百度。

2、支持对robots文件进行语法及逻辑校验:

在robots工具—规则校验—填写robots规则—填写被实验的路径中,点击“校验”,会展现该路径是否能被成功被封禁、或者robots规则是否有语法错误。robots填写还支持从已验证网站直接导入robots内容。

robots工具地址:http://zhanzhang.baidu.com/robots/index

哪些情况下需要使用robots工具?

1、我的网站下有某个目录涉及到了隐私数据,不想被搜索引擎收录。

此时您可以使用robots工具—创建生成页面中,根据robots规则创建正确的robots文件,并将robots文件上传到网站顶级目录中。

robots1.png

2、我用robots封禁了网站的某目录,但依然被抓取,怎样查设置的robots文件是不是已生效?如果还未生效,怎样提醒百度更新?

查看网站已生效的robots文件:您可以在robots工具—robots检测—下拉列表选取站点域名,点击“检测”,就可查看网站已生效的robots文件,并同时会展现网站最新的robots文件。

提醒百度更新网站的robots文件:若已生效的robots文件不是最新的,那可在“robots检测”页面的下方“提交更新”处点击更新进行提醒。

robots2.JPG

3、我的网站设置robots文件,怎样判断设置的是否正确?

您可在robots工具—规则校验中, 对robots代码的语法及逻辑进行校验,并可校验路径是否被封禁。

(1)校验语法或逻辑错误:您可在robots工具—规则校验中,输入robots代码,点击“校验,会展现您所填写的Robots规则是否有语法错误。Robots填写还支持从已验证网站直接导入robots内容。

(2)校验路径是否被封禁:您可在robots工具—规则校验中,分别输入robots代码、需要校验的路径,点击“校验”,会额外展现该路径是否成功被封禁。

robots3.JPG

来源:百度搜索资源平台


Public @ 2016-06-12 16:09:01

站点地图创建方法

1、在网站地图的文本和超级链接里提及最主要的关键词短语,帮助搜索引擎来识别所链接的页面主题是什么。2、为每一个链接提供一个简短的介绍,以提示访问者这部分内容是关于哪方面的。3、提供文本链接到你站点上最主要的页面上;根据您的网站大小,网页数目的多少,甚至可以链接到所有的页面。4、为搜索引擎提供一条绿色通道,使搜索引擎程序把主要网页迅速收录进去。5、当用户查寻网站上原来看过的相关信息时,告诉他们如何去

Public @ 2022-10-25 16:09:52

robots.txt语法教程

用几个最常见的情况,直接举例说明:1. 允许所有SE收录本站:robots.txt为空就可以,什么都不要写。2. 禁止所有SE收录网站的某些目录:User-agent: *Disallow: /目录名1/Disallow: /目录名2/Disallow: /目录名3/3. 禁止某个SE收录本站,例如禁止百度:User-agent: BaiduspiderDisallow: /4. 禁止所有SE收录

Public @ 2017-12-16 16:09:16

Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?工程师解答:Baiduspider

Public @ 2013-01-02 16:08:54

常见的robots.txt文件用法实例

常见的robots.txt文件用法实例:1、禁止所有搜索引擎抓取网站的任何部分User-agent: *Disallow: /这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)User-agent: *Allow: /这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以

Public @ 2010-05-21 16:09:23

更多您感兴趣的搜索

0.478489s