Categories


Tags


百度站长平台robots工具升级公告

亲爱的网站管理员,

很高兴的告诉大家,百度站长平台robots工具全新升级,升级后能够实时查看网站在百度中已生效的的robots文件,并支持对robots进行语法及逻辑校验,有助于站长更清晰的管理网站的robots文件,避免错误的封禁搜索引擎。

功能亮点:

1、实时查看网站在百度中已生效的robots文件内容并可通知百度更新:

升级后的robots能够查看网站已生效的robots文件,同时会展现网站最新的robots文件。若当前生效的并非最新的robots内容,可在工具中点击“更新”提醒百度。

2、支持对robots文件进行语法及逻辑校验:

在robots工具—规则校验—填写robots规则—填写被实验的路径中,点击“校验”,会展现该路径是否能被成功被封禁、或者robots规则是否有语法错误。robots填写还支持从已验证网站直接导入robots内容。

robots工具地址:http://zhanzhang.baidu.com/robots/index

哪些情况下需要使用robots工具?

1、我的网站下有某个目录涉及到了隐私数据,不想被搜索引擎收录。

此时您可以使用robots工具—创建生成页面中,根据robots规则创建正确的robots文件,并将robots文件上传到网站顶级目录中。

robots1.png

2、我用robots封禁了网站的某目录,但依然被抓取,怎样查设置的robots文件是不是已生效?如果还未生效,怎样提醒百度更新?

查看网站已生效的robots文件:您可以在robots工具—robots检测—下拉列表选取站点域名,点击“检测”,就可查看网站已生效的robots文件,并同时会展现网站最新的robots文件。

提醒百度更新网站的robots文件:若已生效的robots文件不是最新的,那可在“robots检测”页面的下方“提交更新”处点击更新进行提醒。

robots2.JPG

3、我的网站设置robots文件,怎样判断设置的是否正确?

您可在robots工具—规则校验中, 对robots代码的语法及逻辑进行校验,并可校验路径是否被封禁。

(1)校验语法或逻辑错误:您可在robots工具—规则校验中,输入robots代码,点击“校验,会展现您所填写的Robots规则是否有语法错误。Robots填写还支持从已验证网站直接导入robots内容。

(2)校验路径是否被封禁:您可在robots工具—规则校验中,分别输入robots代码、需要校验的路径,点击“校验”,会额外展现该路径是否成功被封禁。

robots3.JPG

来源:百度搜索资源平台


Public @ 2016-06-12 16:09:01

站点地图创建方法

1、在网站地图的文本和超级链接里提及最主要的关键词短语,帮助搜索引擎来识别所链接的页面主题是什么。2、为每一个链接提供一个简短的介绍,以提示访问者这部分内容是关于哪方面的。3、提供文本链接到你站点上最主要的页面上;根据您的网站大小,网页数目的多少,甚至可以链接到所有的页面。4、为搜索引擎提供一条绿色通道,使搜索引擎程序把主要网页迅速收录进去。5、当用户查寻网站上原来看过的相关信息时,告诉他们如何去

Public @ 2022-10-25 16:09:52

大型网站如何做301重定向的策略

最近笔者在SEO总监群看到有朋友的网站遇到这样一个问题:网站更换新域名并做了301重定向,但是一段时间后老域名的排名转移到了新域名,而新域名的排名逐渐下降(越来越严重),时隔半年排名也没有恢复。我所经历的301这样让我想起了曾经做过的301,当时笔者担任华图的SEO负责人,为了品牌升级需要把老域名切换成新双拼域名。为此,我做了大量的准备工作。没想到结构依然非常悲剧,301重定向之后chinaz的预

Public @ 2022-09-11 16:09:11

robots.txt语法教程

robots.txt 是一个文件,它位于网站的根目录下,用于告诉搜索引擎和机器人哪些页面可以被访问或哪些不应该被访问。以下是 robots.txt 语法教程。 1. User-agent User-agent 表示搜索引擎或机器人的名称。当网站管理员想要禁止某个搜索引擎或机器人访问网站时,可以使用 User-agent 指定名称。 例如: User-agent: Googlebot Dis

Public @ 2023-06-06 11:00:18

robots.txt文件放在哪里?

robots.txt文件放在哪里?robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站(比如 http://www.abc.com)时,首先会检查该网站中是否存在http://www.abc.com/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。网站 URL相应的 robots.txt的 URLhtt

Public @ 2017-01-09 16:08:57

更多您感兴趣的搜索

0.104169s