Categories


Tags


百度搜索robots协议全新升级公告

  百度搜索robots协议全新升级公告

整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容及代码片段有且仅有借鉴意义。

  尊敬的用户:

为了更好地保护网站主的合法权益、提升百度搜索用户搜索体验,百度搜索于2020年10月27日发布了新版robots协议,主要特性包括:

1. 支持抓取控制与数据保护视角的并存

新增规定了两个特殊的抓取指令: allow-if-previously-blocked 和 noindex-if-previously-indexed,用于方便网站主在控制抓取行为的同时,保护网站内容的安全性。

2. 明细化规范

为了更好地支持抓取控制与数据保护视角的并存,新版robots协议增加了大量规定,对协议的细节进行了明细化,以便网站主使用。

3. 融入网站主实际生活

新版robots协议进一步增强了其实用性。协议中包括了比较常用的content-disposition和content-language指令,并对User-agent指令在临时禁止搜索方面的规定进行了补充。

4. 增加特殊对待百度机器人的规定

针对百度搜索所使用的机器人,新版robots协议增加了特殊规定,为百度机器人提供更好的抓取引导,以提高搜索结果的质量。

本次robots协议的升级,将为广大网站主提供更加丰富的抓取控制功能和更好的搜索体验,我们诚恳地邀请各位网站主按照新版规范,完善自身站点的robots协议文件。

祝愿您的网站越来越优秀!

百度搜索运营团队

2020年11月4日

Public @ 2023-06-20 23:50:02 整理自网络ChatGPT产生之内容,文本内容不具备参考意义,程序内容有且仅有借鉴意义。

在Unix/Linux主机上设置301永久重定向的方法

在Unix/Linux主机上设置的方法可以用.htaccess文件1. Apache模块 mod_alias的 Redirect 和 RedirectMatch命令上面提到2个命令使用方法相似。而区别就是后者RedirectMatch基于正则表达式匹配对当前的URL发送一个外部重定向语法为:Redirect [status] URL-path URLRedirectMatch [status] r

Public @ 2016-01-08 16:09:39

大型网站如何做301重定向的策略

1. 使用301跳转,将301跳转设置为静态资源; 2. 使用通用引擎脚本,如PHP、ASP或Perl脚本,实现编写代码实现301跳转; 3. 如果需要对不同参数进行重定向,则可以对每个参数创建一个重定向规则; 4. 如果需要重定向大量的网页,则创建.htaccess文件,并使用表达式及RewriteRule TIPS的语法编写大量的重定向规则; 5. 使用CDN数据中心,如Cloud

Public @ 2023-02-26 14:54:18

Robots文件的作用和规范写法

控制页面的抓取、索引是SEO优化网站结构时经常需要用到的技术。常见的工具包括:robots文件页面的noindex标签链接的nofollow属性页面的301转向页面的canonical标签等这几个工具各有各的特定应用场景,但都是用于控制网站内部结构,之间容易混淆,还经常需要配合使用,SEO们必须准确理解这几个工具的机制和原理,不然很容易出错。这篇贴子讨论robots文件。Robots文件的作用ro

Public @ 2012-12-30 16:09:20

更多您感兴趣的搜索

0.440156s