Categories


Tags


Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2013-01-02 16:08:54

面包屑导航的原理与作用

面包屑导航是一种网站或应用程序的导航方式,它通过在页面上显示当前位置和历史路径,帮助用户快速理解网站结构和内容,并方便用户回到之前访问的页面。面包屑导航通常出现在页面的顶部或侧边,在用户浏览网站时一直存在。它的原理是在用户进入每个页面时,记录下之前访问的路径和页面层级关系,然后将这些信息用面包屑导航的形式展示给用户。 面包屑导航的作用主要有以下几点: 1. 帮助用户了解网站结构:通过显示当前页

Public @ 2023-06-07 01:50:15

robots文件中屏蔽的为什么还可以收录?

我今天来给大家详细讲解下,先了解几个概念1、robots只是禁止抓取,不是禁止收录2、另外还有nofollow的作用不是不抓取这个链接,是不从这个链接传递权重了解这2个概念后,我们再来讨论怎么处理这类收录问题:robots写正确的同时,不要在任何一家收录的网站发外链,友链,也不要主动提交百度,这样才可以保证不被搜索引擎收录,为什么呢?大家百度查一下淘宝,如图:按照道理淘宝写了robots怎么还是收

Public @ 2021-04-26 16:09:29

Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?工程师解答:Baiduspider

Public @ 2013-01-02 16:08:54

robots

robots是网站跟爬虫间的协议,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限,也就是说robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。来源:360站

Public @ 2014-01-16 16:09:19

更多您感兴趣的搜索

0.615094s