Categories


Tags


Robots文件是否支持中文目录

有同学问百度站长学堂一个关于robots的问题:我们有个站点的目录结构使用的是中文,这样式儿的:www.a.com/冒险岛/123.html,那在制作robots文件和sitemap文件的时候,可以直接使用中文吗?百度能获取到吗?在实际操作中我们发现,sitemap中有文件是可以生效的,但robots封禁貌似没有反应,所以想确认一下:robots文件是否支持中文?

工程师解答:Baiduspider目前(2016年10月)在robots里是不支持中文的。

同学追问:那我们进行UrlEncode编码会不会支持呢?比如这种:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97

工程师解答:robots文件支持这种写法。但是否生效,还要取决于当时BaiduSpider抓取的是哪种形式结构的链接,如果是UrlEncode编码就可以生效,如果是中文就非常不幸了。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2013-01-02 16:08:54

自动化锚文本的常见问答

问:当内容里出现AAB这样的关键词时,锚文本是给AAB、还是AA或AB?我们设置的规则是给AAB,即当长词和短词都是关键词时,锚文本给长词。问:同一个关键词在内容里出现多次会怎么样?一个内容里同一个关键词锚文本仅加第一次,同一个URL也只做一次锚文本。问:如果自动添加的锚文本不满意怎么办?在功能设置里,可以选择自动添加锚文本,或手动添加。问:定时发布的内容锚文本是怎么安排?内容选择定时发布、草稿箱

Public @ 2017-10-07 16:11:33

不带www域名重定向到带www域名

在.htaccess文件中添加以下代码: RewriteEngine On RewriteCond %{HTTP_HOST} !^www\. RewriteRule ^(.*)$ http://www.%{HTTP_HOST}/$1 [R=301,L] 这段代码的作用是:首先打开Apache的重写引擎;然后检查HTTP_HOST是否已经是以"www."开头,如果不是,则执行下一行代码;最后执行

Public @ 2023-06-23 12:00:08

网站误封Robots该如何处理

网站误封Robots该如何处理robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节。在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!如果误封禁,请及时删除或修改robots文件,并到百度站长平台robots工具中进行检测和更新。来源:百度搜索资源平台

Public @ 2022-04-19 16:08:59

更多您感兴趣的搜索

0.435144s