Categories


Tags


robots.txt使用教程

robots.txt 是一个文本文件,用于指示搜索引擎爬虫哪些页面可以被抓取,哪些页面不应该被抓取。在建立一个网站时,可以通过 robots.txt 控制搜索引擎爬虫对网站的访问,以达到更好的SEO效果。以下是robots.txt的使用教程。 步骤1:新建 robots.txt 文件 在网站的根目录下,新建一个名为 robots.txt 的文本文件。 步骤2:编辑 robots.txt 文件 编辑 robots.txt 文件,指示搜索引擎爬虫哪些页面可以被抓取,哪些页面不应该被抓取。 1.指示所有搜索引擎不抓取任何网页 User-agent: * Disallow: / 2.指示所有搜索引擎抓取所有网页 User-agent: * Disallow: 3.指示某些搜索引擎不抓取某些网页 User-agent: Baidu Disallow: /private/ User-agent: Googlebot Disallow: /test/ 4.指定抓取频率 User-agent: * Disallow: Crawl-delay: 5 5.添加注释 在 robots.txt 文件中添加注释,以便其他人更好地理解你的设置。 # This is an example robots.txt file # It prevents all search engines from indexing your site 步骤3:上传 robots.txt 文件 连接 FTP 服务器,将编辑好的 robots.txt 文件上传到网站的根目录下。 步骤4:验证robots.txt文件是否生效 在浏览器中输入网站地址,后面加上 /robots.txt,如:http://www.example.com/robots.txt,打开文件查看是否生效。 总的来说,robots.txt 是一个非常有用的工具,可以让我们更好地控制搜索引擎抓取我们网站的页面,从而达到更好的SEO效果。

Public @ 2023-04-18 01:00:34

玩转robots协议

2013年2月8日北京市第一中级人民法院正式受理了百度诉奇虎360违反“Robots协议”抓取、复制其网站内容的不正当竞争行为一案,索赔金额高达一亿元,这可以看做2012年下半年“3B大战”的继续。在此次索赔案件中,百度称自己的Robots文本中已设定不允许360爬虫进入,而360的爬虫依然对“百度知道”、“百度百科”等百度网站内容进行抓取。其实早在2012年11月初,针对双方摩擦加剧的情况,在中

Public @ 2019-05-13 16:09:21

内部链接nofollow控制权重分布

Nofollow属性推出以后,Matt Cutts多次说过,nofollow既可以用在论坛,博客等的留言中,代表这些链接不是站长能控制和背书的,也可以用在某些内部链接,以达到控制内部链接权重和PR流动及分布的目的。最常见的应用是在网站联系我们,隐私权政策,用户条款等链接上。这些网页往往都是整站有链接,如果没有使用nofollow,整站的链接权重都会平等的流动到这些网页上。而像隐私权政策这些网页一般

Public @ 2017-01-19 16:08:47

更多您感兴趣的搜索

0.435736s