Categories


Tags


robots使用误区

误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。

每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt。

误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。

网站中的程序脚本、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。

具体哪些文件需要排除, 在robots.txt使用技巧一文中有详细介绍。

误区三:搜索蜘蛛抓取网页太浪费服务器资源,在robots.txt文件设置所有的搜索蜘蛛都不能抓取全部的网页。

如果这样的话,会导致整个网站不能被搜索引擎收录。

来源:360站长平台


Public @ 2017-10-31 16:09:18

301跳转常见问题汇总

上周有站长朋友在百度站长平台社区提出了一些关于301跳转的问题,我们特别邀请Baiduspider技术专家对此做了解答。在后续与Baiduspider技术专家沟通时,我们又获得了一些信息,今天通过采访的形式将内容传递给更多的站长朋友。问:我设置了301跳转,多久可以生效?答:目前百度无法承诺301跳转的生效时间,因为站长感受到的生效时间会受多因素影响,比如Baiduspider再次抓取这个页面发现

Public @ 2016-10-18 16:09:07

内部链接(站内链接)的优化

1. 相关性优化:内部链接应该将相关的页面和文章链接起来,帮助搜索引擎理解网站结构和页面之间的关系,提高网站整体的相关性。 2. 锚文本优化:内部链接的锚文本应该使用有意义的关键词,避免使用无意义的词语或重复关键词,同时要注意使用恰当的关键词密度,避免过度优化。 3. 页面深度优化:内部链接的页面深度应该合理,不要让页面深度过深或过浅,要让搜索引擎和用户能够轻松地找到页面和内容。 4. 外部

Public @ 2023-03-26 19:50:26

什么是robots文件

什么是robots文件Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网

Public @ 2017-09-19 16:02:20

关于robots.txt的二三事

【Robots简介】robots.txt是一个协议,是搜索引擎访问网站时第一个要查看的文件,它存在的目的是告诉搜索引擎哪些页面能被抓取,哪些页面不能被抓取。当spider访问一个站点时,会首先检查该站点根目录下是否存在robots.txt,如果存在,spider会按照文件中的内容来确定访问的范围;如果该文件不存在,所有的spider将能够访问网站上所有没有被口令保护的页面。【具体介绍】1、User

Public @ 2017-02-13 16:09:19

更多您感兴趣的搜索

0.491729s