Categories


Tags


robots使用误区

误区一:我的网站上的所有文件都需要蜘蛛抓取,那我就没必要在添加robots.txt文件了。反正如果该文件不存在,所有的搜索蜘蛛将默认能够访问网站上所有没有被口令保护的页面。

每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该做网站中添加一个robots.txt。

误区二:在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。

网站中的程序脚本、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会浪费服务器资源。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引这些文件。

具体哪些文件需要排除, 在robots.txt使用技巧一文中有详细介绍。

误区三:搜索蜘蛛抓取网页太浪费服务器资源,在robots.txt文件设置所有的搜索蜘蛛都不能抓取全部的网页。

如果这样的话,会导致整个网站不能被搜索引擎收录。

来源:360站长平台


Public @ 2017-10-31 16:09:18

404页面该怎么做?

404页面是指用户请求的页面不存在或者无法访问时,服务器返回的错误页面。对于用户来说,404页面给人一种网站失误或不可靠的印象,但如果设计得当,404页面也可以是有趣的、有创意的,并可以引导用户继续浏览网站。 以下是404页面设计的一些建议: 1. 提供清晰的错误提示:页面应该提供简短明了的错误提示,让用户知道他们访问的页面不存在。 2. 保持网站风格一致:404页面应该与网站的设计风格一致

Public @ 2023-05-28 12:00:23

通过Canonical标签解决重复内容收录

Canonical标签是指在网页的HTML代码中添加一个链接指向该页面的主要版本,当页面有多个URL时,通过Canonical标签告诉搜索引擎哪个是主要版本,从而避免重复内容被收录。 例如,在网站中有一篇文章,URL分别是: http://www.example.com/article http://www.example.com/articles/123 http://www.examp

Public @ 2023-06-05 19:00:10

网站误封Robots该如何处理

网站误封Robots该如何处理robots文件是搜索生态中很重要的一个环节,同时也是一个很细节的环节。在网站运营过程中,很容易忽视robots文件的存在,进行错误覆盖或者全部封禁robots,造成不必要损失!如果误封禁,请及时删除或修改robots文件,并到百度站长平台robots工具中进行检测和更新。来源:百度搜索资源平台

Public @ 2022-04-19 16:08:59

robots里这样写,就能避免蜘蛛爬这个“index.htm”这个首页?

我robots这样写是不是就能避免蜘蛛爬这个“index.htm”这个首页?User-agent: *Disallow: /index.htm11-30.我的index.htm是现在默认的首页,想屏蔽蜘蛛抓取。让蜘蛛爬另一个文档,主要是规避备案巡查我的网站和我备案的不一样,服务器那边要求改,我就整了个htm文档来规避下。写法没有问题。但正常的不建议屏蔽首页地址,,“index.htm”这个后缀地址

Public @ 2019-12-16 16:09:25

更多您感兴趣的搜索

0.484972s