Categories


Tags


巧用Robots避免蜘蛛黑洞

对于百度搜索引擎来说,蜘蛛黑洞特指网站通过极低的成本制造出大量参数过多,及内容雷同但具体参数不同的动态URL ,就像一个无限循环的“黑洞”将spider困住,Baiduspider浪费了大量资源抓取的却是无效网页。

比如很多网站都有筛选功能,通过筛选功能产生的网页经常会被搜索引擎大量抓取,而这其中很大一部分检索价值不高,如“500-1000之间价格的租房”,首先网站(包括现实中)上基本没有相关资源,其次站内用户和搜索引擎用户都没有这种检索习惯。这种网页被搜索引擎大量抓取,只能是占用网站宝贵的抓取配额。那么该如何避免这种情况呢?

我们以北京某团购网站为例,看看该网站是如何利用robots巧妙避免这种蜘蛛黑洞的:

对于普通的筛选结果页,该网站选择使用静态链接,如:http://bj.XXXXX.com/category/zizhucan/weigongcun

同样是条件筛选结果页,当用户选择不同排序条件后,会生成带有不同参数的动态链接,而且即使是同一种排序条件(如:都是按销量降序排列),生成的参数也都是不同的。如:http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqhek

http://bj.XXXXX.com/category/zizhucan/weigongcun/hot?mtt=1.index%2Fpoi.0.0.i1afqi5c

对于该团购网来说,只让搜索引擎抓取筛选结果页就可以了,而各种带参数的结果排序页面则通过robots规则拒绝提供给搜索引擎。

robots.txt的文件用法中有这样一条规则:Disallow: /*?* ,即禁止搜索引擎访问网站中所有的动态页面。该网站恰是通过这种方式,对Baiduspider优先展示高质量页面、屏蔽了低质量页面,为Baiduspider提供了更友好的网站结构,避免了黑洞的形成。

来源:百度搜索资源平台 百度搜索学堂


Public @ 2020-05-11 16:08:55

禁止搜索引擎收录的方法

1. 什么是robots.txt文件?搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当

Public @ 2015-10-28 16:08:55

叨叨死链这回事儿

叨叨死链是指在互联网上的一种现象,即某个链接已经失效,无法正常访问或跳转到目标网页或资源。叨叨死链可能是由于目标网页删除、网页重构导致链接改变或输入错误等原因造成的。 叨叨死链在互联网上比较常见,特别是在一些较老的或不经常维护的网站上。这些死链会给用户带来不便,尤其当用户点击一个链接时,期望能够直接访问相关内容,却发现链接已经失效,无法打开目标页面。 对于网站所有者来说,及时修复死链是保持网站

Public @ 2023-07-21 00:50:23

搜索问答剧场【七】“robots文件”常见问题解析

哈喽大家好!【搜索问答剧场】最新一集如期而至,平小雕又带着满满的知识干货回来啦!准备好迎接知识的洗礼了嘛?第五集【搜索问答剧场】中,跟大家提到了【Robots】工具。本期就来详细教大家如何灵活地使用【Robots】工具,以及如何正确设置网站整体的抓取范围。一、了解robots文件1、Q:什么是robots文件?A:robots文件用于指定spider在网站上的抓取范围,在文件中可以声明网站中不想被

Public @ 2015-05-15 15:16:25

robots.txt文件有什么必要?

什么是robots.txt文件?搜索引擎机器人通过链接抵达互联网上的每个网页,并抓取网页信息。搜索引擎机器人在访问一个网站时,会首先检查该网站的根目录下是否有一个叫做robots.txt的纯文本文件。当我们的网站有一些内容不想被搜索引擎收录,我们可以通过设置robots.txt文件告知搜索引擎机器人。如果网站上没有禁止搜索引擎收录的内容,则不用设置robots.txt文件,或设置为空。robots

Public @ 2018-10-22 16:09:22

更多您感兴趣的搜索

0.433280s