Categories


Tags


爬行和抓取

爬行和抓取 是搜索引擎工作的第一步,完成数据收集任务。

1、蜘蛛:

搜索引擎用来爬行和访问页面的程序被称为蜘蛛(spider),也称为机器人(bot)。

2、跟踪链接:

为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行那样,这也是搜索引擎蜘蛛这个名称的由来。

3、吸引蜘蛛:

理论上蜘蛛能爬行和抓取所有页面,但实际上不能,也不会这么做。SEO人员想要让自己的更多页面被收录,就要想方设法吸引蜘蛛抓取。

4、地址库:

为了避免重复爬行和抓取网址,搜索引擎会建立一个地址库,记录已经被发现还没有抓取的页面,以及已经被抓取的页面。

5、文件储蓄:

搜索引擎蜘蛛抓取的数据存入原始页面数据库。其他的页面数据与用户浏览器得到的HTML是完全一样的。每个URL都是这样一个独特的文件编号。

来源:搜外网


Public @ 2019-07-18 16:22:24

搜索引擎是怎么删除重复网页的

搜索引擎是通过比较网页URL,内容和相关属性来删除重复网页的,具体步骤如下: 1. 搜索引擎收集器(Crawler)会在网络上发现新网页并收集,此时会有一定概率发现相同的网页,并添加到收集器的索引中去。 2. 收集器会识别新的网页,把重复的网页排除。 3. 然后,搜索引擎把新索引serves给布置在 Indexer(索引器)中,执行深入索引,会把相同内容的文章及URL排除,仅保留一条记录

Public @ 2023-02-24 23:12:24

搜索引擎的工作原理

有人说,搜索引擎技术似乎不需要本地化,这一看就是彻底不懂这个领域的人讲的。当然,实话说,如果有人说,google在中文本地化方面做得非常好,我是可以部分同意的,同意的比例可能会比google工程师少一些。但我相信google工程师也会告诉你,搜索引擎是需要本地化的。今天写篇科普文,讲讲搜索引擎的技术机理和市场竞争的一些特点。当然,作为从事或有兴趣从事流量运营的朋友,是可以用另一个角度去理解本文。【

Public @ 2010-01-10 16:21:55

搜索引擎对用户搜索词如何处理,怎么判断用户搜索词的结果?

搜索引擎通常会对用户的搜索词进行以下处理: 1. 分词:将用户输入的搜索词拆分成一个个单词,例如将“电影票”拆分为“电影”和“票”。 2. 去除停用词:将搜索词中的一些常见单词(如“的”、“了”等)去掉,因为这些词对搜索结果的影响较小。 3. 相关性计算:根据搜索引擎的算法,计算出每个搜索词与搜索结果的相关性,从而排序展示合适的结果。 4. 相关性排名:将搜索结果按相关性从高到低排序,优先

Public @ 2023-06-24 18:50:12

搜索引擎检索系统概述

前面简要介绍过了搜索引擎的索引系统,实际上在建立倒排索引的最后还需要有一个入库写库的过程,而为了提高效率这个过程还需要将全部term以及偏移量保存在文件头部,并且对数据进行压缩,这涉及到的过于技术化在此就不多提了。今天简要给大家介绍一下索引之后的检索系统。检索系统主要包含了五个部分,如下图所示:索引&检索.jpg(1)Query串切词分词即将用户的查询词进行分词,对之后的查询做准备,以“1

Public @ 2011-11-07 16:21:49

更多您感兴趣的搜索

0.534020s