Categories


Tags


搜索引擎排名的人工干预

虽然搜索引擎排名技术和算法一直在提高,但我相信所有搜索引擎都或多或少有人工干预,就算最标榜一切以算法和自动化为目标的Google,也肯定有人工因素。

去年就曾经有人报道(http://www.searchbistro.com/index.php?/archives/19-Google-Secret-Lab,-Prelude.html),Google在很多国家的大学招募学生,进行搜索引擎结果的评价工作。一位教授从他的学生那里得到了这份资料,里面包含Google发给这些学生的评价标准,还有一段评价系统的演示。

大意是这些学生会在一个界面中,看到某一个特定搜索的两种结果,然后给出意见,哪一个更好,还是一样。

GoogleGuy很强烈的评论说,这份资料的泄漏已经违反了这些学生当初和Google所签订的保密条约。这也肯定了这些人工评价的存在。GoogleGuy说,这些进行搜索结果评估的学生或编辑,并不能直接干预搜索结果,也就是不能对搜索结果做任何调整。

Google的做法是,把这些评估作为软件工程师调整算法时的输入,通过算法的改变,使搜索结果更能符合编辑的预期。

我想这是可以相信的。估计在Google内部,只有在很高层次的人才有权力对某个网站的排名进行调整,就像前一阵Google对BMW网站的惩罚和快速恢复一样,这不可能是普通工程师有的权力。

不过无论如何,就连Google也肯定有人为的因素。

对百度人工干预搜索结果的传言就更多了。我的这个博客是我唯一的中文网站,所以对百度的人工干预并没有切身感受。不过从很多地方都能看到各种各样的评论猜测,认为百度对搜索结果的人工干预更广泛更随意,不是通过算法实现,而是直接调整某个网站的SEO排名。

我个人认为,这种方式没有Google的处理方式好。网站数目这么庞大,用户搜索的关键词这么多,不可能由人工对每个关键词的排名结果做评估。针对某个特定网站的调整,无法避免人的偏见和不公平性。人是最能腐败的动物,而算法不会。

给定一定的条件,算法对所有网站一视同仁。而人不可避免的带有主观性,在很多情况下,比算法还要不公正。

补充:刚写完这个帖子还没发就发现我的这个博客被百度封杀了。我观察应该是全面封杀,因为几乎所有页已经被删除了。不一定是人工干预。明天再来谈。

来源:seo每天一贴 Zac 昝辉


Public @ 2022-08-25 16:21:50

搜索引擎抓取系统概述(一)

编者按:站长朋友们,今后定期都将在这里跟大家分享一些有关搜索引擎工作原理及网站运营相关的内容,今天先简单介绍一下关于搜索引擎抓取系统中有关抓取系统基本框架、抓取中涉及的网络协议、抓取的基本过程三部分。互联网信息爆发式增长,如何有效的获取并利用这些信息是搜索引擎工作中的首要环节。数据抓取系统作为整个搜索系统中的上游,主要负责互联网信息的搜集、保存、更新环节,它像蜘蛛一样在网络间爬来爬去,因此通常会被

Public @ 2014-01-21 16:12:36

百度搜索引擎工作原理

百度搜索引擎工作原理大致如下: 1. 爬虫抓取网页:百度的爬虫程序会从互联网抓取网页并将其存入数据库中。 2. 预处理:百度对所有网页进行预处理,这个过程会去除无用信息、提取关键词、计算每个网页的PageRank等。 3. 查询处理:当用户输入关键词进行搜索时,百度会将查询处理成一组词条,并进行分类别处理,比如确定搜索意图是找资讯、图片、视频等。 4. 检索匹配:百度搜索引擎会对数据库中的

Public @ 2023-06-20 19:50:19

搜索引擎工作原理

基本流程抓取网页。每个独立的搜索引擎都有自己的网页抓取程序爬虫(Spider)。爬虫顺着网页中的超链接,从这个网站爬到另一个网站,通过超链接分析连续访问抓取更多网页。被抓取的网页被称之为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。处理网页。搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索

Public @ 2015-11-08 16:21:49

搜索引擎如何抓取你的网页

搜索引擎优化(SEO)是搜索引擎有好的收录网页的过程,适当的SEO有利于蜘蛛爬行你的网站,使你的内容符合搜索引擎算法,以便确认它与关键词高度相关。优化的目的就是使网页的内容便于蜘蛛理解,下面我就以百度新收录的一篇内容来进行说明,我以一个完整标题进行搜索,其目的是能反映出更多关键词在百度自然搜索的结果页面,能更好的说明搜索引擎是如何抓取你的网页的。搜索引擎如何抓取你的网页 网站优化 SEO优化 SE

Public @ 2019-08-19 16:22:21

更多您感兴趣的搜索

0.487838s