Categories


Tags


搜索引擎怎样判断文章或网页的原始出处?

复制内容网页有的时候会影响网页排名。

比如说原本是你写的文章,本来应该排名很好,但是其他人抄袭或转载你的文章,而且搜索引擎不幸的判断那篇被抄袭或转载的网页是原始出处的话,你应有的排名就会被那个网页夺走。

那么搜索引擎怎样才能从多个网页中挑出哪一个是原始出处呢?可能有以下几个考虑:

1)网页PR值。网页PR值越高,被认为是原始版本的可能性就越大。

2)网页第一次被收录的时间。网页被搜索引擎收录的时候越早,相比后发现的相同内容的网页来说,被当作原始出处的可能性就越大。

3)域名注册时间。越老的域名上面的网页被当成原始出处的可能性也越大。

4)网站的权威度。这就有点说不清了,可能包含前面3个因素,还有很多其他因素。

但到目前为止,无论以哪一个因素为主,或怎样组合这些因素,都不可能完全正确从多个网页中挑出原始出处。

比如说我这个博客就很新,域名也很新,文章被收录的时间有的时候也不一定是最早的,就权威地位和被信任度来说,也肯定比不上很多中文网站。但我的博客新,我的域名新,并不意味着我的内容就不是原始出处,实际上我的所有博客都是原创。

我最近也发现了很多网站都转载,有的时候是抄袭我的博客内容,很多网站的规模,历史,PR值都比我的网站要高的多。

在检测文章原始出处方面,Google做的比较好,基本上能够正确判断,百度做的就比较差。从我的文章在不同的地方出现的情况看,百度似乎认为域名比较老的就是原创。

这个问题不是网站管理员自己可以解决的,只有依靠搜索引擎算法的改进。

来源:SEO每天一贴 Zac 昝辉


Public @ 2017-04-29 16:21:50

搜索引擎是怎么删除重复网页的

搜索引擎是通过比较网页URL,内容和相关属性来删除重复网页的,具体步骤如下: 1. 搜索引擎收集器(Crawler)会在网络上发现新网页并收集,此时会有一定概率发现相同的网页,并添加到收集器的索引中去。 2. 收集器会识别新的网页,把重复的网页排除。 3. 然后,搜索引擎把新索引serves给布置在 Indexer(索引器)中,执行深入索引,会把相同内容的文章及URL排除,仅保留一条记录

Public @ 2023-02-24 23:12:24

百度搜索引擎工作原理-1-抓取建库

百度搜索引擎的工作原理首先是抓取建库,这是一个自动化的过程,百度通过多种方式来收集Web页面。百度拥有多台服务器,它们负责索引世界上大量的网站,以及持续的更新内容。 百度抓取网页的方式有两种,一种是爬虫,它们自动访问web页面,抓取那些有可能带有搜索关键字的页面;另一种是人工抓取,百度人工审查网页,将其记录到百度索引数据库中。 抓取到的网页都会放入百度索引库中,该库中包含了网页的具体内容、

Public @ 2023-03-02 00:00:21

搜索引擎是什么

所谓搜索引擎,就是根据用户需求与一定算法,运用特定策略从互联网检索出制定信息反馈给用户的一门检索技术。搜索引擎依托于多种技术,如网络爬虫技术、检索排序技术、网页处理技术、大数据处理技术、自然语言处理技术等,为信息检索用户提供快速、高相关性的信息服务。搜索引擎技术的核心模块一般包括爬虫、索引、检索和排序等,同时可添加其他一系列辅助模块,以为用户创造更好的网络使用环境。

Public @ 2011-11-23 16:22:57

搜索引擎面临哪些问题

搜索引擎面临的问题包括以下几个方面: 1.信息质量问题:搜索引擎的搜索结果中可能存在低质量、冗余、虚假和抄袭的内容,影响用户的搜索体验。 2.搜索算法问题:搜索引擎的算法可能会出现偏见和错误,导致搜索结果与用户的需求不匹配。 3.隐私问题:在搜索过程中,搜索引擎会收集用户的搜索历史、IP地址、浏览记录等敏感信息,可能被黑客攻击或泄露给第三方,造成用户隐私泄露。 4.版权问题:搜索引擎的搜索

Public @ 2023-06-11 09:50:12

更多您感兴趣的搜索

0.413957s