Categories


Tags


无法检测的垃圾SEO

昨天Matt Cutts发了个帖子,讽刺了一下所谓无法检测的垃圾SEO手法。

一家丹麦黑帽SEO公司声称,如果是著名品牌的公司做隐藏网页(cloaking,显示给搜索引擎蜘蛛和真正浏览者的内容不同,显示给搜索引擎的是优化过的版本),Google不会删除这个品牌的域名。

这并不正确。Matt Cutts声明,任何公司使用隐藏网页,如果违反了Google的原则,Google当然保留删除这个公司网站的权利。有意思的是,Matt Cutts没有说当然会删除这个公司的域名,而是说保留删除的权利。我倒不觉得这里有什么太特殊的意义,只说明Matt Cutts已经是公共关系高手,措词非常严谨。

这家丹麦公司还声称,他们所使用的隐藏网页技术是无法被检测到的。这家公司在其英文网站上声称,“搜索引擎无法知道隐藏网页的幕后人是谁”。其丹麦文网站说法稍有不同,是说,“搜索引擎不可能找出这个方法背后是什么人,所以也就没办法惩罚任何人。”

Matt Cutts的一个同事检查了一下,很快找到了下面这个网页。

undetectable-cloaking.gif

这是个隐藏网页程序出错的错误页面。很显然,这家黑帽公司没有正确设置他们的“不可被探测的”脚本。

在错误信息中,还给出了域名的完整路径。按照里面的出错信息再深挖一点,Matt Cutts等人找到了更多与这家公司有关的域名。这些出错页面已经存在两个月了。

Matt Cutts半开玩笑的给了两个建议:

1)如果你要声称你的黑帽垃圾手段是无法被检测的,别在你的出错信息里出现你的域名。2)不要使用诸如cloaking_link_building等名称。你不知道这些名称什么时候就被泄露出去了,而这些名称一看就知道是干什么的。

顺便说一下,这也就是为什么我认为不要把友情链接页起名为link.html之类的名字,很多人问逻辑是什么,因为这样的页一眼就看出来是友情链接页。

还有一个有意思的是,Matt Cutts明确说,这种隐藏网页技术既可以被人工检查,也可以被算法鉴别,所以当然不是“无法检测”的。这是否确认了Google会有一些匿名的蜘蛛呢?

唯一不能被检测出来的隐藏页面是,对普通浏览者和Google蜘蛛返回同样的内容(这种情况也就不是隐藏页面了)。

经常看到有人在论坛里讨论各种黑帽手法。不少人在搜索结果中看到有作弊的却没有被惩罚或删除,觉得很不公平。

我相信Google养的那么一大批Ph.D不是吃素的,这帮人智商都在普通人之上,我们能想出来的方法,他们不可能想不到。这也同样适用于百度等其他搜索引擎。李彦宏好像在很多年前就是搜索引擎技术方面最牛的三个人之一。有理由相信,他的团队也不会是吃素的。所以想用黑帽做SEO的人,还是小心为妙。

来源:seo每天一贴 Zac 昝辉


Public @ 2018-02-15 16:12:29

搜索引擎对SEO作弊的判定的11个条件

1.关键词堆积:将大量关键词塞入页面内容或元素中,甚至是不相关的关键词。 2.隐藏文字或链接:在页面中使用与网站背景相同的颜色或图案隐藏文字或链接。 3.页面重定向:把用户重定向到不同于他们实际想要进入的页面上。 4.门户页面:制作指向其他页面的链接,并在其中包含目标关键词,但这些链接不是通过网站导航可访问的。 5.虚假的文件名或扩展名:创建无意义的网页文件名或扩展名来欺骗搜索引擎。 6.机器人欺

Public @ 2023-06-20 03:50:21

什么是代理劫持

像PR劫持一样,对一些比较难以预防的黑帽陷害手法,本来不太想积极讨论,因为有很多时候会对无辜的站长造成很大的伤害。在前两天的SEO案例中,提到了代理劫持(proxy hijack),有人问是怎么回事,今天就解释一下。像这种东西都是双刃剑,不怀好意的人看了,又多了一个损人利己的工具。另一方面,已经深受其害的站长看了,也许对他们预防和恢复有正面意义。代理劫持简单说就是搜索引擎收录了通过代理服务器浏览的

Public @ 2022-10-15 16:12:29

什么是黑帽SEO中的隐藏页面?

大家都知道隐藏页面(cloaking)是SEO作弊手法的一种。隐藏页面通常是根据访问请求的IP地址和用户代理判断是搜索引擎蜘蛛还是普通用户,然后对蜘蛛和普通用户返回不同的内容。但是根据IP不同返回不同内容,有的时候又不是作弊。所以这两者之间的界限,经常比较模糊。Google站长博客前两天发了个帖子,对四种情况做了比较明确的定义。下面半翻译,半评论。地理定位 Geolocation根据用户的地理位置

Public @ 2009-04-23 16:12:30

更多您感兴趣的搜索

0.529814s